몸에 어딘가 이상이 있다고 느껴질 때, 우리는 인터넷에 먼저 검색해 보곤 합니다. 찾아보다 불안해지면 병원에 가고, 반대로 병원에 갈 걸 알면서도 일단 검색부터 해보기도 하죠.
불과 몇 년 전까지만 해도, ‘검색창에 질문을 입력하고 관련 웹페이지를 클릭해 들어가는 방식’이 당연한 정보 탐색의 루틴이었습니다.
하지만 지금은 다릅니다. 이제는 많은 사람들이 AI 챗봇에 직접 묻습니다. 두통의 원인이 뭔지, 병원에 가야 할지, 어떤 약이 괜찮은지 말이죠. 질문 방식도 달라졌고, 답을 받아들이는 방식도 달라졌습니다.
AI 챗봇의 등장은 우리가 정보를 찾고 신뢰하는 구조 전체를 흔들고 있습니다. 특히 건강처럼 신중한 판단이 필요한 영역에서는 이 변화가 더 민감하게 작용합니다.
이 글에서는 AI 챗봇이 기존의 검색 흐름을 어떻게 뒤흔들고 있는지, 그리고 그 변화가 건강 정보를 다루는 방식에 어떤 위험과 기회를 만들어내는지 짚어보려 합니다.
제로클릭:
웹에 들어가지 않고도 정보를 얻는 시대
AI가 기존 검색 생태계에 불러온 가장 두드러진 변화 중 하나는 바로 ‘제로클릭 검색’의 확산입니다. 제로클릭이란 사용자가 질문을 입력한 뒤 웹사이트를 클릭하지 않고도 검색 결과 페이지 내에서 정보를 얻고 이탈하는 행위를 말하는데요.
AI 챗봇은 단순히 정보를 나열하지 않습니다. 다양한 출처의 정보를 종합하고 이를 문맥에 맞게 재구성해, 하나의 완성된 답변 형태로 제공합니다. 이용자가 여러 웹페이지를 직접 비교하거나 판단하는 과정 없이, 바로 ‘정답’을 제공받게 되는 것이죠. 정보 탐색의 과정이 요약 → 해석 → 판단에서 요약 → 소비로 단축되고 있는 셈입니다.
이러한 변화에 대응하기 위해 구글은 2024년부터 검색에 AI Overview 기능을 도입했습니다. 이는 여러 웹사이트의 정보를 기반으로, AI가 요약한 핵심 답변을 검색 결과 상단에 노출되는 방식으로 작동합니다. 사용자 입장에서는 기존의 링크를 클릭할 필요 없이, AI가 추려낸 요약만 보고도 궁금증을 해결할 수 있게 되었습니다.
나아가 2025년 5월, 구글은 검색 엔진과 AI 챗봇의 결합 형태인 ‘AI 모드’도 공개했습니다. 사용자가 검색창이 아닌 채팅방에서, AI와 대화 방식으로 질문을 이어가며 정보를 탐색하는 구조로, 기존의 클릭 기반 검색과는 본질적으로 다른 경험을 제공합니다.
이처럼 검색의 구조가 변화하면서, 전반적인 웹 트래픽에 큰 변화가 나타나고 있습니다. 이코노미스트에 따르면, 2024년 대비 2025년 글로벌 웹 트래픽은 약 10% 감소했습니다. 그중에서도 특히 건강 분야의 감소 폭이 두드러졌는데, 무려 30% 이상 하락한 것으로 나타났습니다.
검색을 포함한 정보 소비 방식 전반이 달라지고 있음을 보여주는 신호인데요. 특히 건강 정보처럼 판단의 정확성이 중요한 분야에서 이 변화는 더욱 민감하게 작용할 수 있습니다. 그렇다면, AI 챗봇은 과연 신뢰할 만한 건강 정보 제공자일까요?
할루시네이션의 복리:
빠르게 퍼져나가는 오류
결론부터 말하자면, 아직은 그렇지 않은 것 같습니다. AI 챗봇은 검색 엔진을 대체할 만큼 빠르고 편리한 도구지만, 정보의 신뢰도 측면에서는 여전히 풀리지 않은 과제가 많습니다.
대표적인 문제로는 존재하지 않는 출처나 내용을 만들어내는 ‘할루시네이션’ 현상이 있죠. 여기에 더해, 정확한 정보가 제공되었음에도 이를 잘못 해석하거나 문맥을 왜곡해 전달하는 사례도 적지 않습니다.
실제로 최근 가디언지에는 미국의 한 60대 남성이 ChatGPT가 제시한 소금 대체제 ‘브롬화나트륨’을 먹고 브롬 중독으로 병원에 입원한 사례도 보도되었습니다. 이는 AI가 브롬화나트륨에 대한 정보를 제공할 때 ‘식이용으로 부적절하다’라는 핵심 정보를 누락했기 때문입니다. 이처럼 부분적이고 불완전한 정보 제공은 AI의 주요 문제점 중 하나입니다.
하지만 문제는 여기서 끝나지 않습니다. 더 심각한 문제가 있는데요. 바로 이렇게 생성된 부정확한 정보가 다시 AI 생태계 내부에서 반복 소비되고 있다는 사실입니다.
최근에는 AI가 만든 콘텐츠를 또 다른 AI가 요약하거나 인용하는 사례가 늘고 있습니다. 이미 오류가 포함된 문장을 기반으로 새로운 정보를 만들어내는 방식은, 잘못된 데이터가 다시 잘못된 결과를 낳는 악순환을 만들고 있습니다.
할루시네이션이 마치 복리 현상처럼 가파르게 심화되고 있는 것입니다. 이러한 흐름이 이어지면, 정보가 어디에서 왔는지, 얼마나 정확한지 판단하기가 점점 어려워집니다.
AI 정보 생태계는 우리가 예상하는 것보다 훨씬 빠르게, 더 심각하게 바뀌고 있습니다. 이런 이유로, 아직까지는 AI 챗봇이 건강 정보를 제공하는 데 있어 충분히 신뢰할 만한 출처로 보기 어렵다는 지적이 나옵니다.
AI에게 건강을 묻는 사람들
AI 챗봇을 건강 검색 도구로 활용하는 이들은 꾸준히 증가하고 있는데요. KFF(Kaiser Family Foundation)에 따르면, 미국 성인의 17%가 한 달에 한 번 이상 건강 관련 정보를 찾기 위해 AI 챗봇을 사용하는 것으로 나타났습니다. 이 비율은 30세 이하로 연령대를 좁힐 경우 25%까지 상승합니다.
생각보다 많은 사람들이 이미 AI를 일상적인 건강 정보 탐색 수단으로 활용하고 있는 것입니다.
이러한 변화는 실제 의료 현장에도 적지 않은 영향을 미치고 있습니다. Forbes가 인용한 PwC의 글로벌 설문조사에 따르면, 109개국 2,206명의 의사와 간호사 중 22%는 AI 챗봇으로 인해 환자들이 잘못된 건강 정보를 갖고 내원하고, 그로 인해 진료 시간이 부족해지는 일이 발생한다고 답했습니다.
AI에서 얻은 정보만으로 특정 질병이나 치료법에 대해 스스로 판단하고 진료실을 찾는 환자들이 늘고 있지만, 그 정보가 사실과 다르거나 왜곡된 경우도 적지 않습니다. 결국 환자는 자기 판단의 오류와 과잉 불안을 겪게 되고, 의료진은 이를 바로잡기 위해 불필요한 시간과 노력을 들여야 하는 상황이 빈번하게 발생하고 있습니다.
아직은 건강처럼 민감한 주제에 대해 AI를 전적으로 신뢰하는 사용자는 많지 않습니다. 하지만 병원 방문 전 정보를 미리 파악하고 교차 검증하기 위한 수단으로 AI를 활용하는 경우는 점차 늘어나는 추세입니다. 그만큼 의료계와 AI 개발자 모두 보다 신중하게 대응할 필요가 있는 시점입니다.
건강 정보의 혼란, 그 다음은?
지금까지 살펴본 것처럼, AI는 제로클릭 답변을 통해 사용자들에게 새로운 편의를 제공하고 있습니다. 하지만 동시에, 정확하지 않은 정보를 제공한다는 구조적 문제도 함께 안고 있죠. 특히 건강 정보처럼 민감한 분야에서는 ‘신뢰하지 않지만 계속 사용하는’ 이용자들이 늘어나고 있고, 그 변화가 의료 현장에 실질적인 부담으로 작용하고 있습니다.
그런데 이 문제는 단지 헬스케어에만 국한된 이야기가 아닐지도 모릅니다.
제로클릭으로 인한 트래픽 분산, 그리고 AI 상호참조로 인한 오류 악순환은 다른 분야에서도 충분히 재현될 수 있는 흐름입니다. 신뢰도 낮은 정보가 AI 모델을 통해 반복 재생산되는 현상을 막지 못한다면, 정보 생태계 전체의 신뢰성이 흔들릴 위험이 있습니다.
그렇다면 이 문제를 어디서부터 풀 수 있을까요? 한 가지 분명한 것은, 순환 참조의 고리를 끊는 기술 혁신이 반드시 필요하다는 점입니다. 정보의 원천이 명확하고, 검증된 데이터를 기반으로 작동하는 ‘신뢰할 수 있는 AI’에 대한 수요는 앞으로 더욱 커질 것입니다.
한편, 이런 상황은 헬스케어나 법률, 교육 등 높은 신뢰도를 요구하는 버티컬 AI 스타트업에는 새로운 기회가 될 수 있습니다. AI 기술 자체보다는 ‘무엇을 기반으로 답하느냐’, ‘어떻게 책임지는가’가 경쟁력을 결정짓는 시대가 열리고 있기 때문입니다.
이런 변화 속에서 어떤 새로운 기회들이 나타날지, 카카오벤처스와 함께 고민하고 싶은 분들이 있다면 언제든지 편하게 의견 남겨주시면 감사하겠습니다 😌
인사이트 | 카카오벤처스 투자팀
제작 | 커뮤니케이션팀 에디터 인턴 Chloe
앞으로도 함께할까요?