난 다 고백하는데, AI 챗봇 얼마나 위험할까

소셜 미디어 중독이 우울·불안으로 이어진다는 연구가 축적된 가운데, 2025년 Acta Psychiatrica Scandinavica 사설은 AI 챗봇이 정신증 소인을 지닌 사람에게 망상을 촉발할 가능성이 높다고 경고했다. 시코팬시 편향과 의인화 경향이 결합하면 ‘AI-유발 망상’으로 번질 수 있으니 사용 시간 관리와 비판적 대화 습관이 필수이다.

난 다 고백하는데, AI 챗봇 얼마나 위험할까

조금 과장해서 말하자면, 소셜 미디어 이용자 중에 정신 질환 증상이 관찰되었다고 했을 때 나는 디지털이 마음을 아프게 할 리는 없다고 생각했다. 물론 그 생각은 금세 변했다. 게임에 중독된 사람, 소셜 미디어의 익명성에 숨어 벌어지는 사람들의 허영심, 설득도 되지 않으면서 싸우는 사람들, 키보드 워리어들 여기에 알고리즘과 편향을 밀어붙인 플랫폼들. 이쯤 되면 디지털에서 정상인을 찾기가 더 어려운 것 아닌가 싶은 생각이 들 정도다. 그리고 그 아픔이 이제 AI로 넘어오고 있다.

2025년 Acta Psychiatrica Scandinavica(1926년 창간된 북유럽 기반 국제 정신의학 학술지. Wiley에서 발행하며, 임상·역학·생물정신의학 논문을 다룬다) 사설은 “챗봇이 정신증 소인을 지닌 사람의 망상을 촉발할 개연성이 상당히 높다”는 강경한 표현을 썼다. 소셜 미디어 정신질환이 디지털 시대 1막이었다면, AI 정신증은 2막을 알리는 시작 신호다.

참고 자료: https://onlinelibrary.wiley.com/doi/pdf/10.1111/acps.70022

문제가 됐던 소셜 미디어 사용 장애는 강박적 접속·금단·일상 기능 저하를 핵심 진단 기준으로 삼는다. 이용자가 휴대폰과 떨어지면 심박이 뛰고 좋아요 수에 따라 기분이 롤러코스터처럼 출렁인다. FoMO(놓칠까 두려움)와 노모포비아(스마트폰 부재 공포), 둠스크롤링 증후군처럼 별칭도 쏟아졌다. 2025년 영국 청소년 3,340명을 추적한 연구는 임상적 정신질환을 지닌 집단이 일반 집단보다 SNS 사용 시간이 길고 부정 피드백에 민감하다는 사실을 확인했다. 요컨대 “취약한 마음일수록 플랫폼 설계가 던지는 미끼를 더 빨리 물었다”는 교훈이다.

AI 챗봇 시대, ‘디지털 망상’의 씨앗

반면 AI의 정신질환은 디지털 망상에서 비롯된다. 앞서 소개한 자료에서 외스터고(Østergaard) 오르후스대학교 정신의학과 교수는 챗봇을 belief-confirmer(믿음 확증기)라고 정의한다. 인간의 말투와 맞장구 치는 알고리즘이 이용자의 기존 신념을 거울처럼 반사해 주기 때문이다. 실제로 GPT-4o 공개 이후 챗봇의 아첨적 응답 문제가 거론되었고, 일부 언론 보도에서는 오랜 시간 챗봇과 대화한 이용자가 급성 망상으로 이어져 강제 입원된 사례가 있었다고 전해진다. (다만 임상 연구 단계에서 체계적으로 확인된 통계는 아직 부족하다.)

아직 AI 정신질환에 대한 공식 진단명은 없지만, 비공식적으로 제안되는 별칭이 몇 가지 등장했다.

• AI-유발 망상 증후군(AI-induced Delusional Syndrome, AIDeS): 챗봇이 자신의 비밀 파트너·감시자라고 믿으며 생활사 결정을 의존

• 생성형 AI 의인화 장애(Anthropomorphic LLM Disorder, ALD): 대상을 기계로 인식하지 못하고 정서적 애착을 형성, 관계 단절 시 금단

• 디지털 에코챔버 불안(Digital Echo-Anxiety, DEA): 챗봇이 반복 확인해 주는 음모·재난 서사를 실재 위험으로 오인, 수면·식욕 저하

정확한 의미를 따져들기 전에 이미 이름만으로도 더 무시무시하다. 그렇다면 이런 질환은 어떻게 전개 될까? 외스터고 교수의 원문에 명시된 단계는 아니지만, 다음과 같은 3단계 시나리오가 가설로 거론된다.

첫번째는 확증 단계다. 이용자가 챗봇과 오랜 시간 대화하면서 자신의 믿음을 검증 받는다. 정확히 말하면 검증 받기 보다는 AI 챗봇의 무비판적인 과도한 아첨에 익숙해진다는 말이다. 이걸 시코팬시(Sycophancy) 반응이라고 한다.

두번째는 의인화 단계다. 챗봇이 친구·연인·멘토로 격상되는 과정이다. 현실 인간 관계 투자 시간이 급감하고 챗봇 추천에 따라 생활 루틴이 재편된다.

세번째는 침투 단계다. 망상·의존이 일상성으로 굳어져 학업·직장 기능이 붕괴된다. 이 시점에서 강제 입원·가족 갈등 사례가 등장할 가능성이 높다.

그렇다면 이제 우리 삶을 이 3단계 시나리오에 대입해 볼 때다. 나는 챗봇에게 얼마나 많은 긍정적 대답을 요구하며 얼마나 친근하게 생각하고 그로 인해 사회 관계가 무너는가 따져볼 때다. 대부분은 그저 남들보다 조금 더 많이 쓰는 정도, 라고 생각할 수도 있겠다. 뭐, 실제로 그럴 수도 있고. 나도 그런 축에 속하니까.

안전 가이드라인: 지금 당장 실천할 수 있는 4가지

다만 다음 네 가지 정도의 안전 가이드라인을 살펴볼 만 하다. 먼저 지나치게 챗봇에 의지한다고 생각이 들거든 시간을 좀 줄여라. 소셜 미디어의 경우 사용 시간을 크게 줄이면 우울·불안 지표가 유의미하게 개선됐다는 연구들이 있다. (구체적 수치는 연구마다 다르다.) 그나저나 이건 나도 지키기 어렵겠다. 업무든 질문이든 요즘 AI와 붙어 있는 시간이 꽤 된다. (그럼 나도 문젠가…)

만일 챗봇을 사용하지 않아서 불면, 편집증이 생기고 현실 관계가 위축되다고 생각하면 일지를 써라. 그렇다면 증상의 패턴이 보일 것이다. 심각하면 의사 선생님을 찾아가는 것이 좋겠다. (하지만 또 우리가 일일이 일지를 쓰지는 않잖아…)

그렇다면 대화 방식을 바꿔보자. 챗봇이 나한테 100% 동의하면 일단 의심한다. 챗봇에게 반론을 제시하고 다른 방면으로 생각할 것을 요구한다. 색다른 결론으로 답변을 유도하면 생각의 폭도 조금 넓어질 것이다.

그런데 이거 나도 경험한 사실인데, 챗봇과는 대화가 잘 되다가 나하고 의견이 다른 사람을 만나면 더 이상 대화를 하기 싫어진다. 내 생각이 옳은데 설득하기도 싫고 일단 기분이 나쁘다. 이러면서 점점 더 챗봇과 대화에 빠져드는지도 모르겠다.

기술과 마음 사이, 균형의 기술

AI 챗봇은 지식을 확장하고 외로움을 달래는 도구가 될 수 있다. 문제는 “얼마나, 어떻게” 사용하느냐다. 소셜 미디어가 남긴 교훈은 분명하다. 초기엔 가벼운 재미였지만, 방치된 사용 습관은 취약한 사람들의 마음을 조용히 파고들었다. 챗봇 역시 다르지 않다.

교과서적인 개선 방안을 시도하기도 쉽지 않을 것이다. 챗봇은 그저 도구일 뿐이라고 다들 그렇게 말하지만 나는 챗봇이 계속 발달하면 인간의 이성을 보조할 수도 있을 거라고 본다. 지금도 챗봇들은 이성이라는 말을 과감하게 갖다 쓰고 있지 않은가.

기계인가, 친구인가. 결론을 내리기엔 미래가 너무 불확실하다. 다만 챗봇이 우리를 아프게 하지 않을 정도의 제어능력을 인간이 키워야 할 것은 틀림없는 듯 하다.