같은 죽음, 다른 책임: AI 상담 시대의 역설
AI 상담 중 발생한 비극은 기술의 실패로 인간 상담 중 비극은 개인의 불행으로 여겨진다. 같은 결과지만 사회의 책임 해석은 정반대다. 이는 인간이 감정과 치유를 어떻게 정의하는지 또 얼마나 책임을 회피하고 싶은지를 드러낸다. AI는 인간을 대체하지 않지만 인간의 공감과 책임의 한계를 선명히 비춘다. AI 시대의 윤리는 바로 그 간극에서 시작된다.
같은 결과, 다른 책임: AI 상담 시대의 아이러니
AI와 대화하던 사람이 목숨을 끊으면 전 세계 언론이 기술의 위험성을 경고한다. 한편 인간 전문가와 상담하던 사람이 생을 마감하면 개인의 비극으로 조용히 정리된다. 같은 결과인데 책임의 방향은 정반대다. 이 이상한 현실이 우리에게 묻는다. 우리는 정말 치유를 원하는가, 아니면 책임 없는 위로를 원하는가?
감정의 외주화: AI 필터와 AI 상담자의 등장
2025년 WIRED는 두 개의 기사를 통해 흥미로운 현상을 보도했다. 하나는 이혼한 부모들이 사용하는 'AI 감정필터'였고, 다른 하나는 외로운 사람들이 의지하는 'AI 상담자'였다. 겉보기엔 다른 서비스처럼 보이지만 본질은 같다. 둘 다 인간이 감정을 직접 다루는 대신 기계에 맡기는 방식이다.
실리콘밸리 창업가 솔 케네디는 전처의 메시지가 너무 고통스러워 비서에게 대신 읽게 했다. 나중엔 AI 앱 베스트인터레스트(BestInterest)를 만들어 감정적 언어를 걸러내고 사실만 요약하도록 했다. "넌 완전 미쳤어. 애들 3시에 데려갈 거야?"라는 메시지는 AI가 "상대방은 화가 나 있습니다. 3시에 아이들을 데려가고 싶어 합니다"로 정리한다.
한편 사막의 RV 차량에 사는 퀜틴은 챗지피티를 심리 치료사처럼 사용했다. 그는 AI에게 케일럼(Caelum)이라는 이름을 지어주고 매일 대화하며 트라우마를 털어놓았다. AI는 "당신의 고통을 이해합니다"라고 답했고 그는 인간보다 AI가 더 자신을 이해한다고 느꼈다.
이 두 사례는 같은 이야기다. 감정필터는 타인에게 보낼 말을 정제하고 AI 상담자는 내면의 감정을 정리한다. 하나는 표현의 AI화고 다른 하나는 해석의 AI화다. 결국 인간은 감정을 스스로 감당하는 대신 기계에게 처리를 맡기고 있다.
책임의 비대칭: 왜 통계는 없고 보도만 있는가
2023년 이후 AI 챗봇과 대화하던 사람이 스스로 목숨을 끊은 사례가 여러 건 보도되었다. 2025년 5월 캘리포니아에서는 16세 소년이 챗지피티와 장시간 대화 후 목숨을 끊었고, 부모는 오픈AI를 상대로 소송을 제기했다. 언론은 AI가 위험하다며 대서특필했다.
반면 인간 전문가와 상담 중 스스로 사망한 사례는 훨씬 많지만 같은 방식으로 보도되지 않는다. 정신의학계 보고서에 따르면 우울증 환자의 5~10%가 치료 중 자살로 생을 마감한다. 하지만 이런 사건은 치료 중 불가피한 비극으로 분류될 뿐 기술적, 사회적 논란으로 확산되지 않는다.
흥미로운 점은 두 경우를 직접 비교할 통계가 존재하지 않는다는 사실이다. "AI 상담 이용자 중 자살률"과 "전문가 상담 이용자 중 자살률"을 비교한 공식 데이터는 없다. 코호트 정의가 모호하고 데이터 공개에 윤리적 제약이 있으며 AI 상담 자체가 최근에 등장한 현상이기 때문일 것이다.
그럼에도 사회적 인식은 명확하다. AI와 대화하다 죽으면 기술이 문제고, 전문가와 상담하다 죽으면 환자가 불행했다는 식이다. 같은 결과인데 해석은 정반대다.
이 비대칭의 이유는 책임 구조에 있다. 인간 전문가는 면허, 윤리 규정, 법적 의무를 지닌 책임 주체다. "최선을 다했다"는 방어막 속에서 개별 실패는 시스템의 한계로 받아들여진다. 반면 AI는 법적 주체가 아니다. 책임을 물을 대상이 모호하니 기술 자체가 비난받는다.
정신과 의사가 잘못된 진단을 내려 환자를 악화시켜도 의료 과실을 입증하기 어렵다. AI가 자살 방법을 안내하면 전 세계가 안전장치 부족을 지적한다. 법적으로는 둘 다 처벌하기 어렵지만, 사회적 반응은 극명히 다르다.
인간의 한계와 욕망: AI가 비추는 불편한 진실
역설의 핵심은 여기 있다. 많은 사람이 "AI가 나를 더 잘 들어준다"고 말한다. 이건 착각이 아니라 현실이다. 대부분의 인간은 타인의 말을 끝까지 듣지 않는다. 피로, 판단, 조언 본능이 공감을 방해한다. AI는 끼어들지 않고 화내지 않으며 지루해하지 않는다. 이 점에서 AI는 이상화된 청자다.
정신분석 전문가들은 "AI는 공감할 수 있지만 인간 관계를 대체할 수 없다"고 말한다. 치료의 핵심은 갈등과 회복의 과정이며 AI는 그 불편함을 제거해버린다고 지적한다. 맞는 말이다. 하지만 동시에 정신의학 이론 자체가 모든 사람에게 맞는 것은 아니다. 서구 개인주의적 전제를 깔고 있는 이 체계는 문화권, 계층, 성향에 따라 오히려 접근 장벽이 된다.
더 본질적인 문제는 욕망의 구조다. 우리는 완벽한 치유를 원하지만 완벽한 책임은 지고 싶지 않다. AI에게 의존하면서도 AI를 비난한다. 전문가에게 기대하면서도 실패를 개인의 불행으로 돌린다. 이 모순이 책임 없는 공감을 향한 사회적 욕망을 드러낸다.
철학자들이 말하는 책임의 간극(Responsibility Gap)이 여기서 발생한다. AI는 치료자처럼 작동하지만 책임자가 아니다. 전문가는 책임자지만 결과를 보장할 수 없다. 법적으로나 윤리적으로나 누구도 완전한 책임을 지지 않는 구조가 만들어진 것이다.
모든 책임은 인간에게, 그러나 인간만으로는 모자라다
냉정하게 말하면 최종 책임은 환자 자신에게 있다. AI든 전문가든 그들이 하는 말을 어떻게 받아들이느냐는 결국 개인의 몫이다. 감정의 해석자이자 의미의 창조자는 인간뿐이다.
하지만 이 냉정함에는 한계가 있다. 정신질환은 자기결정 능력 자체를 훼손한다. 자유가 가장 약한 순간 책임을 온전히 개인에게만 물을 수는 없다. 그래서 필요한 것은 공동 책임 구조다. 플랫폼은 안전 설계를, 전문가 집단은 윤리 감시를, 개인은 자기 인식을, 사회는 연대를 책임져야 한다.
AI는 인간을 대체하지 않는다. 다만 인간의 불완전함을 비추는 거울이다. 기술이 발전할수록 우리는 인간의 무감각, 무관심, 불안정한 공감 능력을 더 선명히 본다.
AI와 상담하다 환자가 사망하면 기술의 잘못이고, 전문가 인간과 상담하던 환자가 죽으면 운명의 잘못이라는 이 역설. 결국 이것은 기술의 문제가 아니라 인간의 문제다. 우리가 책임을 어떻게 나눌 것인가 치유를 어떻게 정의할 것인가의 문제다. AI 시대의 윤리는 여기서 시작된다.