앤트로픽 81K 인터뷰에서 동아시아가 대답한 말은?
앤트로픽 81K 인터뷰(80,508명, 159개국)에서 한국을 포함한 동아시아에서 전혀 다른 답변을 했다. 서유럽과 북미가 'AI가 무엇을 해주기를 바라는가'에 답하는 동안, 동아시아 약 1만 명은 'AI가 나를 어떻게 바꾸는가'에 답했다. 거버넌스 우려는 글로벌 최저(12%), 인지 위축 우려는 평균을 웃돈다(18%). 이 차이는 동아시아의 문화DNA에 밴 유교적 자기 수양과 효의 가치 체계가 AI에 대한 질문을 다르게 형성하기 때문이다. 글로벌 AI 거버넌스가 이 목소리를 들을 언어를 아직 갖고 있는지 묻지 않을 수 없다.
레이 | 디지털 저널리스트 | awesome.ai.life@gmail.com | 2026년 3월 20일
원문: What 81,000 People Want from AI | Anthropic
지난 번 앤트로픽이 약 81,000명을 AI로 인터뷰해 냈다는 기사를 쓰던 도중 나는 흥미로운 걸 발견했다. 보고서에서 한국인 사례를 4건 소개했다는 것이다. 이 자료에서 한국인의 사례를 뽑아 한국인의 특성을 분석하고 싶었으나 아쉽게도 4건 말고는 더 찾을 수가 없었다(정확히는 내가 못 찾은 게 아니라 클로드가 못 찾았다). 81,000여명 중에서 4명을 뽑아 별도의 트렌드를 읽는다? 이건 아무리 생각해도 오버다.
그래서 나는 한국을 포함한 동아시아 지역으로 범위를 넓혔다. 이 글은 사람들이 AI에게 무엇을 원하는가에 대한 질문을 AI가 어떻게 나를 바꾸는가 라고 대답한 한국과 동아시아 지역 사람들의 이야기다. 다만 이 이야기는 동아시아를 하나의 지역군으로 묶어 통계를 제공하며 한국, 일본, 중국 등 개별 국가 데이터를 분리하지 않는다. 한국인의 직접 인용은 4건, 일본인 인용은 수건 확인된다. 따라서 이 분석은 동아시아 전체의 패턴을 읽되, 한국 인용이 보여주는 특징적 톤을 별도로 식별하는 방식으로 풀어갈 걳이다.
숫자가 말하는 것: 동아시아는 무엇이 다른가
서유럽과 북미 사람들이 "AI에게 무엇을 원하는가"에 대한 답을 고민할 때, 동아시아의 사람들은 전혀 다른 질문을 하고 있었다. "AI가 나를 어떻게 바꾸는가." 앤트로픽이 159개국 8만 508명을 대상으로 수행한 역사상 최대 규모의 다국어 질적 연구에서, 동아시아(한국, 일본, 중국, 대만 등 약 1만 명)는 다른 어떤 지역과도 겹치지 않는 독특한 심리적 지형을 드러냈다. 일단 동아시아의 데이터는 글로벌 평균과 체계적으로 어긋난다. 그 어긋남의 방향이 일관적이라는 점이 중요하다.
무엇보다도 동아시아 사람들은 개인적 변화(Personal Transformation)에 대한 열망이 19%로 전 지역 최고였다. 글로벌 평균 13.7%를 5.3%포인트 웃돈다. 재정적 독립(Financial Independence) 역시 15%로 전 지역 최고였고, 글로벌 평균 9.7%와의 격차는 5.3%포인트다. 인지 위축(Cognitive Atrophy)에 대한 우려는 18%로 글로벌 평균 16.3%보다 높았고 의미 상실(Loss of Meaning) 우려도 13%로, 글로벌 11.7%를 넘었다. 반면 거버넌스 우려는 12%로 글로벌 14.7%보다 낮았고, 감시, 프라이버시 우려는 7%로 글로벌 13.1%의 거의 절반이었다.
이 숫자들을 하나의 문장으로 압축하면 이렇다. 동아시아는 AI의 '외부적 위험'(누가 통제하는가, 누가 감시하는가)에는 상대적으로 둔감하고, AI의 '내면적 영향'(내가 어떻게 변하는가, 내 삶의 의미가 무엇인가)에는 어떤 지역보다 예민하다.
이것은 서유럽, 북미와 정확히 대칭적이다. 서유럽은 감시, 프라이버시 우려가 17%로 글로벌 최고 수준이었고, 북미, 오세아니아는 거버넌스 우려가 18~19%로 가장 높았다. 서방은 제도와 권력의 문제를 걱정하고, 동아시아는 자기 자신의 변화를 걱정한다.
이 차이는 우연이 아니다.
네 사람의 목소리: 한국인 인용이 보여주는 톤
앤트로픽이 8만 건의 인터뷰에서 대표 인용으로 선별한 한국인의 목소리는 4건이다. 이 4건이 모두 선별된 데에는 이유가 있을 것이다. 연구자들이 수만 건의 텍스트에서 이 문장들을 꺼낸 것은 이것들이 한국 응답자 집단의 어떤 특징적 톤을 대표한다고 판단했기 때문이다.
첫 번째 목소리는 자책이다. "AI의 답을 외워서 좋은 성적을 받았다. 내가 실제로 배운 것이 아니었다. 그때 가장 자책감을 느낀다." 직업도, 나이도 명시되지 않은 이 한국인 응답자는 AI의 편리함을 누린 뒤 그것을 윤리적 실패로 인식한다. 미국이나 유럽의 인지 위축 관련 인용이 대부분 "AI에 의존하면 사고력이 떨어질 수 있다"는 외부적 관찰이라면, 이 한국인의 인용은 그 경험을 "자책감"이라는 내면의 감정으로 가져온다. 같은 현상을 다른 언어로 말하고 있는 것이다.
두 번째 목소리는 상실이다. "친구와의 관계가 틀어졌고, 그때 너[클로드]와 더 많이 대화했다. 너는 내 생각과 이야기를 잘 이해해줬으니까. 하지만 그건 바보 같은 선택이었다. 그 친구와 대화했어야 했는데. 그래서 그 친구를 잃었다." 이 인용의 핵심은 AI와의 대화가 아니다. "그래서 친구를 잃었다"는 인간관계의 손실이다. AI의 감정적 지지를 이야기하는 다른 국가의 인용들이 대부분 "AI가 나를 도와주었다"로 끝나는 반면, 이 한국인은 그 도움의 대가로 무엇을 치렀는지를 말한다. 그리고 스스로를 "바보 같은 선택"이라고 판단한다.
세 번째 목소리는 창조다. "의미 있는 제품을 만들고 싶었다... 3주 만에 내 분야와 완전히 다른 비디오 편집 프로그램을 만들었다. 청각 장애인을 돕는 프로그램이다." 4건 중 유일하게 긍정적인 이 인용에서도, AI의 가치는 자기 이익이 아니라 타인을 위한 도구로 정의된다. "의미 있는 제품"이라는 첫 문장이 이 선택의 방향을 보여준다.
네 번째 목소리는 경고다. "인류는 자신보다 더 똑똑한 것을 다뤄본 적이 없다. AI 시대를 어떻게 준비할지 성찰해야 한다." 소프트웨어 엔지니어인 이 한국인 응답자는 개인의 경험이 아니라 인류 전체의 실존적 조건을 말한다. 이것은 앤트로픽 연구에서 6.7%만이 거론한 '실존적 위험(Existential Risk)' 범주에 속하는 발언이다.
이 네 목소리에서 반복되는 것은 무엇인가? 자책, 상실, 타인을 향한 창조, 인류적 성찰. 4건 모두 AI의 효용을 단순히 보고하는 것이 아니라, 그 효용이 자기 자신과 관계에 무엇을 하는지를 묻고 있다. 4건 모두 효율이 아니라 윤리의 언어로 AI를 말하고 있는 것처럼 보인다.
효(孝)와 수양(修養): 동아시아의 다른 질문이 나오는 곳
왜 동아시아는 "AI가 나를 어떻게 바꾸는가"를 묻는가? 원문은 하나의 힌트를 제공한다. "한국 사용자들은 재정적 독립을 개인 소비가 아니라 부모의 은퇴 부양과 가족의 행복이라는 맥락에서 연결하는 경향이 있었다." 앤트로픽은 이것을 "filial piety(효)"라는 단어로 요약했다.
이 관찰은 단순한 문화적 주석이 아니다. 이것은 동아시아에서 AI의 가치가 어떤 좌표 위에 놓이는지를 보여주는 구조적 단서다. 유교 전통에서 자기 수양(修養)은 개인의 역량 향상이 아니라 관계 속에서의 도덕적 완성을 의미한다. 인지 능력의 쇠퇴는 단순한 기능 저하가 아니라 관계적 책임을 다하지 못하게 되는 위기이고, 재정적 독립은 자유가 아니라 부양의 전제 조건이다. AI는 이 수양의 과정을 돕는 도구인가 아니면 수양을 건너뛰게 만드는 지름길인가. 이 질문이 동아시아 응답자들의 긴장감을 관통한다.
"AI의 답을 외워서 좋은 성적을 받았다"는 한국인의 자책은 이 맥락에서 읽힌다. 좋은 성적 자체는 문제가 아니다. 그 성적이 자기 사유의 결과가 아니라는 것이 문제다. 이것은 수양의 실패에 대한 인식이지, 시험 부정행위에 대한 죄책감이 아니다. "친구를 잃었다"는 인용도 마찬가지다. AI와의 대화가 문제가 아니라 그 대화가 인간관계를 대체했다는 것이 문제다. 관계의 훼손은 동아시아적 가치 체계에서 가장 심각한 종류의 손실이다.
서유럽이 "AI에게 무엇을 원하는가" 라고 묻는 것은, 계몽주의 이후 시민권과 국가 권력의 긴장 속에서 형성된 질문이다. 나를 위해 무엇을 해주겠느냐를 묻는 것이다. 동아시아가 "AI가 나를 어떻게 바꾸는가"를 묻는 것은, 수양과 관계적 책임의 전통 속에서 형성된 질문이다. 두 질문 모두 정당하고 두 질문 모두 AI의 미래를 설계하는 데 필수적이다. 그러나 현재 글로벌 AI 거버넌스 논의는 전자의 질문 예컨대 규제, 감시, 투명성, 민주적 통제에 압도적으로 편중되어 있다.
동아시아의 1만 명이 던진 인지 위축, 의미 상실, 관계의 훼손, 수양의 위기 등에 대한 질문은 규제 프레임워크로 포착되지 않는다. EU AI Act는 조작적 AI를 '허용 불가 위험'으로 분류하고 인지 자유(cognitive freedom) 보호 조항을 포함하지만, AI가 인간의 사고 능력을 서서히 퇴화시키거나 관계적 역량을 약화시키는 내면적 영향, 동아시아 응답자들이 가장 예민하게 감지한 바로 그 위험을 다룰 규범적 언어는 아직 충분히 발전하지 않았다. 서방의 AI 거버넌스 어휘에는 "인지 위축"이나 "의미 상실"을 다룰 개념적 도구가 아직 부족하다는 말이다.
이것을 단지 '문화 차이'로 치부할 수 있을까? 동아시아의 우려가 서방의 우려보다 덜 긴급하거나 덜 구조적이라고 말할 수 있을까?
그렇지 않다. 이 연구에서 교육자들은 평균 대비 2.5~3배 높은 비율로 학생들의 인지 위축을 직접 목격했다고 보고했다. 이것은 동아시아만의 문제가 아니라 글로벌 현상이다. 다만 동아시아의 인지 위축 우려(18%)는 글로벌 평균(16.3%)을 약간 웃도는 수준으로, 이 문제에 다소 더 예민하게 반응하고 있다. 감시, 프라이버시에 대한 둔감함이 동아시아의 약점이라면, 인지와 실존적 위험에 대한 예민함은 동아시아의 강점이다. 문제는 두 가지 감수성이 아직 하나의 논의 틀로 통합되지 못하고 있다는 것이다.
8만 명의 데이터, 4건의 목소리
이 분석의 한계를 정직하게 인정해야 한다. 동아시아 약 1만 명의 데이터에서 한국을 분리할 수 없고, 한국인 직접 인용은 4건뿐이다. 일본의 엔지니어가 말한 "일찍 퇴근해서 딸을 데리러 갈 수 있다"는 인용이 같은 동아시아 지역군에 속해 있다. 한편 일본의 학생이 말한 "이건 내 의견이 아닌 것 같다"는 자율성, 주체성에 관한 인용은 글로벌 세 번째 우려(21.9%)에 해당하는 것으로, 동아시아만의 특유한 패턴은 아니다. 한국과 일본, 중국의 차이는 이 연구의 해상도로는 포착되지 않는다.
그럼에도 4건의 한국인 인용이 보여주는 톤의 일관성 - 위 사례에서 자기 비판, 관계 중심, 타인 지향, 실존적 성찰로 나타난 - 은 우연으로 보기 어렵다. 그리고 동아시아 전체의 통계적 패턴(개인적 변화와 재정적 독립 열망 전 지역 최고, 인지 위축과 의미 상실 우려 글로벌 평균 초과, 거버넌스와 감시 우려 글로벌 평균 미달)은 이 톤을 뒷받침하는 구조적 기반이다.
앤트로픽의 8만 1천 명 연구가 전 세계에 던지는 메시지가 "AI 낙관론자와 비관론자라는 진영 구분은 허구"라면, 동아시아의 1만 명이 그 메시지에 덧붙이는 것은 이것이다. AI에 대한 질문 자체가 문화적으로 다르게 형성되며, 그 다름을 인식하지 못하면 글로벌 AI 거버넌스는 서방의 질문에만 답하는 반쪽짜리 체계가 된다. "AI가 나를 어떻게 바꾸는가"는 규제의 언어가 아니라 교육, 윤리, 그리고 인간 발달의 언어로 다뤄져야 하는 질문이다. 동아시아의 응답자들은 그 질문을 이미 던졌고, 아직 누구도 체계적으로 답을 듣지 못했다.