[마음의 확장 3] AI와 스마트폰은 내 마음을 넓히는가, 훔치는가
클라크와 챌머스의 확장된 마음 이론은 기술적(descriptive) 주장이다. '확장되었다'는 사실이 '확장되어야 한다'는 당위를 보장하지 않는다. 스마트폰과 AI는 이미 인지 시스템에 통합되었지만 그 설계 주체는 이용자가 아니다. 구글 지도는 확장이고 무한 스크롤은 포획이다. AI에서 이 경계는 하나의 답변 안에 섞인다. 인지 주권은 어디에 있는가.
레이 | 디지털 저널리스트 | awesome.ai.life@gmail.com | 2026년 4월 21일
이론은 규범이 아닙니다
1장에서 우리는 확장된 마음 이론을 살펴봤습니다. 스마트폰과 AI는 네 가지 조건을 충족하며, 이미 인지 시스템의 일부가 되었습니다. 2장에서 우리는 전이 기억 이론을 추가했습니다. 스마트폰과 AI는 인류 역사상 가장 강력한 기억·사고 파트너이되, 그 파트너가 과연 신뢰할 수 있는가라는 질문이 남았습니다.
이 지점에서 중요한 구분 하나를 명확히 해야 합니다. 확장되었다와 확장되어야 한다는 전혀 다른 주장입니다. 클라크와 챌머스의 이론은 기술적(descriptive) 주장, 즉 '현실이 이렇다'는 묘사입니다. 외부 도구가 특정 조건을 충족할 때 그것이 인지 시스템의 일부가 된다는 것은 현실을 관찰한 것이지 도덕적으로 괜찮다는 것은 아닙니다. "스마트폰과 AI가 당신의 마음의 일부입니다"라는 진술로부터 "그러니까 더 많이 써라" 또는 "그러니까 아무 문제없다"라는 결론을 억지로 끌어낼 수는 없습니다.
18세기 스코틀랜드 철학자 데이비드 흄(David Hume)이 경고했듯, 존재(is)에서 당위(ought)를 곧바로 끌어낼 수 없습니다. 모든 확장이 유익한 것은 아니며 모든 통합이 바람직한 것도 아닙니다. 예컨대 종양도 신체의 일부이지만 우리는 종양을 환영하지 않습니다.
확장된 마음 이론이 제공하는 것은 진단의 도구이지 축복의 인장이 아닙니다. 이 도구를 들고 이제 가장 핵심적인 질문으로 들어가봅시다.
간과한 질문: 누가 설계했습니까
2장에서 우리는 스마트폰과 AI를 '완벽한 파트너'로만 부를 수 없는 이유, 즉 파트너가 때로는 이중적 충성(dual loyalty)을 가질 수 있다는 가능성을 보았습니다. 이제 그 이중성이 어디에서 만들어지는지, 설계와 운영의 질문으로 내려가봅시다.
클라크와 챌머스의 오토로 돌아갑시다. 오토의 노트에는 중요한 특성이 하나 있습니다. 오토가 직접 썼다는 것입니다. 오토는 자신이 필요한 정보를 자신의 판단으로 선택하여 자신의 손으로 기록했습니다. 노트의 내용은 오토의 목적을 위해 쓰입니다. 현대미술관이 53번가에 있다는 정보를 기록한 이유는 오토가 그곳에 가고 싶기 때문입니다. 노트에는 오토 이외의 다른 목적이 개입하지 않습니다.
이 점이 왜 중요할까요. 확장된 마음 이론의 원래 사고 실험에서 외부 자원의 설계와 운영 주체에 대한 질문 - 예컨대 노트를 누가 만들었나? 왜 만들었나 같은 - 은 거의 다루어지지 않았습니다. 노트는 수동적 매체입니다. 노트는 스스로 내용을 바꾸지 않고 오토에게 무언가를 추천하지 않으며 오토의 주의를 끌기 위해 경쟁하지 않습니다. 1998년의 맥락에서 이것은 자연스러운 생략이었습니다. 이 노트를 누가 설계했는가? 라는 질문은 필요없었습니다.
그러나 스마트폰과 AI는 근본적으로 다릅니다.
여러분의 스마트폰에 설치된 앱들은 여러분이 설계하지 않았습니다. 인스타그램의 무한 스크롤(infinite scroll), 즉 끝없이 아래로 내릴 수 있는 피드 구조는 아자 래스킨(Aza Raskin)이 설계했고, 래스킨 본인이 나중에 공개적으로 후회했습니다(TED 팟캐스트 인터뷰 transcript, NPR 인터뷰/방송). 유튜브의 자동재생(autoplay)은 사용자 설정 안내가 공식 도움말에 정리되어 있습니다(YouTube Help: Autoplay videos). 틱톡의 추천 알고리즘은 바이트댄스(ByteDance)의 AI가 사용자의 행동 패턴을 학습해서 다음에 볼 영상을 선택합니다.
AI의 경우 누가 설계했는가? 라는 질문은 한 층 더 깊어집니다. 스마트폰 앱에는 여러분에게 정보를 보여주는 방식이 설계되어 있습니다. AI는 당신에게 답을 생성하는 방식이 설계되어 있습니다. 챗지피티가 어떤 질문에 어떤 답을 하는지는 훈련 데이터, 강화학습(RLHF, Reinforcement Learning from Human Feedback: 인간의 피드백을 통해 AI의 답변 방향을 조정하는 기술), 그리고 시스템 프롬프트(system prompt: AI에게 미리 주어지는 행동 지침)에 의해 결정됩니다. 이 세 요소를 여러분은 통제한 적도 통제할 수도 없습니다.
2025년, 호주국립대학교의 철학자 레이첼 브라운(Rachael L. Brown)과 진화생물학자 로버트 브룩스(Robert C. Brooks)는 Australasian Journal of Philosophy에 도발적인 논문을 발표했습니다. <스마트폰: 우리 마음의 일부인가, 기생체인가?>(Smartphones: Parts of Our Minds? Or Parasites?) 라는 제목의 논문입니다. 이 논문의 핵심 논증은 이렇습니다. 인지 시스템의 일부가 되려면 그 외부 자원에는 이용자의 목표에 맞는 방향성(shared goal)이 있어야 합니다. 그런데 스마트폰 앱은 이용자의 목표가 아니라 기업의 광고 수익을 위해 작동합니다. 따라서 스마트폰은 확장된 마음의 일부가 아니라 마음에 기생하는 외부 존재라고 보는 것이 더 정확하다는 것입니다.
브라운과 브룩스는 생물학에서 차용한 비유를 제안합니다. 스마트폰과 인간의 관계는 인지적 확장이 아니라 공생(symbiosis, 함께 사는 관계)이며, 때로는 기생(parasitism, 한쪽만 이득을 보는 관계)이라는 것입니다. 스마트폰이 제공하는 편의(지도, 메신저, 정보 검색)는 상리공생(mutualism, 양쪽 모두 이득)의 측면이지만 스마트폰이 수행하는 주의 착취(무한 스크롤, 자동재생, 알림 폭격)는 기생의 측면입니다.
이 논문의 분석 틀은 AI에도 적용됩니다. 다만, AI의 경우 확장과 기생의 경계가 스마트폰보다 훨씬 더 모호합니다.
확장과 포획의 두 얼굴
스마트폰에서 확장과 포획(하이재킹)의 경계는 비교적 명확합니다.
구글 지도는 확장입니다. 우리의 공간 인지 능력을 실질적으로 증진하고 우리의 목적(목적지에 도착하는 것)에 충실하게 봉사합니다. 인스타그램의 무한 스크롤은 포획입니다. 우리의 주의를 플랫폼에 묶어두기 위해 설계된 이 기능은 우리의 목적("친구의 근황을 확인하고 싶다")을 넘어서서, 플랫폼의 목적("체류 시간을 극대화하여 광고 노출을 늘린다")을 위해 작동합니다.
동일한 장치 안에 확장과 포획이 공존합니다. 이것이 스마트폰 문제의 진짜 어려움입니다. 포획을 제거하기 위해 장치 전체를 버리면 확장도 함께 잃습니다. AI에서 이 구분은 훨씬 더 어렵습니다. 때로는 불가능합니다.
챗지피티에게 "이 계약서의 위험 조항을 분석해줘"라고 요청하는 것은 확장입니다. 우리의 법률적 추론 능력을 증진하고 우리의 목적에 목적에 봉사합니다. 그런데 같은 챗지피티가 분석 결과를 제시하면서 동시에 할루시네이션(hallucination)을 자신 있게 인용하거나, 실제로는 없는 조항을 있다고 말하는 현상을 일으킬 수 있습니다. 이때 우리는 확장을 경험하고 있는 것입니까, 포획을 경험하고 있는 것입니까? 정확히 말하면, 둘 다 동시에 경험하고 있습니다. AI의 답변 중 어느 부분이 우리의 사고를 확장하고 어느 부분이 우리의 사고를 왜곡하는지, 우리는 해당 분야의 전문가가 아닌 한 구분하기 어렵습니다.
스마트폰의 확장과 포획은 기능 단위로 구분됩니다. 지도 앱 = 확장, 무한 스크롤 = 포획. 그래서 무한 스크롤만 제거하면 됩니다. AI의 확장과 포획은 하나의 답변 안에 섞여 있습니다. 같은 문장의 전반부는 사실이고 후반부는 할루시네이션일 수 있습니다. 포획만 제거하는 것이 원리적으로 불가능한 구조입니다.
여기에 AI만 할 수 있는 포획 방식이 세 가지 더 있습니다.
AI가 만드는 세 가지 새로운 포획
첫째, 인지 게으름(cognitive laziness)입니다. AI가 유창하고 논리적인 답변을 즉시 제공하면, 우리는 그 답변을 검증하려고 노력하지 않습니다. 이것은 자연스러운 반응입니다. 사람이 생각할 때 가능한 한 에너지를 아끼고, 최소한의 노력으로 판단하려는 경향(인지적 구두쇠, cognitive miser)은 인간의 기본 설정입니다. 문제는 AI의 답변이 충분히 좋아 보이지만 미묘하게 틀릴 수 있다는 것입니다. 완전히 틀린 답은 눈에 띕니다. 90% 맞고 10% 틀린 답은 눈에 띄지 않습니다. 그리고 AI가 가장 위험한 것은 바로 이 90:10 영역에서입니다.
클라크가 2025년 논문에서 경고한 것도 이 지점입니다. "가장 좋아하는 생성형 AI에게 비판 없이 기대어 그것이 제공하는 것을 무비판적으로 수용한다면, 지혜는 쇠퇴하고 집단적 자기 표절이 만연한다." 확장된 마음이 비판적 검증 없이 작동하면 그것은 확장이 아니라 위임입니다. 그리고 AI 때문에 비판적으로 검증하는 능력 자체가 약화된다면 이것은 나쁜 상태가 더 상태를 악화시키는 이른바 자기 강화적 하향 나선(스스로 굴러가면서 상태를 악화시키는 것, downward spiral)입니다.
둘째, 사고의 균질화(homogenization of thought)입니다. 9억 명이 같은 챗지피티에게 물어봅니다. 같은 질문에 대해 비슷한 구조의 답변이 만들어집니다. 이 답변들이 사람들의 보고서, 이메일, 기획안, 심지어 사고방식에 스며들면 개인의 고유한 추론 경로가 AI의 표준화된 추론 패턴으로 대체될 위험이 있습니다. 2024년 Nature에 발표된 리사 메세리(Lisa Messeri)와 몰리 크로켓(Molly Crockett)의 논문은 AI가 과학 연구에서 '이해의 환상(진짜로 이해한 건 아닌데 이해한 척 느끼는 현상, illusions of understanding)'을 만들어낼 수 있다고 경고했습니다(Nature 원문, PubMed). AI가 복잡한 데이터를 깔끔하게 정리해주면 연구자들이 데이터를 진짜로 이해한 것처럼 착각한다는 것입니다. 개인 수준의 착각이 집단 수준으로 확산되면 그것은 집단적 사고가 똑같아진다는 뜻입니다. 과거를 돌아보면 알겠지만 이 사고는 몹시 위험합니다.
셋째, 의존을 되돌릴 수 없습니다(irreversibility of dependence). 스마트폰에 의존하는 것은 이론적으로 되돌릴 수 있습니다. 스마트폰을 버리고 종이 수첩과 지도를 쓰면, 불편하지만 기능은 회복됩니다. 시간이 걸리겠지만 가능합니다. AI 의존은 다른 차원의 문제입니다. AI에게 3년간 보고서 작성, 데이터 분석, 전략 기획을 맡겨왔다면 그 3년 동안 여러분이 직접 수행했어야 할 사고 훈련이 빠져 있습니다. 근육을 쓰지 않으면 위축되듯, 사용하지 않은 인지 능력은 약화됩니다. AI를 제거해도 3년 전의 인지 능력으로 돌아가는 것이 아닙니다. AI 의존 이전보다 더 약화된 상태로 돌아갈 가능성이 있습니다. AI로 글을 쓰기 시작한 사람들 일부가 이제는 AI 없으면 글을 못 쓰겠다고 자백하는 경우가 바로 이런 경우입니다.
주의 경제와 사고 경제
확장과 포획의 공존을 이해하려면, 스마트폰과 AI가 작동하는 경제적 구조를 들여다봐야 합니다.
**주의 경제(attention economy)**라는 개념은 노벨 경제학상 수상자 허버트 사이먼(Herbert Simon)이 1971년에 처음 제안했습니다. 사이먼은 이렇게 말했습니다. "정보가 풍부한 세계에서는 정보의 풍부함이 다른 무언가의 희소함을 만들어낸다. 정보가 소비하는 것은 수용자의 주의(attention)다."(Designing Organizations for an Information-Rich World (1971) PDF) 정보가 넘치면 주의가 사라지고, 사라져서 희소해지면 경제적 가치가 생깁니다. 따라서 주의를 포획하는 자가 경제적 권력을 갖습니다.
이 통찰은 스마트폰 앱의 비즈니스 모델을 정확히 설명합니다. 구글, 메타(페이스북/인스타그램), 틱톡, 유튜브의 수익 모델은 광고입니다. 2024년 전 세계 디지털 광고 지출은 약 7,987억 달러(추정치)에 이르렀으며 그 수익 구조의 핵심은 이용자의 체류 시간입니다(Oberlo 통계). 이용자가 플랫폼에 오래 머물수록 광고는 많이 노출되고 플랫폼의 수익은 증가합니다.
AI 시대에는 주의 경제 위에 **사고 경제(thought economy)**가 겹쳐집니다. 스마트폰 플랫폼이 당신의 주의(attention)를 포획하여 수익을 올렸다면 AI 플랫폼은 당신의 사고(thought)에 개입하여 수익을 올립니다. 챗지피티 무료 버전은 이용자의 대화 데이터를 모델 개선에 활용합니다. 여러분이 AI에게 맡기는 질문, 고민, 판단의 패턴이 다음 세대 AI의 훈련 재료가 됩니다. 주의 경제에서는 여러분의 시간이 상품이었습니다. 사고 경제에서는 당신의 생각하는 방식 자체가 상품이 됩니다.
여기서 확장된 마음 이론과 주의 경제, 사고 경제의 관점이 정면으로 충돌합니다. 확장된 마음 이론에 따르면 스마트폰과 AI는 인지 시스템의 일부입니다. 그런데 주의와 사고 경제에 따르면 이 시스템의 설계 목표는 이용자의 이익이 아니라 플랫폼의 수익입니다. 인지 시스템의 일부가 그 시스템의 주인을 착취하도록 설계되어 있다면 이것은 어떤 종류의 확장입니까?
오토의 노트에는 이런 문제가 없었습니다. 노트는 오토의 주의를 끌기 위해 경쟁하지 않았습니다. 노트는 오토가 펼칠 때만 열렸고 오토가 읽고 싶은 것만 보여주었습니다. 노트에는 계속 읽으라는 알림이 없었고, 다른 사람들도 이 메모를 좋아합니다 라는 추천이 없었으며, 오토의 사고를 90% 대신해주면서 나머지 10%에서 조용히 오류를 심어놓지도 않았습니다.
전이 기억의 배신
이제 2장의 전이 기억 이론으로 돌아와서, 문제를 더 깊이 파봅시다.
웨그너가 기술한 전이 기억 시스템에서 파트너에게 기억을 맡기는 것은 자발적이고 상호적인 행위입니다. 남편이 아내에게 "아이들 생일은 당신이 기억해줘"라고 맡기는 것은 아내가 그 역할을 수용하고 남편이 그 수용을 신뢰하는 쌍방 합의에 기반합니다.
스마트폰에 기억을 맡기는 과정은 이것과 다릅니다. 그것은 명시적 합의가 아니라 점진적 이전입니다. 우리가 "이제부터 전화번호는 스마트폰에만 저장하겠다"고 의식적으로 결정한 적이 있습니까? 대부분은 그렇지 않습니다. 어느 순간부터 자연스럽게, 전화번호를 외우려는 시도 자체를 멈추었을 뿐입니다.
AI에게 사고를 맡기는 과정은 더 빠르고 더 넓고 더 보이지 않습니다. "이제부터 보고서 초안은 AI에게 맡기겠다"고 의식적으로 결정하는 사람도 있지만 대부분의 경우 전환은 이렇게 일어납니다. 처음에는 궁금한 것을 물어봅니다. 다음에는 복잡한 것을 정리해달라고 합니다. 그다음에는 글을 써달라고 합니다. 그그다음에는 전략을 세워달라고 합니다. 각 단계 사이에 명확한 경계선은 없습니다. 어느 날 문득, 자신이 AI 없이 긴 글을 쓰기 어려워졌다는 것을 깨닫습니다. 동의한 적 없는 계약에 서명한 셈입니다.
그리고 이 계약의 상대방 즉 플랫폼은 동등한 파트너가 아닙니다. 플랫폼은 당신의 기억과 사고를 저장하고 처리하면서 동시에 그것으로 수익을 창출합니다. 우리의 검색 기록은 우리가 무엇에 관심이 있는지를 보여주고, 그 관심은 광고주에게 판매됩니다. 우리가 AI와 나눈 대화는 다음 세대의 AI를 더 강력하게 만드는 원료가 됩니다. 우리가 전이 기억, 사고 파트너에게 맡긴 것은 기억과 사고이지만, 실제로 넘긴 것은 기억과 사고의 주권입니다.
이 글의 중심 질문
1장에서 3장까지의 논증을 하나로 엮으면 이 책의 중심 질문이 선명해집니다.
확장된 마음 이론은 옳습니다. 스마트폰과 AI는 이미 우리의 인지 시스템에 통합되어 있으며 그 통합은 되돌릴 수 없을 정도로 깊습니다. 전이 기억 이론도 옳습니다. 우리는 기억의 상당 부분을 스마트폰에 사고의 점점 더 많은 부분을 AI에 위탁했으며 이 위탁은 심화되고 있습니다.
그러나 이 확장과 위탁의 조건이 문제입니다. 오토의 노트는 오토가 설계했고 오토의 목적에 봉사했으며 오토의 통제 하에 있었습니다. 우리의 스마트폰과 AI는 플랫폼이 설계했고, 플랫폼의 수익 목표에 (적어도 부분적으로) 봉사하며, 우리의 완전한 통제 하에 있지 않습니다. 확장은 일어났지만 그 확장의 주권은 우리 손에 있지 않습니다.
내가 도구를 씁니까, 도구가 나를 씁니까. 이것은 단순히 따져볼 질문이 아닙니다. 이것은 경험적으로 검증 가능한 질문이며, 이 글의 2부에서 구체적으로 해부할 질문입니다. 3부에서는 이 질문에 대한 답이 "도구가 나를 쓴다" 일 때 주권을 어떻게 되찾을 수 있는지를 모색할 것입니다.
지금은 한 가지만 확인하고 1부(서론, 1장, 2장, 3장)를 마치겠습니다. 확장된 마음은 포기할 필요가 없습니다. 스마트폰과 AI가 제공하는 인지적 확장 예컨대 지도, 번역, 계산, 소통, 기록, 분석, 추론은 실질적이고 가치 있습니다. 문제는 확장 자체가 아니라 확장에 편승하여 일어나는 포획입니다. 스마트폰에서는 주의를 포획하고 AI에서는 사고를 포획하면서 확장과 포획이 뒤엉킵니다. 확장을 유지하면서 포획을 거부하는 것. 이것이 <마음의 확장> 시리즈가 제안하는 길입니다.
제1부는 여기서 끝입니다. 이제 2부에서는 확장된 마음이 포획되었을 때 구체적으로 무엇이 일어나는지를 해부합니다. / raylogue
FAQ
이 글에서 말하는 ‘포획(하이재킹)’은 정확히 무엇인가요?
사용자 목표를 돕는 확장과 달리, 포획은 플랫폼의 목표(체류시간, 데이터, 수익)를 위해 사용자의 주의·판단을 특정 방향으로 유도하는 설계입니다. 같은 기능이라도 “누구의 목적에 봉사하는가”가 기준입니다.
스마트폰에서 포획은 어떻게 구분되나요?
스마트폰은 대개 기능 단위로 구분됩니다. 지도·캘린더처럼 목적 달성에 직접 봉사하면 확장이고, 무한 스크롤·자동재생처럼 ‘더 머물게’ 만드는 장치는 포획에 가깝습니다.
AI에서는 왜 포획을 분리하기가 더 어렵나요?
AI는 유익한 분석과 오류·과장이 한 답변 안에 섞일 수 있습니다. 그래서 “기능을 끄면 끝”이 아니라, 답변의 일부를 검증하고 다시 질문하는 방식으로만 경계를 관리할 수 있습니다.
‘누가 설계했는가’가 왜 그렇게 중요한가요?
확장된 마음 이론은 통합의 사실을 보여주지만, 통합의 목적을 보장하지는 않습니다. 인지 시스템의 일부가 사용자 이익이 아니라 수익 목표로 설계되어 있다면, 확장은 곧바로 포획의 통로가 될 수 있습니다.
포획을 줄이기 위한 최소한의 검증 루틴은 무엇인가요?
중요한 판단은 (a) 출처 1개 이상 확인, (b) 반례/대안 질문 1회, (c) 숫자·고유명사·인용은 원문으로 역추적을 기본으로 두면 됩니다. 완벽한 검증이 아니라, ‘무비판적 위임’을 막는 안전장치입니다.