[정치 GEO #4] 정치 GEO 한계와 윤리: AI는 민주주의를 대신할 수 없다

총 3편에 걸쳐 정치 GEO를 권장했다. 마지막 편에서 그 전제에 의문을 제기한다. AI는 중립이 아니고 정치에는 정답이 없으며 GEO 디바이드는 민주주의 디바이드가 될 수 있다. 그러나 참여하지 않는 것이 답은 아니다. 투명하게, 다원성을 지키며, 유권자의 판단을 대체하지 않는 방식으로 정치 GEO는 동작해야 한다.

중앙 수직 균열을 경계로 왼쪽에 단일 황금빛 수렴 네트워크, 오른쪽에 불규칙한 은빛 다원 노드 망이 대비되는 추상 기하학 구성
하나의 답과 열두 개의 논쟁. AI와 민주주의가 공존하는 조건이다. ©RayLogue: AI-created image(Google Gemini)

레이 | 디지털 저널리스트 | awesome.ai.life@gmail.com | 2026년 4월 4일

나는 기본소득당 당원이다. 이 시리즈 전체가 GEO를 권장하는 방향으로 써왔다. 마지막 편에서 그 전제에 정면으로 의문을 제기한다.

이 시리즈가 말하지 않은 것

3편에 걸쳐 정치 GEO가 필요하다고 주장했다. AI가 정치 정보를 전달하는 시대에 정당은 구조화된 콘텐트를 공급해야 한다고, 그렇지 않으면 데이터 공백을 저급한 정보가 채운다고 썼다. 틀린 말이 아니다. 그러나 말하지 않은 것이 있다.

AI가 정치 정보를 전달한다는 것이 민주주의에 무엇을 의미하는가. 유권자가 AI에게 정당 공약을 묻고, AI가 구조화된 텍스트를 인용해 답하는 이 과정이 선거와 심의 민주주의에 어떤 영향을 미치는가. GEO를 잘 하는 정당이 유리해지는 구조가 정치적 평등에 어떤 함의를 갖는가.

마지막 편에서 이 질문들을 정면으로 다룬다.

한계 1: AI는 중립이 아니다

가장 먼저 짚어야 할 것이 있다. AI가 정치 정보를 전달할 때 변형이 일어난다. 들어온 대로 그대로 내보내는 투명한 파이프라인이 아니라는 말이다.

스탠포드대학교의 앤드루 홀(Andrew Hall) 교수팀은 2025년 5월 기준 24개 LLM에 30개 정치 질문을 던지고 10,000명 이상이 그 답변의 편향을 평가하는 실험을 했다. 결과는 명확했다. 30개 질문 중 18개에서 거의 모든 LLM의 응답이 좌편향으로 인식됐다. 공화당 지지자뿐 아니라 민주당 지지자도 같은 방향의 편향을 인식했다. 참가자들은 오픈AI 모델이 가장 강하게 편향됐다고 인식했고, 구글 모델이 가장 중립에 가깝다고 답했다.

Brookings는 이 편향을 완전히 제거할 수 없다고 진단했다. LLM은 인간이 생성한 텍스트 데이터로 훈련된다. 그 텍스트에 담긴 정치적 가정과 가치관이 모델에 스며든다. 어노테이터(훈련과정에서 데이터에 레이블을 붙이는 사람)의 구성, 훈련 데이터의 분포, 강화학습 과정의 설계에서 모두 편향이 일어날 수 있다. 개선할 수는 있지만 제거할 수는 없다.

이것이 정치 GEO에 의미하는 것이 있다. 기본소득당이 공약을 구조화해서 AI가 원문을 인용하도록 만들었다고 하자. 그런데 AI가 그 공약을 소개하는 맥락, 비교하는 방식, 평가하는 어조에 편향을 개입시켰다면 어떻게 되는가. 정당이 공급한 원문은 정확하게 인용됐지만 그것이 놓인 맥락은 AI가 만든 것이다. 유권자는 그 차이를 알 수 없다.

GEO는 정당이 공급하는 원문의 정확성을 높일 수 있다. 그러나 AI가 그 원문을 다루는 방식 전체를 통제할 수는 없다. 정치 GEO의 첫 번째 한계는 여기에 있다.

한계 2: 정치에는 정답이 없다

GEO와 AEO(Answer Engine Optimization)의 차이를 다시 짚어보자. GEO는 AI 생성 답변 안에서 인용될 가능성을 높이는 전략이다. AEO는 한 발 더 나아가 AI가 "정답"을 제공하도록 콘텐트를 구조화하는 것이다. 포털 검색 결과는 콘텐트를 순위를 매겨 보여주지만 AI 검색 결과는 답변 하나만 제공한다. 그 답변에 포함되지 않으면 노출 자체가 없다. 이 구조가 정치 영역에 적용될 때 근본적인 문제가 생긴다.

정치는 정답이 없는 영역이다. "기본소득이 맞는가 아닌가"는 사실의 문제가 아니라 가치의 문제다. "지방선거에서 누구를 찍어야 하는가"는 계산이 아니라 판단이다. 민주주의의 심의 과정(deliberative process)은 바로 이 가치 갈등을 공개적으로 논쟁하고 합의를 형성해가는 과정이다.

Journal of Deliberative Democracy의 2025년 논문은 이 문제를 날카롭게 지적한다. 논문에 따르면 AI는 과거에 "논쟁거리였던 것"을 기준으로 지금의 정치 의제를 판단한다. 문제는 이 기준이 과거에 고정되어 있다는 것이다. 지금 사회가 당연하게 여기는 것을 AI가 새로운 쟁점으로 만들어낼 수 없고, 반대로 지금까지 불가능하다고 여겨졌던 것을 새로운 가능성으로 열어젖힐 수도 없다. 촛불이 탄핵을 만든 것처럼 역사의 흐름을 바꾸는 결정적 순간은 데이터의 평균에서 나오지 않는다. AI는 그런 순간을 만들어낼 수 없다.

Journal of Democracy는 이것을 두 가지 미래로 나눠 본다. 하나는 AI가 실시간 여론을 즉각 정책에 반영하는 도구인 경우다. 빠르게 움직이는 민심에 모든 결정이 끌려다닌다. 법원도, 의회도, 제도적 완충 장치도 없이. 촛불이 광장에서 타오를 때 그 열기가 그대로 법이 되는 세계다. 다른 하나는 AI가 더 많은 시민이 더 깊이 토론할 수 있도록 돕는 도구가 되는 경우다. 정보를 쉽게 찾고 다양한 관점을 비교하고 논쟁에 참여하는 과정을 AI가 보조한다. "어떤 미래로 갈지는 기술이 결정하는 게 아니라 우리가 결정하는 것"이라고 이 학술지는 명시한다.

그렇다면 정치 GEO는 어느 쪽으로 향하는가. 정당이 공약을 정리해서 올리고 AI가 그것을 정확하게 인용한다면, 더 많은 유권자가 더 좋은 정보를 바탕으로 토론에 참여할 수 있다. AI가 광장을 넓히는 쪽이다. 그러나 유권자가 AI의 답변을 읽고 "아, 이 당이 이런 당이구나"로 끝낸다면, 그리고 그 판단을 스스로 검증하거나 다른 사람과 논쟁하지 않는다면 AI는 광장을 대체하는 쪽이 된다. 촛불이 광장에 모인 사람들의 토론이 아니라 AI가 보내준 내용으로 대체되는 세계다.

한계 3: GEO 디바이드가 민주주의 디바이드가 된다

세 번째 한계는 더 구조적이다. 3편에서 GEO는 돈이 아니라 구조의 문제이고, 소수 정당이 오히려 유리한 조건을 갖는다고 말했다. 이것은 사실이다. 그러나 조건이 붙는다.

AI 디바이드는 이미 실제로 벌어지고 있는 일이다. AI 디바이드란 AI를 잘 쓰는 사람과 그렇지 못한 사람 사이에 생기는 격차를 말한다. 세 단계로 쌓인다. 첫째, AI 도구 자체에 접근할 수 있는가 없는가. 둘째, 접근했다 해도 제대로 쓸 줄 아는가 모르는가. 셋째, 잘 쓰는 사람과 못 쓰는 사람 사이에 결과의 격차가 벌어지는가. 스마트폰이 처음 나왔을 때도 비슷한 격차가 생겼다. AI 디바이드는 그 연장선에 있지만 속도가 다르다. 스마트폰은 몇 년에 걸쳐 격차가 벌어졌다. AI는 지금 이 순간에도 격차가 커지고 있다.

정당에 적용하면 이렇다. GEO를 할 수 있는 디지털 역량이 있는 정당은 AI가 더 정확하게 인용한다. 역량이 없는 정당은 재서술되거나 데이터 공백이 생기고 그 공백을 저급 정보가 채운다. GEO 역량은 자금이 아니라 인적 자원과 기술 이해력의 문제다. 그러나 이 역량도 균등하게 분배되어 있지 않다.

Tandfonline의 2025년 연구가 확인한 "슬롭 경제(slop economy)"가 있다. 유료 고품질 콘텐트에 접근하지 못하는 이용자들이 AI가 생성한 저품질 콘텐트로 가득 찬 정보 를 학습한다. 이 정보 불평등은 선거에서 시민 의식을 조용히 변형시킨다. 정당의 GEO 역량 불평등은 유권자 정보 환경의 불평등으로 이어진다.

GEO를 잘 하는 정당의 공약은 AI에서 정확하게 인용되고 그렇지 않은 정당의 공약은 왜곡되거나 부재한다. 유권자는 AI에서 접하는 정보를 바탕으로 판단한다. GEO 디바이드가 정보 디바이드가 되고, 정보 디바이드가 민주주의 디바이드가 되는 연쇄가 성립한다.

이것은 새로운 문제가 아니다. 언론 광고를 살 수 있는 정당과 없는 정당의 차이는 이미 존재했다. GEO 디바이드는 그것을 다른 형태로 재생산한다. 단, 차이가 있다. 기존 광고 디바이드는 돈의 문제였고 규제할 수 있었다. GEO 디바이드는 구조와 역량의 문제이고 어떻게 규제할 것인지가 아직 논의되지 않았다.

반론: 그래도 참여하는 것이 낫다

세 가지 한계를 제시했다. 그러나 반론도 정면으로 다뤄야 한다.

"AI도 결국 기존 언론처럼 편향이 있는 것이고, 새로운 문제가 아니다." 이 반론은 절반 옳다. 그러나 AI 편향과 언론 편향은 성격이 다르다. 언론의 편향은 서로 다른 매체가 경쟁하면서 어느 정도 균형을 이룬다. AI의 편향은 수억 명이 공통으로 사용하는 단일 플랫폼의 편향이다. 규모와 단일성이 다르다.

"GEO를 하지 않으면 데이터 공백이 생겨서 더 나쁜 정보가 채운다." 이 반론은 옳다. 그래서 이 시리즈가 GEO를 권장했다. 참여하지 않는 것이 더 나쁜 결과를 낳는다. 다만 참여의 방식이 문제다.

"유권자가 AI를 정치 정보의 유일한 소스로 쓰는 건 아니다." 이 반론도 지금 당장은 옳다. AI 추천 트래픽은 2025년 Conductor 분석 기준 전체 웹 트래픽의 1.08%에 불과하다. 그러나 Search Engine Land의 2025년 8월 분석에 따르면 AI 추천 트래픽은 전년 대비 527% 증가했다. 지금은 작지만 방향이 정해져 있다.

이 세 가지 반론 모두 GEO 자체를 부정하지 않는다. 오히려 GEO의 필요성을 확인하면서 동시에 그것만으로는 충분하지 않다는 것을 보여준다.

AI가 대체할 수 없는 것

그렇다면 AI가 대체할 수 없는 것이 무엇인가. 내가 좋아하는 화이트헤드(Alfred North Whitehead)의 스터번 팩트(stubborn facts) 개념으로 돌아간다. 사실은 뭐라고 해석하든 사라지지 않는 저항적 실재다. 2편에서 말했다. AI의 재서술은 수많은 해석들의 평균값이며 어떤 개별 원문과도 완전히 일치하지 않는다. 그러나 유권자는 그것을 사실로 받아들인다.

정치에서 스터번 팩트는 다른 성격을 갖는다. 어떤 정당의 공약이 더 나은가, 어떤 후보가 더 신뢰할 수 있는가, 나의 삶에 어떤 변화가 필요한가. 이것은 사실로 확인되는 것이 아니라 내가 무엇을 가치 있다고 여기는가에 달려 있다.

AI는 공약을 인용할 수 있다. 정책을 비교할 수 있다. 이력을 요약할 수 있다. 그러나 어떤 세상을 원하는지에 대한 판단은 각자가 스스로 내려야 한다. 민주주의는 그 판단의 과정을 공개적으로 논쟁하는 것이고, AI는 그 논쟁을 보조할 수 있지만 대체할 수 없다.

Carnegie Endowment는 이것을 이렇게 표현한다. AI가 공공 광장에서 영향력을 행사하면 민주적 번영의 핵심인 신뢰와 참여의 토대를 파괴할 위험이 있다. "당신이 사람과 대화하는지 봇과 대화하는지 알 수 없다면, 그 대화가 무슨 의미가 있는가."

그렇다면 정치 GEO는 어떻게 해야 하는가

첫째, 투명성이 필요하다. 정당이 AI 최적화를 위해 콘텐트를 구조화했다는 것을 숨기지 않는다. "우리 공약 FAQ는 유권자가 AI에게 물었을 때 정확한 정보를 얻을 수 있도록 구조화했습니다"라고 공개하는 것이 오히려 신뢰를 만든다.

둘째, 다원성을 유지한다. AI가 단일한 답을 주는 구조를 보완하기 위해 정당은 스스로 다양한 관점을 공개해야 한다. 공약의 장점뿐 아니라 한계와 반론도 구조화된 텍스트로 제시한다. AI가 그것을 인용하면 유권자는 더 풍부한 정보를 얻는다.

셋째, 미디어 리터러시를 병행한다. 정당이 GEO를 하는 동시에, 유권자에게 "AI의 답변은 기존 정보를 재가공한 정보이며 원문과 다를 수 있다"는 것을 알리는 콘텐트를 함께 만들어야 한다. GEO를 잘 하는 정당이 동시에 AI 리터러시 교육에 투자한다면 그것이 이 시대의 가장 윤리적인 정치 커뮤니케이션이다. 소수 정당에게는 부담스러운 이중 과제지만 이 두 가지를 분리하지 않는 것이 핵심이다.

시리즈를 마치며

4편에 걸쳐 2026 지방선거를 앞둔 정치 GEO를 다뤘다. 1편에서 확인했다. AI는 구조화된 정당을 인용하고 그렇지 않은 정당은 있는 자료를 편집한다. 2편에서 해부했다. RAG 메커니즘이 정보량이 아니라 구조화의 질로 인용을 결정한다. 3편에서 제안했다. 돈 없이도 할 수 있는 다섯 가지 방법을 기본소득당 홈페이지 진단과 함께 제시했다. 4편에서 질문했다. 이 모든 것이 민주주의에 좋은 것인가.

결론은 조건부 긍정이다. AI가 정치 정보를 매개하는 것은 이미 일어나고 있는 현실이다. 그 현실에 정당이 참여하는 것이 맞다. 참여하지 않으면 데이터 공백이 생긴다. 그러나 참여의 방식이 투명해야 하고 다원성을 훼손하지 않아야 하며 유권자의 판단 능력을 대체하려 해서는 안 된다.

AI는 공약을 전달할 수 있다. 민주주의는 그 공약을 판단하는 시민이 만든다. 이제 선거가 60일 남았다. / raylogue