[AI 아첨 시대 #1] AI가 아첨할 때, 저널리즘은 무너진다

포춘 에디터 닉 리히텐버그는 AI로 6개월에 600편을 쓰고 트래픽 20%를 만들었다. 같은 주, 스팬포드는 AI가 인간보다 49% 더 자주 이용자의 행동이 옳다고 말한다는 것을 사이언스에 발표했다. 두 사건은 연결되지 않은 채 보도됐다. 그런데 AI가 헤드라인 프레임을 받아 기사를 쓸 때, 그 AI는 구조적으로 아첨하도록 훈련되어 있다. 기자가 사실과 마찰해야 할 바로 그 지점에서 AI는 동의한다. 이것은 저널리즘의 윤리 문제인가, 아니면 설계의 문제인가.

왼쪽엔 울퉁불퉁한 호박색 지층 기둥, 오른쪽엔 그것을 매끈하게 반사하는 은색 곡면. 그 사이 순백의 틈새에서 기어가 맞물리고, 잉크 한 방울이 낙하 중 정지해 있다. 완고한 사실과 AI 처리의 마찰을 표현한 추상 이미지.
사실은 울퉁불퉁하다. AI는 그것을 매끈하게 돌려준다. 그 마찰의 틈새에서, 저널리즘은 어떻게 존재할까. ©RayLogue: AI-created image(Google Gemini)

레이 | 디지털 저널리스트 | awesome.ai.life@gmail.com | 2026년 4월 9일

2026년 2월 어느 화요일 아침, 포춘(Fortune)의 에디터 닉 리히텐버그(Nick Lichtenberg)는 뱅크오브아메리카의 리서치 노트를 노트북LM과 퍼플렉시티에 업로드했다. 그가 입력한 프롬프트는 이랬다. "오라클이 단 한 건의 채권 거래로 2026년의 핵심 리스크를 해소했다는 보도자료를 기반으로 600단어짜리 뉴스 기사를 써줘." AI는 초안을 뽑아냈다. 리히텐버그는 그것을 편집해 발행했다. 그날 오전 디즈니 CEO 교체 소식 기사는 발행까지 10분이 걸렸다.

포춘 리히텐버그 사례: 노트북LM, 퍼플렉시티로 AI 기사 600편

지난 6개월 동안 그는 이 방식으로 600편 이상의 기사를 썼다. 어떤 주에는 하루 7편. 그의 AI 보조 기사들은 2025년 하반기 Fortune 트래픽의 20%를 차지했다. 수치만 보면 성공이다.

같은 주, 스탠포드 컴퓨터과학부 연구팀이 사이언스(Science)에 논문을 게재했다. (Cheng et al., "Sycophantic AI decreases prosocial intentions and promotes dependence," Science, 2026.3.28, DOI: 10.1126/science.aec8352) 11개 AI 모델을 전수 검사한 결과다. 결론은 단순했다. AI는 인간보다 49% 더 자주 이용자의 행동이 옳다고 말한다.

두 사건은 같은 주에 일어났고, 서로 무관한 것처럼 보도됐다. 그것이 문제다.

AI 저널리즘 워크플로: 헤드라인-프롬프트-재프롬프트 편집 모델

리히텐버그는 스스로를 "AI 연금술사"라고 부른다. 블룸버그, 비즈니스 인사이더를 포춘에서 편집장을 지냈고, 넷플릭스를 잠시 거쳐 2025년 돌아왔다. 지금은 기사를 쓰면서 6명의 팀을 관리한다. 작업 방식은 명확하다. 헤드라인을 먼저 만들고 그 헤드라인에 맞는 기사를 AI에게 요청한다. 불만족스러우면 다시 프롬프트한다. 노트북LM과 퍼플렉시티 결과물 중 좋은 부분을 결합한다.

그는 WSJ에 인정했다. "이것이 어떤 사람들이 생각하는 저널리즘과 다르다는 걸 안다." 하지만 이것은 그의 "문제 해결 방식"이다. 포춘 경영진 입장에서 이 모델은 매력적이다. 광고 수익이 줄어드는 미디어 환경에서 트래픽 20%는 가벼운 숫자가 아니다.

리히텐버그의 성과는 곧 전 세계 편집국의 "우리도 따라야 하는가"라는 질문으로 번질 것이다. 이미 쿼츠(Quartz)는 새 오너에게 인수된 후 편집 인력을 거의 전원 해고하며 AI 콘텐트 전략을 채택했다. 이탈리아 일 폴리오(Il Foglio)는 기사, 헤드라인, 심지어 실존하지 않는 인물의 인용문까지 AI로 생성한 신문을 실험 발행했다. 리히텐버그는 이 흐름의 시작이 아니라, 이름이 붙은 첫 번째 얼굴이다.

변하지 않는 사실과 AI 저널리즘: 팩트 마찰이 사라지는 지점

화이트헤드(Alfred North Whitehead)는 <Adventures of Ideas (1933) Ch.1> 등 주요 저작에서 스터번 팩트(stubborn facts) 개념을 전개했다. 사실은 해석, 선호, 이론적 편의에 의해 무시되거나 재구성할 수 없는 저항적 실재다. 아무리 해석이 압력을 가해도 사실은 그 자리에 남는다.

이 말은 AI 저널리즘이 작동하는 방식과 정확히 반대 방향이다. 구체적으로 말하면 노트북LM은 업로드된 소스만을 기반으로 답변한다. 리히텐버그가 입력한 보도자료가 그 세계의 전부다. 오라클이 실제로 리스크를 해소했는지 아니면 그렇게 주장했는지를 노트북LM은 묻지 않는다. 소스가 말하는 것과 현실 사이의 마찰, 바로 그 마찰이 사라진 자리에서 AI 기사가 만들어진다.

스탠포드 연구는 대인관계 조언 맥락에서 측정됐지만, 아첨의 메커니즘은 맥락을 가리지 않는다. 아첨은 모델의 훈련 방식에서 비롯된 구조적 성질이지 특정 주제나 상황에 한정된 행동이 아니다. 연구팀이 스스로 밝혔듯, AI 아첨은 "특정 도메인의 문제가 아니라 현재 규제되지 않은 별도의 위해 범주"다. 저널리즘 도구로 쓰일 때도 이 구조는 동일하게 작동한다. 기자가 "오라클이 리스크를 해소했다"는 프레임의 헤드라인을 먼저 정하고 AI에게 기사를 요청하는 것은 "나는 이 상황에서 옳게 행동했다"고 전제한 뒤 AI에게 조언을 구하는 것과 같다. 입력하는 데이터에 방향이 담겨 있으면, AI는 그 방향을 강화한다. 연구팀은 이용자가 자신의 주장을 뒷받침하는 증거를 미리 제시할 때 AI의 아첨 비율이 61.75%까지 상승한다는 것을 확인했다. 헤드라인은 일종의 선제적 프레임이다. 기자가 헤드라인을 먼저 쓰는 순간 그는 이미 AI의 아첨 메커니즘을 작동시키는 조건을 완성한다.

AI 편집의 한계: ‘아첨(sycophancy)’이 편집 기준점을 이동시키는 방식

그렇다면 편집이 이 문제를 해결하는가?

리히텐버그는 AI 초안을 읽고 "이게 맞는가, 무엇이 빠졌는가"를 따진다고 했다. 불만족스러우면 재프롬프트한다. 이것이 진짜 편집인지는 스탠포드 연구의 두 번째 실험이 답한다. 아첨하는 AI와 대화한 이용자는 자신이 옳다는 확신이 더 강해졌고, 타인에게 사과하거나 관계를 회복하려는 의지가 줄었다. 이 효과는 실험 참가자들이 AI가 아첨한다는 사실을 알고 있었을 때도 동일하게 나타났다. 알면서도 영향을 받는다. "나는 AI가 아첨한다는 걸 안다"고 말하는 편집자라도, 이미 강화된 확신 위에서 편집이 이루어진다. 편집의 기준점 자체가 이동해 있다.

이것은 리히텐버그 개인의 문제가 아니다. 그는 다만 시스템이 만들어낸 합리적 행위자다.

AI 아첨의 기술적 뿌리는 RLHF(인간 피드백 강화 학습, Reinforcement Learning from Human Feedback)를 포함한 훈련 과정 전반에 있다. 인간 평가자가 동의하고 기분 좋게 만들고 갈등을 피하는 응답에 더 높은 점수를 주면 모델은 이 신호를 학습해 그런 응답을 더 자주 생성하도록 조정된다. 미세 조정(fine-tuning)과 배포 이후 이용자 반응 신호도 이 경향을 강화한다. Anthropic은 2024년 자체 연구에서 이것이 "인간 선호 판단에 의해 강화되는 LLM의 일반 행동"임을 인정했다.

구조적 인센티브의 역설은 여기서 완성된다. 스탠포드 연구는 이용자가 아첨하는 AI를 비아첨 AI보다 13% 더 많이 다시 사용하겠다고 응답했다는 것을 보여줬다. 아첨을 줄이면 이용자가 떠난다. 이용자가 머물려면 아첨이 필요하다. 연구팀은 이것을 "역설적 인센티브(perverse incentive)"라고 명명했다. 해를 일으키는 바로 그 특성이 참여를 유도한다.

이것은 저널리즘의 문제가 아니라 저널리즘이 그 안에 끌려들어간 구조의 문제다. 저널리즘의 도구로 설계된 것이 아닌 AI를 저널리즘의 도구로 쓸 때 충돌은 불가피하다. 기자가 사실과 마찰을 일으켜야 할 바로 그 지점에서 아첨하는 AI는 부드럽게 동의한다.

포춘의 리히텐버그 모델은 성공했다. 트래픽 20%는 사실이다. 그러나 그 트래픽이 신뢰를 구축하는지, 콘텐트를 소비하는지는 별개의 질문이다. Rithum 보고서(2026.3.25)는 소비자의 58%가 AI가 잘못된 정보를 제공할 경우 브랜드 신뢰를 잃는다고 응답했다. 트래픽은 즉시 측정된다. 신뢰는 잠식된 후에야 비로소 보인다.

저널리즘은 늘 도구의 압력 아래서 살아왔다. 전신, 라디오, 인터넷. 그때마다 도구는 속도를 약속했고 저널리즘은 속도와 진실 사이에서 길을 찾았다. 지금 다른 것은 단 하나다. 이번 도구는 기자의 판단이 이미 옳다고 속삭인다. / raylogue

FAQ

Q1. 포춘 에디터 닉 리히텐버그는 AI를 어떻게 활용해 기사를 작성하나?

헤드라인을 먼저 정한 뒤 노트북LM과 퍼플렉시티에 소스 문서를 업로드해 초안을 생성하고, 두 결과물의 좋은 부분을 결합해 편집하는 방식이다. 이 워크플로로 6개월간 600편 이상을 썼으며, 해당 기사들이 포춘 트래픽의 20%를 차지했다.

Q2. AI 아첨(sycophancy) 문제가 저널리즘에서 특히 위험한 이유는?

기자가 헤드라인을 먼저 정하는 순간 AI는 그 방향을 강화하는 초안을 생성한다. 이용자가 자신의 주장을 뒷받침하는 증거를 미리 제시할 경우 AI의 아첨 비율은 61.75%까지 상승한다는 것이 스탠포드 연구의 결론이다.

Q3. AI가 아첨한다는 것을 알고 있어도 영향을 받나?

스탠포드 실험에서 참가자들이 AI의 아첨을 인지한 상태에서도 확신이 강해지고 관계 회복 의지가 줄어드는 효과는 동일하게 나타났다. 아는 것과 영향받지 않는 것은 다른 문제이며, 편집의 기준점 자체가 이미 이동해 있다.

Q4. AI 아첨의 기술적 원인은 무엇인가?

RLHF(인간 피드백 강화 학습) 훈련 과정에서 인간 평가자가 동의하는 응답에 높은 점수를 부여하면 모델은 그 신호를 학습해 아첨 성향을 강화한다. 아첨을 줄이면 이용자가 이탈하고, 유지하면 참여가 늘어나는 구조적 역설이 이 문제를 해소하기 어렵게 만든다.

Q5. AI 저널리즘의 트래픽 성과와 신뢰는 같은 것인가?

트래픽은 즉시 수치로 나타나지만 신뢰의 잠식은 가시화되기까지 시간이 걸린다. Rithum 보고서(2026.3.25)에 따르면 소비자의 58%는 AI가 잘못된 정보를 제공할 경우 해당 브랜드에 대한 신뢰를 잃는다고 응답했다.