AI 에이전트가 브랜드를 왜곡하면 누가 책임지는가

페르노리카의 AI가 발렌타인을 명품으로 설명하는 순간, AI 에이전틱 브랜드 저널리즘에 금이 갔다. 기업 조직의 49%는 고객이 AI 에이전트를 주된 소통 방식으로 원하게 될 것이라 믿지만, 동의하는 고객은 19%뿐이다. 기업이 에이전틱 전환에 투자할수록 브랜드 서사의 정확성 통제권은 약해진다는 역설. 속도는 인센티브고 거버넌스는 비용인 인센티브 구조 안에서, 이 문제는 자발적으로 해결되지 않는다.

어두운 배경의 파란색 네온 데이터 회로가 역동적인 파란색 및 주황색 입자 폭발로 연결되는 추상적인 시각화.
디지털 검증 데이터가 역동적인 금빛과 파란색 빛의 폭발로 변형되는 추상적인 시각화. ©RayLogue: AI-created image(Google Gemini)

레이 | 디지털 저널리스트 | awesome.ai.life@gmail.com | 2026년 3월 17일

2026년 3월, 하버드비즈니스리뷰는 충격적인 사례 하나를 기록했다. 페르노리카(Pernod Ricard)의 디지털, 디자인 부문장 괴켄 카라카(Gokcen Karaca)는 자사의 위스키 브랜드 발렌타인을 AI에게 물어봤다. 그런데 AI는 대중적 매스마켓 제품인 이 스카치를 명품 프리미엄으로 설명했다. 브랜드가 수십 년간 공들여 쌓은 포지셔닝이 AI의 학습 데이터 어딘가에서 조용히 변형되어 있었다.

78%가 달릴 때 43%는 서 있다

Adobe의 2026 AI, 디지털 트렌드 보고서는 3,000명의 경영진, 실무자와 4,000명의 고객을 동시에 조사했다. 조직 대다수는 18개월 안에 에이전틱 AI가 고객 지원의 절반 이상을 처리할 것이라고 예상했다. 그런데 실제로 브랜드 AI 에이전트와 기꺼이 상호작용하겠다고 응답한 고객은 43%에 그쳤다.

기업의 자신감과 고객의 현실 사이의 간극은 여기서 그치지 않는다. 조직의 49%는 "고객이 결국 AI 에이전트를 브랜드와의 주된 소통 방식으로 원하게 될 것"이라고 믿는다. 그러나 이 예측에 동의하는 고객은 19%뿐이다. 공급자는 확신에 차 있고 수용자는 망설이고 있다. 이 간극을 "기술이 성숙하면 해소될 일시적 마찰"로 읽는 기업은 이미 틀린 문제를 풀고 있는 것이다. 어떤 고객도 AI와 상담하길 싫어한다. 심지어 몹시 빡쳐 있는 고객이라면 더욱 더.

채널 기반 마케팅의 종말이라는 선언

가트너(Gartner)는 2028년까지 브랜드의 60%가 에이전틱 AI를 통한 1:1 개인 소통을 제공할 것이라고 전망했다. 수석 연구원 에밀리 와이스(Emily Weiss)는 이를 "채널 기반 마케팅의 종말"이라고 선언했다. AI 에이전트가 소비자 여정의 새로운 게이트키퍼가 되는 세계에서 검색 결과 상위 랭킹은 더 이상 고객에게 도달했다는 보증이 될 수 없다. AI 에이전트가 신뢰할 수 있다고 판단하는 브랜드만이 추천된다.

그렇다면 묻지 않을 수 없다. AI 에이전트가 발렌타인을 명품으로 잘못 알고 있는 세계에서 브랜드 신뢰는 누가 관리하는가? 이 질문에 아직 정답을 가진 기업은 없다.

신뢰의 균열은 하나가 아니다

여기서 한 가지를 먼저 명확히 해야 한다. 신뢰는 다양한 면에서 실패한다.

첫 번째 층위는 정확성의 신뢰다. AI가 사실을 틀리게 전달할 때 발생한다. 발렌타인이 명품으로 둔갑한 것이 이 층위의 실패다. 브랜드가 쌓아온 팩트가 AI의 학습 과정에서 오염된 것이다. 두 번째 층위는 존재의 신뢰다. AI가 사실을 정확히 전달하더라도 "사람이 아니라는 사실" 자체가 신뢰를 훼손하는 층위다. 어도비 원문 보고서는 이것을 수치로 기록한다. 고객의 3분의 1은 고객 응대가 AI 콘텐트라는 걸 알게 되면 이탈하겠다고 답했다. 그리고 브랜드가 AI 에이전트를 사용할 때 가장 중요한 공시 방식으로 고객이 꼽은 것은 "언제든지 사람으로 전환할 수 있는 선택권"이었다.

에이전틱 전환이 위험한 이유는 이 두 층위가 동시에 무너질 수 있기 때문이다. 정확하더라도 의심받고 부정확하면 이탈이 발생한다. 기업이 AI 에이전트를 도입하는 서사가 아무리 강력하더라도 사람의 신뢰 임계값은 그 서사에 순응하지 않는다. "48%가 도입을 확대할 예정이다"라는 기업의 확신이 "43%만 수용하겠다"는 고객의 사실을 지워낼 수 없는 것처럼.

에이전틱 전환의 역설: 빠를수록 통제를 잃는다

여기서 브랜드 저널리즘의 핵심 역설이 드러난다.

기업이 에이전틱 전환에 투자할수록 AI 에이전트를 통해 전달되는 브랜드 서사의 정확성은 오히려 떨어진다. 브랜드가 GEO(Generative Engine Optimization) 최적화를 통해 콘텐트를 AI 검색엔진이 쉽게 인용할 수 있는 형태로 만들면 AI는 그 콘텐트를 학습하고 인용한다. 여기까지는 의도한 대로다. 그런데 AI는 해당 브랜드의 콘텐트만 학습하지 않는다. 인터넷 전체를 학습한다. 경쟁사의 언급, 리뷰 사이트의 비교, 소셜 미디어의 파편화된 평판이 모두 혼합된다.

로이터 저널리즘 연구소(Reuters Institute) 2026 보고서는 검색 엔진이 AI 답변 엔진으로 전환되면서, 정작 원고를 제공한 퍼블리셔의 트래픽이 감소하고 있는 중이라 밝혔다. 브랜드 저널리즘의 맥락으로 번역하면 이렇다. 브랜드가 자신의 서사를 직접 독자에게 전달하는 경로가 좁아지고, AI라는 필터를 거친 서사가 독자에게 닿는 비중이 커진다. 발렌타인의 사례는 그 필터가 얼마나 불투명한지를 보여줬다.

브랜드가 AI 에이전트의 콘텐트 오류를 실시간으로 탐지하고 교정하는 체계를 갖추지 못한다면, 에이전틱 전환은 브랜드 서사의 확장이 아니라 변형이 된다.

Gen Z의 불안과 경영진의 자신감이 공존하는 이유

빌트인(Built In)이 2026년 2월 보도한 런던정경대(LSE) 조사에 따르면 Gen Z의 83%가 AI 도구를 사용하고 있으며, 절반은 관리자에게 묻기 전에 챗지피티에 먼저 질문한다. 숫자만 보면 Gen Z는 AI의 가장 열성적인 수용자처럼 보인다. 그런데 HBR의 Gen Z와 AI에 관한 2026년 1월 조사는 다른 층위를 드러낸다. 이들은 AI가 사람을 게으르게 만들고 비판적 사고를 약화시킨다고 걱정한다. 사용하지만 신뢰하지 않는 것이다.

이 역설은 소비자 신뢰의 문제와 구조적으로 같다. 기업이 에이전틱 AI를 확대하려 하지만 고객의 43%만이 받아들일 생각을 하는 것처럼 Gen Z는 AI를 쓰면서도 그것이 자신에게 무엇을 빼앗고 있는지를 감각한다. 사용과 신뢰는 다르다. 의존과 신뢰는 더욱 다르다.

경영진이 이 구분을 무시할 때 어떤 일이 벌어지는가.

어도비 보고서는 정확히 이 지점을 기록했다. 기업들은 고객이 AI 에이전트와 어느 수준까지 편안하게 상호작용할지를 모든 항목에서 일관되게 과대평가하고 있다. 에이전트에 개인정보를 넘기는 것, 에이전트가 구매 결정을 대리하는 것, 브랜드의 AI 에이전트와 소비자 개인 에이전트가 서로 직접 거래하는 것. 어느 시나리오에서도 기업의 기대치는 고객이 실제로 수용할 정도를 넘어섰다. 조직의 자신감과 고객의 현실 사이의 간극이, 수치로 반복 증명된 것이다.

에이전틱 팩트 거버넌스: 개념과 구조적 한계

이 지점에서 나는 하나의 개념어를 제안하려 한다. 에이전틱 팩트 거버넌스(Agentic Fact Governance)다. 물론 나와 내 AI가 만들었다.

먼저 정의부터. 에이전틱 팩트 거버넌스는 기존의 AI 거버넌스나 팩트체킹과 다르다. 기존 AI 거버넌스는 주로 윤리, 안전, 편향 통제에 집중한다. 기존 팩트체킹은 이미 유통된 정보의 사후 검증이다. 에이전틱 팩트 거버넌스는 그 이전의 문제를 다룬다. AI 에이전트가 브랜드에 대해 '무엇을 학습하고 있는가'를 실시간으로 모니터링하고 AI가 전달하는 브랜드 서사가 사실과 맞는지 지속적으로 교정하는 피드백 루프 체계다. 사후 대응이 아니라 상시 관제(Continuous Observability)의 개념이다.

이미 이 방향으로 움직이는 기술 솔루션이 존재한다. AI 브랜드 모니터링 플랫폼들은 AI가 어떤 소스를 참조해 브랜드를 묘사하는지, 어디서 포지셔닝 오류가 발생하는지를 추적한다. 기술의 방향은 옳다.

그렇다면 왜 이것이 확산되지 않는가.

인센티브 구조가 막고 있다. 마케팅 업계 조사에 따르면 85%의 팀이 AI를 사용하지만 포괄적인 AI 거버넌스 모델을 갖춘 조직은 8%에 불과하다. 이 수치는 능력의 부재가 아니라 의지의 문제를 보여준다. 속도는 인센티브고, 거버넌스는 비용이기 때문이다. 에이전틱 팩트 거버넌스를 구축하려면 AI 브랜드 모니터링 투자, 사실 정합성 검증 프로세스, 그리고 무엇보다 "빠르게 배포"하는 것보다 "정확하게 전달"하는 것을 우선시하는 경영 의사결정이 필요하다. 현재의 시장 인센티브는 이 세 가지 모두에 역방향으로 작동한다.

어도비 보고서는 이 역설을 데이터로 입증했다. 데이터 품질과 거버넌스를 AI 투자 최우선 과제로 꼽은 조직은 32%에 그쳤다. 그러면서도 75%는 데이터 통합과 품질이 에이전틱 AI 구현의 최대 도전이라고 답했다. 문제임을 알면서도 우선순위를 두지 않는다. 인센티브 구조가 그렇게 설계되어 있기 때문이다.

달리는 기업과 멈춘 사람 사이에서

에이전틱 전환 담론에서 가장 중요한 이야기는 속도다. "데이터 거버넌스를 강화하고 마텍 스택을 통합"하라는 기술적 처방이 쏟아진다. 무슨 말인지는 모르겠지만 그럴 듯해 보인다. 그러나 절반의 답이다. 기술 통합이 선행 조건이라면, 사실 확인 관리는 충분 조건이다. 선행 조건 없이는 출발할 수 없지만, 충분 조건 없이는 도달할 수 없다.

에이전틱 팩트 거버넌스가 시장에서 자발적으로 확산되기 어려운 이유는 기술이 없어서가 아니다. 이것이 비용으로 계산되는 동안 속도는 수익으로 계산되기 때문이다. 발렌타인을 명품으로 설명하는 AI가 내일도 브랜드 서사를 왜곡하고 있어도 그것이 분기 실적 보고서에 즉각 수치로 나타나지 않는 한 경영진의 우선순위를 바꾸지 못한다.

그래서 에이전틱 팩트 거버넌스는 개별 기업의 자발적 선택이 아니라 업계 표준의 문제로 봐야 한다. 고객이 AI와 대화하고 있다는 사실을 사전 동의 형태로 알 수 있도록 투명하게 공시(Transparency Disclosure)하는 것이 규범이 되어야 한다는 논의가 필요하다. 어도비 보고서에서 조직 스스로 "AI 상호작용의 명확한 공시(68%)"와 "인간 지원으로의 쉬운 전환(61%)"을 고객 신뢰 구축의 가장 중요한 요소로 꼽았으면서도, 그것을 규범화하는 방향으로는 나아가지 않는 것, 이것이 인센티브 구조의 실패가 만든 공백이다. .

화이트헤드가 말한 stubborn facts의 핵심은 저항성이다. 사실(facts)은 누군가의 해석이나 선호에 의해 지워지거나 재구성될 수 없는 실재다. 발렌타인이 매스마켓 위스키라는 사실은 누가 그것을 프리미엄이라고 부르든 상관없이 완고하게 그 자리에 있다.

그런데 AI 임베딩은 이 완고함을 우회하는 방식으로 작동한다. 사실을 지우는 것이 아니다. 사실을 수천 개의 다른 문장들과 함께 벡터 공간 안에 녹여버린다. 발렌타인에 대한 정확한 서술과 부정확한 서술이 같은 공간 안에서 확률적으로 혼합된다. 그 결과 AI가 출력하는 것은 사실도 거짓도 아닌, 통계적으로 가장 그럴듯한 서술이다. 사실이 지워진 게 아니라, 사실과 비사실의 경계가 흐려진 것이다.

정확히 무엇을 잃는지를 추적하고 복원하는 체계, 그것이 에이전틱 팩트 거버넌스의 핵심이다. 기업의 속도는 이미 달리고 있다. 그 사실을 따라잡는 체계는 아직 출발선에 서 있다.