더 빨리, 더 많이. 그러나 덜 신뢰받는 AI 시대 기업 커뮤니케이션의 역설

BCG 조사에서 CCO의 88%가 AI 전환 준비가 안 됐다고 답했다. 같은 시기 패스트컴퍼니 조사는 AI 생성 콘텐트를 출처 없이 쓰면 신뢰가 떨어진다는 응답이 70%임을 보여줬다. 효율은 오르고 신뢰는 내려간다. 이 역설은 기술의 문제가 아니다. AI 시대 기업 커뮤니케이션의 본질적 질문은 이것이다. 커뮤니케이션 팀은 메시지를 찍어내는 공장인가, 아니면 조직과 사회 사이에서 신뢰가 어떻게 작동할지를 설계하는 곳인가.

밤늦게 사무실에 홀로 앉아 여러 화면을 바라보는 인물. 책상 램프의 따뜻한 호박색 빛과 화면의 차가운 푸른 빛이 대비를 이루며 AI 시대 기업 커뮤니케이터의 고독과 불확실성을 표현한다.
AI 앞에 홀로 남겨진 커뮤니케이터. 효율의 빛이 밝아질수록, 책임의 자리는 더 좁아진다. ©RayLogue: AI-created image(Google Gemini)

레이 | 디지털 저널리스트 | awesome.ai.life@gmail.com | 2026년 3월 25일

CCO 88%가 준비 안 됐다고 말한다

2026년 3월 23일, 보스턴컨설팅그룹(BCG)은 미국, 영국 대형 기업의 커뮤니케이션 최고책임자(CCO, Chief Communications Officer) 200여 명을 대상으로 한 조사 결과를 발표했다. 결과 값은 조금 놀랍다. CCO의 68%가 자신의 조직을 'AI 지체자(laggard)'로 규정했다. 88%는 AI 전환을 주도할 준비가 되어 있지 않다고 답했다. 그리고 35%는 AI를 도입할 때 가장 큰 장애물은 운영 모델을 어떻게 설계할지 몰라서라고 답했다.

68, 88, 35 이 세 수치가 AI 시대 기업 커뮤니케이션의 문제를 적나라하게 보여준다. 기업 커뮤니케이션은 이미 AI 도구를 쥐고 있다. 문제는 그 도구를 어디에 어떻게 쓸지 모른다는 것이다. 같은 날 BCG는 생산성 수치도 함께 제시했다. AI를 도입하면 개별 작업에서 26~36%, 일련의 프로세스 전체에서 34~47% 더 생산적으로 일할 수 있다. 숫자만 보면 좋아 보인다. AI를 쓰면 효율이 오른다. 도입하면 된다.

그러나 불과 이틀 뒤인 3월 25일, 패스트컴퍼니(Fast Company)는 정반대의 조사 결과를 발표했다. 응답자의 약 70%는 AI로 생성한 메시지를 출처를 밝히지 않고 사용할 경우 신뢰가 하락할 것이라고 답했다. 빈번한 CEO 노출이 신뢰를 높인다는 응답은 24%에 그쳤다. 노출이 많아야 좋았던 시대는 지났다는 뜻이다. 효율이 높아질수록 신뢰는 떨어지는 역설. 이것이 2026년, AI 시대 기업 커뮤니케이션이 처한 구조적 모순이다.

AI를 빨리 적용한 팀은 무엇을 다르게 하는가

BCG 리포트의 저자이자 BCG 글로벌 커뮤니케이션 최고책임자인 러셀 더브너(Russell Dubner)는 이 상황을 리더십 테스트라고 불렀다. 그가 말한 리더십은 기술을 빨리 도입하는 것이 아니라 운영 모델을 어떻게 다시 짤 것인가의 문제였다.

같은 시기, 영국 가디언(Guardian)의 AI 전략을 이끄는 크리스 모란(Chris Moran)은 로이터 저널리즘 연구소 컨퍼런스에서 자신의 전략 전환을 이렇게 설명했다. "약 1년 전, 가장 좋은 AI 도구는 우리가 만든 실험적 도구가 아니라 기자 누구나 브라우저에서 열 수 있는 범용 시스템임을 깨달았다." 가디언은 AI 제품을 개발하는 대신 내부 교육으로 방향을 틀었다. 그들이 만든 챗봇은 공개하지 않기로 했다. 이유는 간단했다. "챗봇은 편집되지 않고, 위임받지 않았으며, 우리의 저널리즘처럼 책임지지 않는다."

이 두 사례는 서로 다른 영역에서 같은 결론을 향해 수렴한다. AI를 빨리 도입하는 것이 문제가 아니다. AI가 만들어낸 결과물에 누가 어떻게 책임을 질 것인지를 먼저 설계해야 한다는 것이다.

신뢰의 문제는 왜 기술 문제가 아닌가

AI 거버넌스를 연구하는 암스테르담대 교수 나탈리 헬버거(Natali Helberger)는 2026년 3월 로이터 저널리즘 연구소 컨퍼런스에서 이렇게 말했다. "현재 문제는 AI 기업들이 무엇이 리스크이고 아닌지를 결정하는 인식론적 권위(epistemic authority)를 가진다는 것이다. 공동체는 그 리스크 평가에 아무 역할이 없다."

이 말은 AI 거버넌스 논의를 한 단계 끌어올린다. 기업 커뮤니케이션의 맥락으로 번역하면 이렇다. 기업이 AI를 커뮤니케이션 도구로 쓸 때, 어떤 메시지를 신뢰할 수 있고 어떤 메시지를 신뢰할 수 없는지를 결정하는 권위는 지금 어디에 있는가. 알고리즘이 만든 메시지인지 편집자가 승인한 메시지인지를 수신자가 알 방법이 없다면 그 권위는 커뮤니케이션 팀을 떠나 AI 시스템을 만든 기업 쪽으로 넘어간다.

패스트컴퍼니 조사에서 나온, AI로 만든 콘텐트를 신뢰하지 못하는 70%는 이 구조적 변화에 대한 독자의 본능적 저항을 숫자로 드러낸 것이다. 독자와 이해관계자들은 AI가 만든 메시지였다는 사실을 나중에 알게 되면 신뢰가 무너진다고 답한다. 이것은 감정의 문제가 아니다. 헬버거의 언어로 돌아오면, 그것은 인식론적 권위를 속임당한 것에 대한 합리적 반응이다.

기술이 성숙하면 해결된다는 반론은 왜 틀렸는가

그렇다면 기술결정론자들의 반론은 어떻게 다뤄야 하는가. 그들은 이렇게 말한다. "지금은 기술이 성숙하지 않아서 그렇다. AI가 더 정교해지면 신뢰 문제도 해결된다. 거버넌스는 기술이 준비된 다음에 설계해도 늦지 않다."

이 반론은 정말 옳은가?

BCG 리포트는 정반대의 증거를 제시한다. AI를 빠르게 통합한 팀들이 공통적으로 하는 일이 있다. 거버넌스를 먼저 만드는 것이다. 거버넌스를 먼저 갖춰가는 팀은 그렇지 않은 팀보다 1.6배나 많이 AI 전환을 주도할 준비가 됐다고 느낀다. 기술이 성숙한 뒤 거버넌스를 추가하는 것이 아니다. 거버넌스를 먼저 설계하는 팀이 기술도 더 잘 쓴다는 뜻이다.

효율주의 반론도 같은 방식으로 무너진다. "신뢰는 나중에 설계해도 된다"는 주장은 생산성 수치만 본 것이다. 에델만(Edelman) 2024 신뢰지수 조사(2024년 1월 발표, 28개국 32,000명 대상)에 따르면 전 세계 응답자의 61%는 기업 리더들이 '의도적으로 사람들을 오도하기 위해 거짓말 또는 심각한 과장을 한다'고 우려한다. 이는 AI 커뮤니케이션과 상관 없이 기업 리더십 전반에 대한 신뢰 지수이지만, AI 메시지의 투명성을 논의하는 배경이 벌써 신뢰 적자 상태라른 뜻이다. 사람이 말하는 것도 못 믿겠는데 AI가 만든 메시지가 더 믿을 수 있다고? 모두가 물음표를 던질 것이다.

커뮤니케이션 팀은 공장인가, 설계자인가

문제는 특정 CCO의 역량이나 특정 기업의 판단 실수가 아니다. 어떤 성과를 낼 때 보상받는가의 문제다.

기업 커뮤니케이션 팀이 평가받는 기준은 대부분 얼마나 빨리 보도자료를 냈는가, 얼마나 많은 콘텐트를 만들어냈는가, 얼마나 많은 미디어에 실렸는가다. 이 구조 안에서 AI는 완벽한 해답처럼 보인다. 더 빨리, 더 많이, 더 싸게 만들어낼 수 있으니까.

그러나 BCG 리포트가 보여주는 것은 AI를 깊게 통합한 팀들이 성공을 다르게 정의한다는 사실이다. 그들은 얼마나 많이 만들어냈는가가 아니라 'AI의 가치를 경영진에게 납득시킬 수 있는가'를 기준으로 삼는다. KPI 항목이 하나 더 생긴 게 아니다. 커뮤니케이션 팀이 무엇을 위해 존재하는지에 대한 철학이 다른 것이다.

AI 시대 기업 커뮤니케이션의 본질적 질문은 이것이다. 커뮤니케이션 팀은 메시지를 찍어내는 공장인가, 아니면 조직과 사회 사이에서 신뢰가 어떻게 작동할지를 설계하는 곳인가. 더 빨리 더 많이 만들도록 보상하는 구조를 먼저 바꾸지 않으면 AI가 아무리 정교해져도 그 도구는 신뢰가 무너지는 속도를 높일 뿐이다.

그 구조는 CCO 혼자 바꿀 수 없다. 이사회와 CEO가 커뮤니케이션을 어떻게 평가하느냐의 문제다. CCO가 헬버거가 말하는 인식론적 권위를 되찾으려면, 그 조건을 만드는 것은 CCO의 과제가 아니라 경영진이 먼저 움직여야 할 일이다.

AI는 기업 커뮤니케이션을 더 효율적으로 만들 것이다. 그리고 그 효율이 신뢰를 얼마나 빨리 잠식하는가는, 지금 어떤 구조를 먼저 설계하느냐에 달려 있다. / raylogue