시청자는 즉각 구별할 수 있었나…JTBC ‘AI 폭발 장면’ 논란

JTBC 뉴스는 5일 <'심장부' 기관실 타깃 삼은 공격? "피해 최소화, 위협 최적지"> 제목의 리포트에서 실제 촬영한 자료화면과 AI 영상을 교차 편집했다. 특히 HMM 나무호 폭발 사고 상황을 전하면서 화염이 폭발하는 장면을 'AI 재구성'으로 처리했다.
언론 보도에서 종종 사건 사고 상황을 그래픽으로 처리하는 경우가 있지만 위치 설명 정도에서 활용한다. JTBC 보도의 경우는 폭발 위치나 규모, 화염의 양상 등을 확인하기 어려운 시점에 AI를 써서 사실처럼 시각화하여 논란을 자초했다. AI 기반 영상은 실제 촬영 영상과 시각적 경계를 흐리게 하기 때문이다.
해외 언론사들은 AI를 뉴스 제작에 활용하더라도, 특히 시청자가 실제 장면으로 오인할 수 있는 영상·이미지 영역에서는 매우 엄격한 기준을 적용하고 있다. "현실을 있는 그대로 전달해야 한다"는 원칙에 따라 AI로 생성하거나 수정한 시각 이미지를 뉴스 비주얼로 사용하는 것은 사실상 금지한다.
로이터통신은 비주얼 저널리즘에서 왜곡되지 않은 현실을 제시하고, AI를 사용하여 이미지를 생성하거나 개선하지 않는 것을 핵심 기준으로 삼는다. 승인된 기술은 장면 설명이나 촬영 목록/캡션 생성과 같이 기본 시각 자료를 변경하지 않는 작업에만 사용될 수 있다.
AP 통신은 인공지능 생성기를 사용하여 사진, 비디오 또는 오디오의 어떠한 요소를 추가하거나 삭제하는 것을 허용하지 않는다. 즉, AI 기반 작품이 뉴스 기사의 주제인 것을 제외하면 AI로 시각화하여 보도하는 것을 엄격히 제한한다.
BBC는 AI 가이드라인에서 AI가 사실에 부합하는 정확한 콘텐츠를 제공하는 것이 아니라, 알고리즘과 훈련 데이터를 기반으로 지시에 대한 사항을 예측하는 방식으로 작동한다는 점에서 주의를 환기시킨다. 허구 또는 사실에 근거하지 않은 '환각', 날조일 가능성 때문이다.
AI 활용이 일상화하는 뉴스조직에서 중요한 건 투명성과 '오인' 가능성 최소화다. 'AI 재구성' 자막으로 끝나선 안된다. 어디까지가 확인된 사실이고 어디부터가 추정·시뮬레이션인지를 시청자가 즉각 식별할 수 있어야 한다. AI 사용여부만 밝히는 것을 넘어 사실성과 시각적 신뢰를 어떻게 보존할 것인지 숙고해야 한다.