“현시점(2024~2026년)에 레오 14세라는 교황은 존재하지 않으며, 해당 문장은 가상의 상황이거나 미래를 가정한 설정일 가능성이 매우 높습니다.”
한 생성형 인공지능(AI)이 ‘팩트 체크’라면서 덧붙인 답변 내용을 그대로 가져온 것이다. 2025년 선출된 레오 14세 교황이 존재하지 않는다니? 즉각 답변 수정을 요구했다. 두어 번의 수정 끝에야 AI는 마침내 실존하는 교황의 존재를 ‘인정’한다. 문제가 발생한 원인은? “시점 인지 오류에 의해 2024년 이전의 과거 데이터에 의존한 답변"이 원인이었다고 한다.
‘레오 14세 교황의 존재’ 여부처럼 명백한 오류는 생성형 AI를 사용하면서 겪는 작은 촌극에 불과할 것이다. 진짜 문제는 생성형 AI가 만든 잘못된 정보가 실제 현실 판단에 영향을 미친다는 점이다. AI가 생성한 허위 정보가 실제 판례나 증거로 둔갑해 법원의 판단에 혼란을 주는 사례도 나타나고 있다. 얼마 전 일본에서는 존재하지 않는 생활 서비스를 실제 존재하는 것처럼 설명해주거나 영업 중인 백화점을 폐점 예정으로 표시해 기업에 피해를 주는 사례가 보도되기도 했다.
신뢰를 바탕으로 일하는 언론 종사자들에게 AI가 만든 가짜 정보는 더욱 치명적이다. 이제 AI가 텍스트를 넘어 정교한 가짜 영상·음성·사진까지 만들어내는 상황 속에 자신도 모르는 사이 가짜 뉴스 확산의 통로가 될 위험도 커졌다.
기술이 주는 편리함에 눈멀지 않고, 그 이면의 진실을 가려내는 ‘깨어 있는 미디어·AI 활용’이 필요한 때다. 생성형 AI 시대가 본격화되면서 역설적으로 외국어 학습이나 독서에 대한 관심이 다시 높아지고 있다는 점은 주목할 만하다. 많은 사람이 주어진 ‘정답’에 만족하지 않고 이를 스스로 검증하고자 노력하고 있음을 방증하기 때문이다. AI 시대에 무엇보다 필요한 것은 결국 기술 자체보다도 정보를 검증하고 판단하려는 인간의 태도다. 이 ‘전능한’ 피조물에는 불신의 눈길이 필요하다.