[앵커] AI은 우리에게 많은 편리함을 주지만, AI가 만드는 차별과 혐오는 더 견고해지고 있습니다.
AI를 만들고 사용하는 인류에게 'AI 윤리'가 요구되고 있습니다.
전은지 기자입니다.
[기자] 미국 법조계에서 '인공지능 판사’가 논란이 됐습니다.
일부 주 사법부가 도입한 인공지능 판사가 유색인종이나 가난한 이들의 재범 위험성을 높게 예측하면섭니다.
AI에 개발자 집단의 편견이 고스란히 담겼다는 비판이 일었습니다.
AI에 담긴 혐오와 편견 문제는 국내에서도 논란거리입니다.
2020년, AI 챗봇 ‘이루다’가 성차별 발언을 학습해 사회적 약자에 혐오 발언을 쏟아낸 사건입니다.
이 AI 챗봇은 사용자에 폭력적인 메시지를 전하면서 결국 서비스가 중단됐습니다.
이처럼 AI가 발생시키는 혐오와 차별 논란이 계속되면서 이를 만드는 이들에게도 윤리가 요구되고 있습니다.
인간의 존엄성과 공공선을 고려하지 않고 만들면 그 피해는 고스란히 인간, 특히 약자에게 전해진다는 겁니다.
프란치스코 교황의 AI 윤리 부문 고문이자 교황청 생명 아카데미 컨설턴트인 파올로 베난티 수사는 "AI보다 걱정되는 건 인간의 어리석음"이라고 지적한바 있습니다.
불순한 의도로 AI를 사용하는 인간음이 가장 큰 문제라는 의미입니다.
<파올로 베난티 수사 / 로마 그레고리안대학 디지털 윤리학 교수>
"우리는 사람의 심성을 두려워해야 합니다. 사람의 심성은 좋을 수도, 나쁠 수도 있기 때문입니다. 인공지능을 잘못 사용한다면 우리의 가장 큰 적이 되지만, 인공지능을 잘 활용하면 더 나은 미래를 만들어가는 최고의 친구가 될 수 있습니다."
베난티 수사는 AI를 도구로 사용할지, 무기로 사용할지는 인간에게 달렸다고 강조했습니다.
<파올로 베난티 수사 / 로마 그레고리안대학 디지털 윤리학 교수>
"인공지능은 도구의 진화의 마지막 단계이지만, 이것은 우리가 아는 가장 끔찍한 무기가 될 수 있습니다. 우리는 인공지능을 무기로서가 아니라 도구로서 유지하도록 해야 합니다."
AI를 윤리적으로 어떻게 만들고 사용할지는 인류가 몰두하는 문제가 됐습니다.
하느님만이 창조할 수 있는 지능이 기술로 구현되는 목적은 무엇인지, 인류의 숙제가 됐습니다.
cpbc 전은지입니다.