[앵커] 프란치스코 교황의 AI, 인공지능 윤리 담당 고문인 파올로 베난티 신부가 최근 서울 명동대성당에서 젊은이들을 만났습니다.
베난티 신부는 강연에서 AI 기술 발전에 따른 윤리의 필요성을 거듭 강조했습니다.
강연 내용을 서종빈 기자가 정리했습니다.
[기자] 베난티 신부가 ‘서울 WYD 지식 여정’의 첫 번째 강연자로 나선 것은 AI 기술이 딥페이크나 개인정보보호 등 인간 삶의 실존을 위협하는 기술로 오용될 수 있기 때문입니다.
강연은 AI가 인류에게 해악을 미치는 기술이 아니라 인류에게 진정한 발전을 가져다줄 수 있는 ‘AI 윤리’가 가능한지에 대한 물음에서 출발했습니다.
AI는 디지털의 수학적 모델을 통해 정보를 이해하고 검증하는 피드백(Feedback)을 수차례 반복해 실제적인 예측을 합니다.
따라서 AI 기술이 우리의 삶과 행동 양식을 결정할 수 있기 때문에 안전장치와 AI 윤리가 필요하다고 지적했습니다.
<파올로 베난티 신부 / 프란치스코 교황 AI 윤리 담당 고문>
"AI 기술에는 안전 장치가 필요합니다. AI에 관해 이야기할 때 핵심적인 질문은 ‘누가 누구를 통제하는가?’입니다."
베난띠 신부는 우리가 뭔가를 이해하고 선택하지 못하면 우리에게 참 자유는 없다.고 말했습니다.
그러면서 기술의 혁신과 인간의 자유 그리고 사회 발전에 대한 올바른 이해가 필요하다고 강조했습니다.
<파올로 베난티 신부 / 프란치스코 교황 AI 윤리 담당 고문>
"혁신만으로는 충분하지 않습니다. 혁신은 어떤 일을 더 빠르고 더 많이 할 수 있는 능력일 뿐입니다. 다른 개념이 필요한데 바로 ‘발전’입니다. 발전은 공공선을 위하는 혁신입니다."
그렇다면, AI 기술이 인간의 보편적 가치와 충돌하면 우리는 어떤 선택을 해야 할까요?
베난티 신부는 인간은 각자의 삶에서 서로 다른 가치 판단을 해서 무척 어려운 문제지만 윤리학의 권고에 따를 것을 제안했습니다.
AI 윤리는 나라마다 법규 등 다양성이 있지만, 보편적 가치에 근거해 통용될 수 있는 국제적 원칙이 만들어져야 한다는 것입니다.
그러면서 2020년 2월 교황청이 발표한 AI 윤리를 위한 로마 선언 (Rome Call for AI Ethics)을 언급했습니다.
<파올로 베난티 신부 / 프란치스코 교황 AI 윤리 담당 고문>
"지난 7월, 일본에서 21개의 다양한 종교들이 문서에 서명하면서, 로마 선언이 제시한 6가지 원칙은 지구 상의 절대 다수의 사람이 지지하는 기준이 됐습니다. 이 원칙은 가톨릭 교회에서 나왔지만, 가톨릭 교회만의 것은 아닙니다."
로마 선언이 제시하는 6가지 윤리적 원칙은 투명성과 포용성, 책임성과 불편 부당성, 신뢰성 그리고 보안과 프라이버시입니다.
베난티 신부는 우리가 AI 기술을 어떻게 사용하느냐에 따라 올바른 길로 갈 수도 있고 잘못된 길로 갈 수도 있다고 말했습니다.