인공지능 시대 여는 첫 제도적 출발이지만
오는 22일 시행되는 ‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법’(이하 AI 기본법)은 한국 사회가 인공지능시대를 제도적으로 맞이하는 첫 종합적 시도라는 점에서 중요한 의미를 지닌다. 이 법은 인공지능, 인공지능 시스템, 그리고 인간의 생명과 신체 안전, 기본권에 중대한 영향을 미칠 수 있는 ‘고영향 인공지능’ 등 국가 인공지능 정책의 핵심 개념들을 정의하고, 국가인공지능위원회, 인공지능정책센터, 인공지능안전연구소 등 관련 추진체계를 제도화한다.
가톨릭교회 관점에서 볼 때, 이 법은 단순히 ‘기술 규제를 위한 법’이나 ‘산업 진흥을 위한 법’으로 평가될 수 없다. 교회는 이 법을 마주하며 세 가지 근본적인 질문을 던지게 된다. 첫째, 이 법은 목적 조항에서 선언한 국민의 권익과 존엄성 보호를 실제로 담보할 수 있는가. 둘째, 인공지능이 야기하는 윤리적 문제에 충분히 응답하고 있는가. 셋째, 이 법은 가톨릭교회의 인간 이해와 AI 윤리 선언과 조화를 이룰 수 있는가.
AI 기본법은 제1조에서 인공지능의 발전이 국민 권익과 존엄성 보호에 이바지해야 함을 분명히 밝힌다. 이는 인간을 단순한 데이터의 집합이나 효율의 수단으로 환원하지 않고, 기술 발전의 목적을 인간에게 두겠다는 선언으로 읽을 수 있다. ‘신뢰 가능한 AI’ ‘안전한 AI’를 강조하는 법의 방향성 역시 기술 낙관주의를 경계하며 인간중심의 사회질서를 확보하려는 시도로 평가할 수 있다.
그러나 이 법은 유럽연합의 AI 법과 달리 인간의 기본권 보호에 대한 구체적이고 세밀한 규정을 충분히 제시하지는 않는다. 더욱이 가톨릭교회가 강조해 온 하느님의 모상(Imago Dei)으로 창조된 인간, 곧 그 자체로 목적이며 결코 수단이 될 수 없는 존재에 대한 명시적 이해는 법조문에 담겨 있지 않다. AI 기본법은 인간을 권리의 주체이자 위험에 노출된 보호 대상으로 다루지만, 인간을 관계적·영적 존재로 이해하는 그리스도교적 인간관까지 포괄하지는 못한다.
AI 기본법은 인공지능 윤리 문제를 국가의 책무로 명시하고, 정부가 안전성·신뢰성·인간 존엄성·공동선과 같은 윤리원칙을 마련할 책임이 있음을 규정한다. 특히 고영향 AI에 대한 분류를 통해 생명과 기본권에 중대한 영향을 미칠 수 있는 인공지능에 강화된 책임과 투명성을 요구한다는 점에서, 국가 차원의 대응 기틀을 마련했다는 긍정적 평가가 가능하다.
다만 이번에 공표된 AI 기본법은 윤리원칙의 방향과 추진체계를 제시하는 데 그친다. 구체적 윤리기준과 실행규범은 추후 구성될 하위법령과 위원회에 맡겨진다. 이 지점에서 교회의 적극적인 역할이 중요하다. 교황청이 발표한 「로마 AI 윤리 선언」이 제시한 투명성·포용성·책임성·공정성·신뢰성·보안과 개인정보 보호의 원칙은 한국 사회 AI 윤리의 기준점이 될 수 있다. 나아가 교회 문헌 「옛것과 새것」이 강조하듯 AI 윤리는 선언에 머물러선 안 되며, 설계·개발·실행·평가·확산의 전 과정에서 인간 존엄성과 공동선이 실질적 기준으로 작동해야 한다.
한국 사회는 AI 시대를 제도적으로 맞이하는 출발점에서 AI 기본법을 시행한다. 교회는 AI 기본법이 궁극적으로 지향하는 국민 권익과 존엄성 보호가 단순한 선언에 그치지 않고, 제도와 현실 속에서 구현되도록 비판적 동반자가 돼야 한다. 이는 도덕적 판단만을 제시하는 역할에 머물지 않고, 법이 설계한 협의체와 민간 위원회·윤리 논의의 장에 적극 참여하는 것을 의미한다.
법 시행 이후 교회는 인간 중심적 기술문명을 향한 사회적 합의가 지속되도록 신학적 성찰과 공적 책임을 결합한 ‘파수꾼’ 역할을 한국 사회에 천명해야 한다.
