2022년 11월 챗GPT라는 인공지능(AI) 챗봇이 등장하며 전 세계가 AI에 열광하고 있다. 이 서비스에 적용된 AI의 능력은 인간 지성에 비할 수준이 아니라는 사실과 그 한계가 드러났고, 오남용으로 사회 문제까지 발생하고 있지만, 대다수 사용자는 별 경계심을 보이지 않고 있다.
정부 또한 AI를 차세대 성장 동력의 핵심축으로 삼아 “‘AI 기본사회’를 만들겠다”고 선언했다. 그래서인지 최근 한 준(準)정부기관이 만성 질환 예방에 AI를 활용하겠다고 했고, 호스피스 환자 모니터링에 AI를 활용하겠다는 이야기도 들려온다. 이미 여러 의료 영역에 AI가 들어왔지만 만성 질환 예방과 말기 환자 돌봄에 그것을 활용하겠다는 말은 상당히 불편하게 들렸다. 그 이유는 두 영역은 사람과 사람의 만남이 필수적이기 때문이다.
많은 사람이 양질의 정보를 제공하면 질병 예방이 가능하다고 생각하는데, 그런 접근법은 대부분 실패했다. 건강 정보가 넘쳐나는데 만성 생활 습관성 질환자는 왜 늘고만 있는가? 질병 예방에는 실천 가능한 개인별 맞춤 전략과 그것을 실행할 의지가 필요한데, 그 주체인 개인이 고려되지 않기 때문이다.
맞춤 전략을 짜려면 대상자에게 물어서 알 수 있는 정보뿐 아니라 외모·자세·움직임·체취·정서(걱정, 불안 등)와 같은 ‘비언어적’ 정보 수집도 필요하다. 그 전략을 실행하려면, 알면서도 실천하지 못하는 이유도 파악해야 하고 변화를 시도할 동기부여와 정서적 지지도 지속적으로 필요하다. 즉 질병 예방에는 진솔한 인간적 만남이 필요한데 AI가 그것을 해줄 순 없는 것이다.
호스피스 환자 돌봄은 어떠한가. 통계에 따르면 호스피스 입원 환자들은 평균 한 달 이내에 사망한다. 그동안 육체적 고통뿐 아니라 정신적·영적 고통을 겪으며 한없는 고독감을 느낀다. 그런데 이런 이들에게 모니터링 기계를 부착하고 AI가 계산한 사망 확률을 보며 죽음이 가까워졌을 때나 환자를 들여다보는 상황은 너무 비참하다. 사실 이 두 영역은 누구나 중요하다고 말하지만 당장 가시적 결과나 이윤을 내지 못하기에 국가마저 투자하지 않는 분야다. 그래서 인력과 재원 투입보다 비용이 적게 드는 AI 활용으로 “효율성을 높이겠다”는 발상은 이해하지만, 이 방향이 ‘옳은지’는 따져볼 필요가 있다.
여기에 올해 1월 교황청이 AI의 윤리적 발전과 활용에 대한 지침을 담아 발표한 「옛것과 새것」이 도움이 될 수 있다. 이 문헌은 “AI의 활용이 인간 진보와 공동선의 증진, 더 넓은 형제애, 더 인간다운 질서를 추구하는 데에 이바지해야 한다”고 말한다. 또 “AI가 효율성이라는 미명 아래 인간의 존엄성과 형제애를 뒷전으로 밀어내고, 현실과의 참된 만남을 방해할 수 있음”을 경고한다. 구체적으로 의료 영역에서는 “AI가 환자와 의료인의 관계를 대체하면, 환자들과의 연대를 장려하기는커녕 질병에 수반되는 외로움을 더 악화시킬 위험이 있으므로 그래서는 안 되고, 의료인은 (AI 활용으로 확보한 시간에) 환자들과 함께 아파하고 사랑으로 곁에 있어 달라”고 당부한다. 이에 비춰보면, 질병 예방과 말기 환자 돌봄에서 무신경하게 AI를 활용하는 경우 목적한 바도 달성하지 못하면서 환자를 소외시킬 가능성이 있다.
AI 시대에 의료를 인간답게 하려면 그 활용이 효율성이라는 미명 아래 인간 존엄성과 공동선·형제애를 밀어내는 것은 아닌지 항상 경계해야 할 것이다.
임선희 마리아(가톨릭대 생명대학원 교수)