지난 기획/특집

AI(인공지능) 윤리 논란, 어떻게 바라볼까

이승훈 기자
입력일 2021-01-26 수정일 2021-01-26 발행일 2021-01-31 제 3230호 4면
스크랩아이콘
인쇄아이콘
궁극적으로 인간이 만드는 알고리즘
개발 단계부터 윤리적 접근 필요하다
인간과 상호작용 하는 인공지능
특정 집단 혐오·차별하는 표현 사용
무분별한 정보의 기계학습이 원인
인간 삶을 변화시킬 수 있기 때문
윤리적 가치에 따른 목표 지녀야

AI 챗봇 ‘이루다’의 이미지.

최근 AI(Artificial Intelligence, 인공지능) 챗봇 ‘이루다’를 계기로 AI에 대한 윤리문제가 논란이 되고 있다. AI의 선용을 위한 ‘알고리즘 윤리’(algor-ethical) 도입이 시급하다는 목소리가 나온다.

AI 챗봇 ‘이루다’는 지난해 12월 23일 공개된 대화형 인공지능이다. 그러나 운영한 지 불과 며칠 만에 ‘이루다’가 특정 집단을 혐오하고 차별하는 표현을 사용해 문제가 됐고, 개발 과정에서 이용된 개인정보가 ‘이루다’를 통해 유출됐다는 논란이 일기도 했다. 결국 ‘이루다’를 개발한 스캐터랩은 지난 15일 “이용자들의 불안감을 고려해 ‘이루다’의 데이터베이스(DB)와 딥러닝(Deep Learning) 대화 모델을 전부 폐기하기로 했다”고 밝혔다.

AI가 혐오·차별 표현을 하게 된 것은 딥러닝을 통한 기계학습의 결과다. 딥러닝은 AI가 자동으로 정보를 분류하고 정보의 집합과 상하관계를 파악하는 기술이다. 사람이 입력한 정보만을 처리할 수 있었던 기존 AI와 달리 AI 스스로 정보를 분류하고 정의할 수 있어 음성·이미지 인식, 자율주행차의 장애물 파악 등 다양한 분야에서 활용되고 있다.

‘이루다’는 100억 건 이상의 카카오톡 대화로 딥러닝을 수행해 사람과 비슷한 자연스러운 말투로 화제가 됐다. 그러나 대화 안에 담긴 혐오·차별 표현 역시 여과 없이 학습했고, 일부 사용자들이 AI가 불건전한 표현을 학습하도록 유도하기도 해 문제가 됐다. AI가 방대한 정보를 학습하는 것만으로는 윤리문제를 해결할 수 없는 것이다.

국내에서는 ‘이루다’를 통해 부각되기는 했지만, AI 윤리문제는 이미 이전부터 논란이 돼 왔다. 특히 2016년 마이크로소프트사의 AI 챗봇 ‘테이’(Tay)가 인종·성차별 발언을 해, 선보인 지 16시간 만에 운영을 중단한 사례는 ‘이루다’와 유사하다.

이런 AI 윤리문제에 관해 이미 교회는 AI ‘알고리즘’ 개발 단계부터 윤리적으로 접근할 것을 강조해 왔다. 특히 지난해 교황청 생명학술원이 발표한 ‘인공지능(AI) 윤리를 위한 로마선언’(Rome Call for AI Ethics, 이하 로마선언)은 “우리 공동의 집과 그 안에 사는 인간의 선을 위해 AI가 발달하도록 하는 시각을 보장해야 함”을 역설하고 있다. AI가 단순히 능력 향상과 효율을 위해서만 수행되는 것이 아니라 윤리적인 가치와 원리에 따른 목적과 목표를 지녀야 한다는 것이다. AI가 인간의 본성과 실재를 인식하는 방식에 영향을 주고, 우리의 정신적·상호인격적 습성에도 영향을 미칠 수 있어 인간 삶을 변화시킬 수 있기 때문이다.

로마선언은 ‘알고리즘 윤리’의 관점을 지니기 위한 6가지 원칙을 제시한다. AI 시스템은 설명 가능해야 하고(투명성), 모든 인류의 필요가 고려돼야 하며(포용성), AI를 고안하고 배치하는 사람들이 책임 있게 일해야 하고(책임성), 공정성과 인간의 존엄성을 보호하며(공평성), AI 시스템 자체가 믿을 수 있게 작동해야 한다(신뢰성)는 것이다.

가톨릭생명윤리연구소 소장 박은호 신부는 “‘이루다’의 사례에서 기술을 통해 뛰어난 결과를 얻기도 하지만, 어떻게 사용·적용하느냐에 따라 결과가 달라질 수 있다는 것을 인식했으면 좋겠다”고 말했다. 특히 “‘이루다’가 인간과 상호작용을 하는 AI여서 혐오·차별 발언이 인간에게 직접 피해를 주는 상황이 된 것 같다”며 “AI를 도구적으로 선용하는 것을 넘어 인간을 대체할 수 있는 것처럼 생각하는 것은 위험할 수 있다”고 지적했다.

이승훈 기자 joseph@catimes.kr