본문 바로가기

카테고리 없음

[송민령의 뇌과학 이야기]인공지능의 윤리

일러스트_김상민 기자

인공지능의 활용이 늘어나면서 윤리 문제도 잦아지고 있다. 얼마 전 한국에서는 인공지능 챗봇 ‘이루다’를 둘러싼 논란이 있었고, 작년부터 ‘네이처’에는 표정 인식에 대한 논의가 자주 보인다. 표정은 감정을 나타낸다고 여기곤 한다. 따라서 인공지능으로 표정을 인식할 수 있게 되면 특정한 이슈에 대한 입장, 법정 판결, 마케팅 등 다양한 분야에 활용할 수 있다.

 

다만 표정에서 정말 감정을 읽을 수 있는지에 대해서는 아직 결론이 나지 않았다. 표정으로 감정을 표현하는 방식이 모든 문화권에서 동일하다는 가정이 한때는 주류였지만, 그렇지 않다는 연구도 누적되었기 때문이다. 예컨대 표정을 통한 감정 표현은 상황과 문화에 따라 다를 수 있다. 지난달 코웬(Cowen) 등은 인공지능을 활용해 이 문제를 해결하고자 했다.

 

이 연구는 기존 연구들과 몇 가지 측면에서 달랐다. 먼저 기존에는 실험 참가자들에게 얼굴 표정만 보여주고 감정을 추론하게 한 경우가 많았다. 이러면 상황이 감정 표현에 끼치는 영향을 살필 수 없다. 상황 정보를 주더라도 글로 설명하곤 했는데, 이러면 상황에 대한 편견이 감정 인식에 영향을 줄 수 있어 정확하지 않다. 반면에 코웬 등은 유튜브 영상에 담긴 일상의 자연스러운 표정을 분석했다. 144개 나라로부터 얻은 600만개의 영상을 사용했으므로 규모 면에서도 압도적이었다.

 

코웬 등은 상황과 표정 사이의 관련성은 미약하지만, 이 관련성의 양상은 문화권 간에 70%가량 비슷하다는 결과를 얻었다. 그러나 이 결과를 그대로 받아들이기에는 몇 가지 심각한 문제가 있다. 먼저 이 연구에서는 영상 속의 표정이 어떤 감정을 담고 있는지 참가자들에게 추론하게 한 뒤, 그 데이터로 인공지능을 학습시켰다. 표정 대신 표정으로부터 추론된 감정을 사용했으므로 적확하지 않은 데이터를 사용한 셈이다. 더 큰 문제는 참가자들이 모두 인도의 영어 사용자였다는 것이다. 잭(Jack) 등의 2018년 연구에 따르면 같은 표정도 문화권에 따라 다르게 해석된다고 한다. 예컨대 동아시아인은 서양인의 두려운 표정과 화난 표정을 정확하게 인식하지 못한다. 특정 집단의 평가 데이터만을 사용할 경우, 다른 인종과 문화권에 대한 잠재적인 차별로 이어질 수도 있다. 이처럼 인공지능의 행동은 어떤 데이터를 어떻게 사용하는지에 따라 크게 달라지기 때문에 대표적인 인공지능 학회인 ‘뉴립스’ 등에서는 사용한 데이터를 자세하게 설명하도록 요구한다.

 

나아가 MIT 미디어랩에서는 2019년 ‘네이처’ 논문을 통해 인공지능이 다른 기계 및 사람들과 어떻게 상호작용하며 변해갈지도 고려해야 한다고 했다. 앞서 언급한 뉴립스에서도 논문을 제출한 연구자들에게 인공지능이 사회에 끼칠 영향을 서술하도록 요구한다. 이처럼 인공지능의 윤리적인 사용이 중시됨에 따라 주요 선진국에서는 인공지능 기초 과목을 가르칠 때 윤리도 가르친다고 한다.

 

인공지능을 바람직하게 활용하려면 규제도 중요하다. 신기술이 불행한 사고를 겪으며 안전해지기보다는 걱정을 하며 안전해지는 편이 훨씬 더 낫다. 그러나 걱정된다고 차단만 하는 것도 현명하지 않다. 드론과 전동휠이 그랬듯이 해외에서 좋은 제품이 나오면 어차피 국내 시장으로 들어오기 때문이다.

 

그러니 걱정을 하되 과학적으로 해야 한다. 과학적 접근이란 측정에 근거해서 한 발 한 발 체계적으로 나아가는 과정을 뜻한다. 사회의 진보는 의심하는 이들이 있을지언정, 과학의 진보는 막을 수 없다고 보는 이들이 대부분일 정도로 이 접근법은 강력하다. 이 방식에 따르면 막연한 걱정만 하는 것도, 덮어놓고 허용하는 것도 과학적이지 않다. 감당할 수 있을 만큼만 허용해보고 거기서 얻은 데이터로 규제를 준비해서 다시 한 발짝 나아가며 실험과 측정을 반복하는 것이 과학적인 접근이다. 이렇게 하면 규제와 기술이 함께 발전할 수 있다. 흔히들 규제와 기술이 대립한다고 생각하지만, 제3의 길은 있다. 인공지능에 대한 윤리 교육을 확대하면서, 기술과 규제가 더불어 발전하는 체계를 마련하기를 바란다.

 

송민령 공학박사