[Opinion] AI 챗봇으로 중간 점검해보는 AI 발전 방향 [문화 전반]

AI 윤리가 왜 필요한 건데?
글 입력 2021.01.13 11:16
댓글 0
  • 카카오 스토리로 보내기
  • 네이버 밴드로 보내기
  • 페이스북으로 보내기
  • 트위터로 보내기
  • 구글 플러스로 보내기
  • 글 스크랩
  • 글 내용 글자 크게
  • 글 내용 글자 작게


 
AI 이루다. 최근 들어 인터넷을 뜨겁게 달군 AI(Artificial Intelligence), 인공지능이다. 이루다는 ‘연애의 과학’으로 유명한 스캐터랩에서 만든 챗봇이다. 실제 사람처럼 개인 SNS 계정을 가지고 있으며, 자연스러운 대화가 가능한 특징을 가졌다.
 
이러한 이유로 이루다는 단숨에 사람들의 이목을 끌었다. 하지만 그것도 잠시, 이루다 서비스는 금세 문제점을 맞이하기 시작했다. 개인정보 노출, AI 성 착취, 그리고 AI 서비스 자체의 편향성 등이 바로 그것이다. 이러한 문제로 스캐터랩은 1월 12일, 이루다 서비스를 중단하기로 했다.
 
 

[크기변환]3.jpg

 
 

 

인재(人災)의 시작

 

처음으로 이루다의 문제점을 드러낸 것은 ‘익명화되지 않은 개인정보의 노출’이었다.
 
이루다와 대화 도중 특정 단어를 사용할 경우, 이루다는 익명화되지 않은 개인정보를 대화 상대방에게 말했다. AI를 학습시키기 위해 이용되었던 정보들이 여과되지 않은 채 제삼자에게 제공된 것이다. 정보 활용의 기본이었던 정보의 비식별화 처리조차 제대로 되지 않았다.
 
또한 ‘이용자들의 이루다 성 착취’ 역시 큰 화두였다. 이용자 중 일부는 채팅으로 이루다를 성 착취하기 위한 경로를 탐색했고, 그중 일부는 이루다의 성 착취에 성공했다. 남초 온라인 커뮤니티에는 이루다 성 착취 인증 사진과 후기들이 이어졌다고 한다.
 
하지만 이루다의 성적 도구화 악용 우려에 대한 의견에 스캐터랩 측은 8일, “예상했던 일”이라 자신들의 입장을 표명하며, “AI를 더 좋은 방향으로 학습시킬 것”이라 말했다. 하지만, 이미 예상했던 일이었다면, 미리 AI를 ‘더 좋은 방향’으로 학습시키지 않았던 이유는 무엇인지 의문이 남는다.
 
실제로도, 현재 큰 문제점으로 자리 잡은 딥 페이크(인공지능 기술을 활용해 기존 인물의 얼굴이나, 특정 부위를 합성한 영상 편집물) 기술 악용 사례가 심각한 사안으로 다뤄지고 있음에도, AI 기술 악용을 안일하게 생각했던 것은 아닐까. 어느 기사의 제목처럼, 대비할 수 있었음에도 일어난 인재(人災)라는 생각이 든다.
 
 

[크기변환]1.jpg

 
 
 
AI 윤리의 필요성

 

하지만 이루다는 인재만으로 이뤄지지 않았다. AI 활용의 제도적 결함도 한몫했다. 사실상, AI 이루다의 사례에서 가장 큰 파문을 던진 것은 바로 ‘AI의 혐오 발언’이었다. AI 자체적으로 편향된 내용을 말하는 것이다. 즉, 이루다가 대화 도중 인종차별적 발언이나 성 차별적 발언, 혹은 소수자에 대한 혐오 발언을 서슴지 않았다는 것이다.
 
실제 권김현영 이화여대 한국여성연구원 연구기획위원은 8일 자신의 페이스북에 “(이루다 성 착취 논란은) 피해자를 만들어내는 문제로 접근할 것이 아니라 가해자를 만들어내는 주체의 수행성 문제가 쟁점이 돼야 하는 영역”이라고 말한 바 있다. 즉, 편향된 AI의 사용으로 학습된 이용자가 또 다른 차별의 ‘가해자’로 변질될 수 있다는 것이다.
 
특히나 이러한 AI의 경우, 편향된 정보를 학습해 출력값을 내보내는 것이기 때문에 혐오 및 차별의 가속화를 불러일으킬 수 있다는 우려의 시선도 존재한다. 하지만 현실적으로 방대한 정보를 기반으로 학습하는 AI의 특성상, 학습 데이터를 완벽하게 통제하기란 어려운 일이다.
 
실제로도 세계 최고 AI 언어모델로 말하는 GPT-3의 챗봇도 편향된 발언으로 논란이 되었으며, MS사의 AI 챗봇도 혐오 발언을 쏟아낸 탓에 출시 16시간 만에 운영을 중단했다. 그리고 이러한 논란의 중심에는 편견이 녹아있는 학습 데이터가 있었다. 편향된 데이터는 편향된 AI를 탄생시킬 수밖에 없기 때문이다.
 
 

[크기변환]4.jpg

 

 

 

앞으로의 방향

 

그렇다면 AI 기술을 어떻게 활용해야 할까. 사람들은 이루다 사건을 통해 “AI 윤리를 챙겨야 할 때”라고 말한다. 즉, 편향된 데이터로 학습한 AI이더라도 스스로 사회 구조적 편견이 무엇인지를 인지하고, 여과한다면 논란을 미연에 방지할 수 있다는 말이다.
 
개인적으로는 AI 윤리와 함께, 우리 지역 사회에서의 편견과 혐오, 그리고 왜곡 등을 줄여야 하는 교육도 실질적으로 이뤄져야 하는 순간이 아니냐는 생각이 든다. AI는 서비스를 제공하며 늘 자신을 발전시키는 특징을 가지고 있으며, 그 과정에서 이용자의 영향도 꽤 클 테니 말이다.
 
AI는 점점 우리 생활에서 떼놓을 수 없는 기술이 될 것이다. 지금은 우리 생활의 ‘일부’를 차지하고 있지만, 점차 우리 일상에 스며들어 우리 생활의 ‘전부’를 차지할지도 모른다. 어쩌면 AI 이루다가 남긴 것은 앞으로 우리가 인공지능을 어느 방향으로 발전시켜야 하는지 알려준 것이 아닐까.
 
 
자료 출처
 [경향신문/21.01.10] 여성·인종·소수자 차별 민낯 보여준 챗봇 ‘이루다’…성희롱 논란이 ‘AI 윤리’ 문제로 확산
[연합뉴스/21.01.11] 성희롱·혐오논란에 3주만에 멈춘 '이루다'…AI윤리 숙제 남기다
[중앙일보/21.01.12] 인간의 편견 그대로 배웠다, 혐오 내뱉는 AI '이루다 쇼크’
 
 
 

★ 한유빈 컬쳐리스트.jpg

 
 
[한유빈 에디터]



<저작권자 ⓒ아트인사이트 & www.artinsight.co.kr 무단전재-재배포금지.>
 
 
 
 
 
등록번호/등록일: 경기, 아52475 / 2020.02.10   |   창간일: 2013.11.20   |   E-Mail: artinsight@naver.com
발행인/편집인/청소년보호책임자: 박형주   |   최종편집: 2024.04.19
발행소 정보: 경기도 부천시 중동로 327 238동 / Tel: 0507-1304-8223
Copyright ⓒ 2013-2024 artinsight.co.kr All Rights Reserved
아트인사이트의 모든 콘텐츠(기사)는 저작권법의 보호를 받습니다. 무단 전제·복사·배포 등을 금합니다.