[Opinion] 곧 다가올 터미네이터 [문화 전반]

넷플릭스 다큐멘터리 <알고리즘의 편견>
글 입력 2023.06.19 19:40
댓글 0
  • 카카오 스토리로 보내기
  • 네이버 밴드로 보내기
  • 페이스북으로 보내기
  • 트위터로 보내기
  • 구글 플러스로 보내기
  • 글 스크랩
  • 글 내용 글자 크게
  • 글 내용 글자 작게

 

 

우리는 알고리즘의 세상 속에 살고 있다. 이미 우리가 과거에 남긴 행적을 추적해서 미래에 무엇을 원할지 예측하는 시스템이 추천하는 콘텐츠를 보거나, 이 알고리즘에 기반한 광고를 보고 물건을 사는 것에 익숙하다. 필요한 것을 인터넷에 검색하거나 심지어는 누군가와 그것에 대해 이야기하고 나서 인스타그램이나 구글에 들어가면 해당 물건의 광고가 뜬다.

 

알고리즘은 우리가 무엇을 보고 싶어 하며 갖고 싶어 하는지를 넘어, 우리가 어떤 직무에 적합한지 판단하기도 한다. 최근 많은 기업의 채용 절차에서 'AI 역량검사'를 이용하고 있다. 컴퓨터의 웹캠을 켜고 AI를 향해 면접을 보면 시스템이 지원자가 기업에 적합한 사람인지 검사하는 것이다.

 

실제로 포털에 'AI 면접'이라고 검색하면 수많은 합격 팁이 나오지만, 어떤 기준으로 지원자를 판별하는지 알려진 바는 없다. 취업 준비생들 사이에서 공공연하게 알려진 사실이라면, 답변의 내용이 중요한 것이 아니라 얼굴 인식, 음성 인식을 통한 표정과 음색 분석이라는 것뿐이다.

 

그렇다면 이 알고리즘은 어떤 데이터를 학습해서 어떻게 돌아가는 것일까? 과연 믿을만한 방식으로 결정을 내리고 있을까?

 

2020년 공개된 넷플릭스의 다큐멘터리 <알고리즘의 편견>에서 이 문제를 조명했다.

 

*

 

이야기는 MIT 미디어 랩의 연구원인 조이 부올람위니의 사례로 시작한다. 그는 수업 과제를 핑계 삼아 평소 해보고 싶었던, 얼굴 인식 기술을 사용한 아트 프로젝트를 만든다. 개발 도중 시스템이 조이의 얼굴을 인식하지 못하자 흰색 가면을 쓰고 카메라 앞에 서 본다. 그러자 얼굴이 인식되었고, 그는 안면 인식 시스템이 흑인 여성의 얼굴을 인식하지 못한다는 것을 알게 된다.

 

알고리즘은 미래를 예측하기 위해 과거의 정보를 이용하는 것으로, 인간이 제공한 빅 데이터를 학습하여 만들어진다. 이 시스템 구축에 사용된 대다수의 샘플이 백인 남성의 얼굴이었기 때문에 이런 오류가 발생하는 것이었다.

 

인간은 불평등할 수 있다는 것을 모두가 알고 있지만 컴퓨터가 불평등할 거라는 상상은 좀 어렵기에 우리는 컴퓨터의 판단을 맹목적으로 믿는다. 인간이 제공한 데이터에 편견이 있다면, 그것을 학습한 시스템도 편견을 갖는다는 것을 알아야 한다.

 

 

"우리가 기술과 사회에 대해 일반적이라고 보는 개념들은 사실 무척 극소수의 동질적인 사람들의 머리에서 나온 것이에요. 그런데 문제는 모두에게 무의식적인 편견이 있단 거죠. 그리고 사람들은 자신의 편견을 기술에 심었어요."

 

 

AAAABSbMPDCQsE9IDt5baQvBP_72fROWSmqFIvO7yiLkNZnQf-uQBekg2-3DoPZ7h0mSJZFzfKmv06TVcUU8Q4EE9jEirU-Q_s5I3QWX.jpg

 

 

실제로 미국에서는 이를 보여주는 큰 사례가 수차례 있었다. AI 채용 시스템을 개발하고 누구보다 빠르게 사용한 기업은 아마존이다. 그런데 아마존에서 이 AI 채용 시스템을 폐기하기로 결정했다. 그 프로그램이 여성의 이력서를 '전부' 거부하는, 편견을 가진 판단을 한다는 사실이 발견되었기 때문이다.

 

또한 유나이티드 헬스 그룹에서는 알고리즘을 이용해 우선적으로 진료를 받을 환자를 가려냈는데, 병세가 더 심한 흑인 환자들보다 상대적으로 건강한 백인 환자들이 진료를 우선적으로 받았다는 연구 결과가 있었다.

 

마이크로소프트에서 만든 '테이'라는 챗봇은 공개된 지 몇 시간 만에 트위터에 돌아다니는 텍스트들을 학습해서 인종차별적, 성차별적 발언을 하기도 했다.

 

이렇게 많은 기업에서 '업무 효율'을 위해 알고리즘을 이용하고 있지만 그 기술의 정확성은 검사되지 않았다. 이외에도 기술은 '사회 질서 유지'라는 명목하에 사람들을 추적하고 있기도 하다.

 

홍콩에서 민주화 시위가 한창이던 당시, 경찰은 안면 인식 기술을 반체제 인사 추적에 사용했다. 사람들은 이에 저항하기 위해 레이저 포인터를 곳곳에서 쏘아 카메라를 교란시키거나 단체로 마스크나 우산을 쓰고 다녔다.

 

중국에서는 '사회 신용 점수'라는 제도가 있어 공개적으로 국민들을 추적한다. 가게에서 물건값을 계산하거나 건물과 기차역에 들어갈 때 등 일상의 모든 곳에서 얼굴 인식을 이용하는데, 신용 점수가 낮아지면 열차나 비행기 이용에 제약이 생긴다.

 

중국에서만 이런 일이 일어나는 것처럼 보이겠지만 실상은 세계 어디에서나 암암리에 모두가 감시를 당하고 있다. 1997년 개봉한 공상 과학 영화 <가타카>에서는 신체 조직 샘플을 채취해서 기업의 적격자와 부적격자를 구분한다. 이것이 디지털의 방식으로 구현된 세상이 이미 도래해 있다. 우리가 매일 지니고 다니며 들여다보는 스마트폰의 화면이 바로 디지털 파놉티콘의 창문인 셈이다.

 


camilo-jimenez-qZenO_gQ7QA-unsplash.jpg

 

 

미국과 영국 등지에서 다양한 사례를 수집하며 이런 실태에 대해 연구하고 개선점을 찾는 움직임이 있었다. 그리고 마침내 조이 부올람위니는 IBM에서 만든 안면 인식 시스템에 차별이 깃들어 있다는 연구 결과를 IBM에 공유한다. 그러자 IBM에서는 이 문제를 개선했고, 회사에 조이를 초대해 개선된 결과를 보여주었다.

 

조이는 미 의회에서 정확성이 확인되지 않은 차별적인 알고리즘이 미국에서 널리 이용되고 있다는 사실에 대해 발언하기도 했다. 이후 미국의 여러 주에서 안면 인식 시스템의 사용이 금지되는 등 주목할 만한 변화가 생겼다. 하지만, "알고리즘에 대한 미국의 연방 규제는 여전히 없다."

 

우리 인간은 이제 AI가 초래할 어떠한 커다란 문제를 앞두고 있다. 최근 큰 파장을 불러온 AI 언어 모델인 챗 GPT를 출시한 기관, OpenAI의 공동 창립자 일론 머스크는 "인공지능 개발에 '일시 중지'가 있어야 하며 AI 분야는 규제가 필요하다."라고 말했다.

 

기술의 발전 속도는 인류 역사상 전례 없이 빠른 데 비해 기술의 근간이 되어야 할 인문학과 인간 의식은 더디게 나아가고 있는 현실이다.

 

 

[김지연 에디터]



<저작권자 ⓒ아트인사이트 & www.artinsight.co.kr 무단전재-재배포금지.>
 
 
 
 
 
등록번호/등록일: 경기, 아52475 / 2020.02.10   |   창간일: 2013.11.20   |   E-Mail: artinsight@naver.com
발행인/편집인/청소년보호책임자: 박형주   |   최종편집: 2024.05.01
발행소 정보: 경기도 부천시 중동로 327 238동 / Tel: 0507-1304-8223
Copyright ⓒ 2013-2024 artinsight.co.kr All Rights Reserved
아트인사이트의 모든 콘텐츠(기사)는 저작권법의 보호를 받습니다. 무단 전제·복사·배포 등을 금합니다.