[Opinion] AI에게 차별 당하는 사람들? [문화 전반]

AI와 함께 살아가는 우리가 짚어봐야 할 점
글 입력 2022.01.07 14:42
댓글 0
  • 카카오 스토리로 보내기
  • 네이버 밴드로 보내기
  • 페이스북으로 보내기
  • 트위터로 보내기
  • 구글 플러스로 보내기
  • 글 스크랩
  • 글 내용 글자 크게
  • 글 내용 글자 작게

 

 

다운로드 (2).jpg

 

 

재작년 말, 20대 여자 대학생 캐릭터의 ai 챗봇 이루다가 뜨거운 감자였다. 친근한 이미지와 함께 페이스북 메신저를 통해 대화를 나눌 수 있다는 것에 많은 1020세대가 관심을 보였다. 하지만 곧 성 소수자 차별 발언, 개인정보 유출, 유해한 대화 등의 논란이 거세게 일어 모델 폐기라는 결말을 맞았다.

 

사실 인공지능의 윤리적 문제는 이미 ai 기술 사업에 뛰어든 작은 스타트업부터 구글, 마이크로소프트 등 유명회사까지 피할 수 없는 맹점이다. 인공지능은 점점 더 우리 삶에 빠질 수 없는 기술이 되어가고 있지만, 윤리적 문제의 논란은 아직도 끊이지 않는다.

 

 

 

공정하지 못한 AI?


 

아마존은 2014년 직원 채용을 효율적으로 처리해 줄 인공지능을 개발했다. 근 10년간의 합격자 데이터를 바탕으로 학습시키며 정확도를 높였는데 실제 시행 결과는 놀라웠다. 기존의 아마존 직원의 남녀 성비 차이가 심하게 벌어졌다. 인공지능이 여성 지원자를 차별해 점수를 더 낮게 부여해버린 것이다. 개발팀은 같은 조건이어도 “여성”이라는 단어가 이력서에 들어가 있으면 알아서 조정해버리는 인공지능의 문제를 발견하고 데이터에서 성별 정보를 없애도 보았지만, 효과는 없었다. 인공지능이 데이터의 다양한 요소 속에서 스스로 성별을 유추해 판단할 수 있었기 때문이다. 결국 아마존은 채용 인공지능의 편향성 문제를 해결하지 못하고 프로그램을 끝냈다.

 

구글 역시 다양한 사건이 있었다. 독일 정보기술(IT) 전문지 ‘알고리즘워치’에 따르면 구글 인공지능(AI) 서비스로 이미지 식별 실험을 한 결과, 밝은 피부를 가진 사람이 체온계를 들고 있는 사진은 체온계를 들고 있는 모습으로, 어두운 피부를 가진 사람이 체온계를 들고 있는 사진은 총을 갖고 있는 모습으로 분류하는 비율이 높았다고 한다. 또한 2015년에 출시한 구글포토 앱에서는 흑인 여성의 얼굴을 고릴라로 인식하고 태그를 붙였다. 인공지능의 인공차별이라 할 수 있는 이 사건은 큰 논란이 돼 시정했지만, 그 외에도 구글의 채용모집 사이트에서 같은 스펙임에도 불구하고 여성보다 남성에게 더 좋은 직종, 높은 연봉 등의 고급 취업 자리를 노출한다는 사실도 밝혀졌다.

 

사람이 평생 배울 수 없을 만큼의 방대한 데이터와 철저히 설정한 값 아래에서 학습한 인공지능 모델들에게서 왜 이런 편향성 문제가 발생할까. 인공지능의 편향성에 대해 카이스트 인공지능대학원 교수는 “학습 데이터나 학습모델, 학습 알고리즘의 편향이 주된 원인이며 학습 데이터 편향은 공정성에, 학습 모델과 알고리즘은 정확도에 영향을 주는 경우가 있다”고 했다.

 

즉 데이터의 불균형이 가장 주된 요인이다. 데이터가 많은 집단에 대해서는 인공지능이 학습을 통해 그 집단의 보편적인 결과를 도출할 수 있지만, 데이터가 적은 집단에 대해서는 인공지능의 결론이 그 집단을 대표한다고 볼 수 없는 경우. , 편향되어 있지 않다고 생각했지만, 인공지능이 스스로 데이터 속 여러 요소를 조합해 판단하고 치우친 결과를 내는 경우 등 다양한 부분의 방해 요인이 있다.

 

우리는 자칫하면 기계 주의에 빠져 인공지능에 대한 과잉 기대를 할 수 있다. “컴퓨터가 인간보다 더 똑똑하겠지”라는 당연한 생각으로 작은 문제들을 지나치게 된다면 결국 기득권의 이익과 권리만 보장되며 사회적 약자, 가난한 자들은 소외되는 사회가 될 것이다. 인공지능을 개발하고 기술을 소유하며 향유하는 사람들은 이미 돈이나 명예, 사회적 지위가 있는 사람들이기 때문에 그들을 중심으로 편향된 인공지능 개발이 진행되면 사람이 사람을 차별하는 세상에서 인공지능이 사람을 구분 짓는 세상이 당연해질 수도 있다. 그러므로 우리는 인공지능의 공정성 문제에 대해 정확히 짚고 넘어가야 한다.

 

 

 

공정성 이전에 챙겨할 것, 투명성


 

ㄹㄹ.jpg

 

 

앞서 언급한 인공지능 챗봇 이루다는 5년 전 마이크로소프트에서 나온 ‘테이’와 유사한 문제점을 보였다. 사용자의 부적절한 데이터 주입으로 인해 챗봇의 학습 데이터도 오염된 것이다. 하지만 이 이루다를 만든 스캐터랩이 더 사회의 비난을 받은 이유는 바로 개인 정보 침해였다. 스캐터랩은 자사가 개발한 어플리케이션 ‘연애의 과학’, ‘텍스트앳’ 이용자의 카카오톡 대화를 수집해 이루다 개발에 사용했다. 이는 정보를 제공한 이용자들에게 명확하게 사용 출처를 알리지 않았기에 개인정보 무단 사용인 것이다. 심지어 이루다의 대화 중에는 일부 사용자들의 주소나 이름 등 특정 정보도 포함돼 그대로 불특정 다수에게 노출되었다.

 

나 역시 기억도 가물가물한 학창 시절 상대방과의 카카오톡 대화를 입력하면 관계를 분석해준다 해 해당 어플리케이션을 사용한 적이 있었다. 텍스트 본으로 통째로 내보내기 한 나의 개인적인 정보가 정확히 납득갈 만한 동의 절차 없이 무단으로 사용되었음에 몹시 화가 났다. 이루다 건의 경우 화제가 되어 법적 조사와 제재를 처분받았지만 또 어디서 어떻게 내 정보가 함부로 학습자료로 사용되고 있을지 모른다.

 

일반 개인들은 나의 정보가 아무 데서나 활용될까 두려워 기업이 투명하게 공개하길 바란다. 기술을 직접적으로 사용하는 사람들은 어떻게 작동되는지 알 수 없는 인공지능 기술에 대해 신뢰할 수 없어 투명성을 바란다. 기술을 보유한 기업은 인공지능의 투명성 확보하려다 많은 위험에 처할 수 있어 소극적으로 된다. 이렇게 되면 기업의 인공지능 개발이 위축되어 국가 차원에서의 경쟁력이 떨어질 수 있다.

 

따라서 정부 주도하에 적절한 수준의 투명성 규제가 마련되는 것이 바람직하다. 기업과 기술 사용자, 데이터 제공자 삼자의 입장을 조율해 거시적인 담론을 펼치는 것이다. 기술 활용으로 얻은 당장의 이익과 성과만을 바라보고 간다면 인공지능에 대한 사회적 신뢰가 떨어지고 이는 곧 발전의 기회를 놓치게 될 수 있다. 어떤 방식으로 보호할지 어떤 정의를 따를지에 대한 합의 주도와 위험 없는 투명성을 위한 툴 제작 인력 투자에 큰 관심을 기울여 인공지능 산업 전체의 긍정적인 청색 신호가 들길 바란다.

 

*

 

사실 나도 그저 데이터를 의도치 않게 내준 제공자의 입장으로만 이 문제를 바라봤었다. 처음 알아볼 때는 공개치 않는 기업만 이기적인 게 아닌가? 정부는 규제를 적극적으로 추진하지 않나? 라는 생각이 들었는데 자세히 들여다보니 각자의 입장과 기술적 한계, 방향에 대해 알게 되었다. 우리나라의 경우 개인정보보호 규제 때문에 이미 타국보다 데이터 산업의 발전이 늦었다는 사례처럼 무조건 막아설 일도, 마냥 개방할 일도 아니라는 걸 깨달을 수 있었다.

 

가장 크게 느낀 것은 결국 인공지능 산업이 발전하기 위해 가장 중요한 것은 서로 간의 신뢰 형성이라는 부분이다. 미국 IT 기업 IBM AI 전략 세드 도브린 부사장은 인공지능의 투명성 문제에 대해 "신뢰의 문제는 모델에 대해 투명하게 검증할 수 있느냐는 의미"라며 "AI는 블랙박스처럼 인간이 이해할 수 없는 게 아니라 AI가 어떤 과정을 통해 결과를 도출했는지 설명할 수 있고, 혹시 편견이 내재해 있다면 이를 감지할 수 있는 것"이라고 말했다.

 

우리나라도 개인과 개인, 기업과 기업 간의 신뢰 관계를 쌓을 수 있도록 적당한 선과 규제 속에서 오픈과 보호가 적절히 이뤄지는 사회가 되면 좋겠다.

 

 

[이채원 에디터]



<저작권자 ⓒ아트인사이트 & www.artinsight.co.kr 무단전재-재배포금지.>
이름
비밀번호
자동등록방지
74998
 
 
 
 
 
등록번호/등록일: 경기, 아52475 / 2020.02.10   |   창간일: 2013.11.20
E-Mail: artinsight@naver.com   |   발행인/편집인/청소년보호책임자: 박형주
Copyright ⓒ 2013-2022 artinsight.co.kr All Rights Reserved
아트인사이트의 모든 콘텐트(기사)는 저작권법의 보호를 받습니다. 무단 전제·복사·배포 등을 금합니다.