[Opinion] chatGPT, 무엇을 할 수 있을까? [문화 전반]

인공지능의 현재와 미래 (1)
글 입력 2023.02.24 14:03
댓글 0
  • 카카오 스토리로 보내기
  • 네이버 밴드로 보내기
  • 페이스북으로 보내기
  • 트위터로 보내기
  • 구글 플러스로 보내기
  • 글 스크랩
  • 글 내용 글자 크게
  • 글 내용 글자 작게

 

 

KakaoTalk_20230224_010512868.jpg

 

 

최근 대화형 인공지능인 chatGPT를 이용하는 사람들을 많이 보고, 나도 호기심에 chatGPT를 사용해보게 되었다. 누구나 한 번쯤은 상상해보는 일 아닌가. 인공지능은 얼마나 똑똑한지, 그리고 무엇까지 할 수 있는지.


우선 유명한 연예인의 이름을 검색해서 어떤 정보를 제시하는지 확인해보았다. 안타깝게도, 엉터리 정보들을 늘어놓은 결과물이 나왔다. 기본적인 생년월일부터 필모그래피까지 죄다 틀린 것이었다.


그래서 정보의 부정확을 지적하니 수정할 수 있도록 인공지능이 제안하였다. 그래서 차근차근 생년월일과 필모그래피들을 하나씩 수정하고, 다시 똑같은 질문과 대답을 오가며 부분적으로 생겨나는 오류들을 조금씩 고쳐나갔다.


그렇게 최종적으로 여러 번 물어보니 조금씩 표현을 바꾸면서도 계속 정확하게 대답하는 것이 인상적이었지만, 며칠이 지난 후 새 대화창으로 질문을 해보니 다시 잘못된 정보들만 늘어놓고 있었다. 조금은 허무한 기분이었다.


이번에는 음악과 그림, 소설 등의 예술 작품을 추천해달라고 질문해보았다. chatGPT는 선호하는 장르나 분위기 등을 알려달라는 요청을 하였다. 그래서 ‘여성과 남성의 듀엣곡’, ‘여름의 자연 풍경을 그린 그림’, ‘빅토르 위고의 소설’ 등 여러 종류의 범주로 추천받았는데 간단한 작품 설명과 함께 약 네다섯 가지의 작품을 추천해주었다.

 


KakaoTalk_20230224_011208701.jpg

 

 

놀이를 하는 기능도 있어 끝말잇기를 해보았다. ‘츠’로 끝나는 단어를 제시하니 ‘츠키노미치’라는 단어를 말하였고, 인공지능이 ‘릇’으로 끝나는 단어를 제시하여 나의 패배를 인정하고 ‘릇’으로 끝나는 단어를 물어보니 ‘릇돈’과 ‘릇술’을 제안하였다.


하지만 문제점은 ‘츠키노미치’, ‘릇돈’, ‘릇술’에 대한 설명이 네이버와 구글에 검색해보아도 잘 등장하지 않는 내용이라는 점이다. 우선 ‘릇돈’과 ‘릇술’은 국어사전에 검색되지 않는 단어라는 점에서 신뢰성이 크게 떨어졌고, 애초에 생소한 일본어여서 쉽사리 검색하기 힘든 ‘츠키노미치’도 chatGPT와 같은 설명을 하는 문서 및 포스팅을 찾을 수 없었다.


그 외에도 철학적인 논제에 관해 물어보고, 글을 쓰기 위한 주제를 추천받는 등 여러 가지 질문을 chatGPT에게 던져보았다. 그렇게 여러 ‘실험’을 해본 결과 장단점은 다음과 같았다.

 

우선 chatGPT의 대표적인 장점은 대화를 기억한다는 것이다. 우리가 기존에 경험해온 일상적인 인공지능은 어떤 요청 및 질문에 대한 응답을 주고 그것으로 끝이 났다. 예를 들어 번역기를 사용할 때 특정 문장을 주면 그것을 번역하고, ‘시리’와 ‘클로바’ 같은 인공지능도 단순히 요청에 대한 결과를 보여주는 것에 불과했다.


하지만 chatGPT는 단순히 입력하면 산출하고, 또 다른 것을 입력하면 산출하는 개념이 아닌, 기존의 입력과 산출을 기억하며 그것을 ‘대화’로 연결할 수 있는 인공지능이다. 물론 여전히 인간이 먼저 말을 걸어야 대답을 한다는 점에서 쌍방향 대화의 개념이라고는 정의할 수 없지만, 기존에 한 이야기까지 기억하여 그것을 바탕으로 이용자 맞춤형으로 새로운 결과물을 줄 수 있다는 점에서는 상당히 인상적이었다. 일종의 ‘대화형 알고리즘’이라고 해야 할까?


그리고 ‘추천’의 기능이 chatGPT의 또 다른 강점이라고 생각한다. 단순히 예술 작품을 추천해주는 것을 넘어서, 다양한 종류의 글의 주제와 구조까지 추천해주는 것이 신기했다. 이에 대한 윤리적인 논제는 배제하고, 효율성의 면에서만 보자면 인간보다 훨씬 빠른 속도로 레이아웃을 구성할 수 있다는 점에서 활용도가 높지 않을까 싶다.


그러나 단점 또한 존재한다. 일단 여느 인공지능들처럼 감정적인 교류와 사유가 불가능하다. 물론 학습을 통해 친구나 애인처럼 역할 수행을 하는 것은 가능하나, 그것이 인공지능 고유의 감정 표현은 아니다. 


chatGPT에게 사랑을 할 수 있느냐고 물었을 때, 사랑에 관한 정보를 제공하거나 이야기하는 것은 가능하지만 인공지능이므로 인간적인 감정을 체험할 수는 없다고 분명하게 대답한다. 철학적인 논제에 관해 물었을 때도 본인의 생각을 말하기보다는 정보를 검색한 결과물을 보여주는 것에 가까웠다.


데이터베이스에 한계가 있다는 것 또한 단점인데, 특히 2021년 10월 이후의 지식은 제한되어 있다고 한다. 예를 들어 대한민국의 현 대통령이 누군지 물어보았을 때 문재인 대통령이라고 대답하고, 2022년 카타르 월드컵의 우승 국가를 물어보았을 때 예측하기 어렵다고 대답하는 등 2022년부터의 정보는 아직 업데이트되어 있지 않았다.

 


KakaoTalk_20230224_011713108.jpg

 

 

그러나 더 큰 문제점은 이러한 한계로 생겨나는 부정확한 정보를 마치 정확한 것처럼 자연스럽게 대답한다는 것이다. 특히 인물에 대한 정보를 물어보았을 때 정보의 부정확성을 사전에 경고하지 않은 채 완전히 틀린 정보를 나열하였다. 수정을 시도해보아도 새로운 채팅창을 통해 물어보았을 때는 그 기록이 완전히 초기화되어 있었다.


물론 현재 이용자들은 chatGPT의 정보의 부정확성을 인지하여 정보에 현혹되지 않고 오히려 정보를 수정하는 데에 앞장서고 있으나, 이후에 chatGPT가 더 대중화되거나 또 다른 유사한 인공지능이 등장하였을 때 ‘가짜뉴스’의 위험성을 계속 상기할 필요가 있다.


chatGPT의 창작 기능은 아직 사용해보지 않았지만, 키워드와 주제를 던져주면 소설과 시 등의 문학 작품과 가사도 창작이 가능하다고 한다. 물론 이를 그대로 사용하면 사실상 AI의 창작물을 표절한 것이나 마찬가지이므로, 해당 창작물을 그대로 사용하는 것은 지양할 필요가 있다. 실제로 chatGPT를 통해 작성된 논문을 추적하는 프로그램도 개발되었다고 한다.


chatGPT를 비롯한 인공지능의 가장 큰 장점은 속도이다. 인간이 처리하기에 시간이 제법 걸리는 활동을 인공지능은 약 1분 안으로 해결할 수 있다. 그중 chatGPT가 놀랍게 느껴지는 이유는 글의 주제와 구조를 만들고, 실제로 창작물을 만드는 것까지 빠르게 할 수 있기 때문이다.


그러나 이 시점에서 우리는 인공지능이 만들어내는 창작물에 관해 다시 생각해볼 필요가 있다. 인공지능이 만들어내는 창작물은 ‘창작물’이라고 할 수 있는가? 인공지능의 창작물을 이용하는 것은 표절인가? 우리는 어느 영역까지 인공지능을 이용할 수 있는가? 다음 오피니언에서 해당 논제를 다뤄볼 예정이다.

 


 

컬쳐리스트 명함.jpg

 

 

[김민성 에디터]



<저작권자 ⓒ아트인사이트 & www.artinsight.co.kr 무단전재-재배포금지.>
 
 
 
 
 
등록번호/등록일: 경기, 아52475 / 2020.02.10   |   창간일: 2013.11.20   |   E-Mail: artinsight@naver.com
발행인/편집인/청소년보호책임자: 박형주   |   최종편집: 2024.04.28
발행소 정보: 경기도 부천시 중동로 327 238동 / Tel: 0507-1304-8223
Copyright ⓒ 2013-2024 artinsight.co.kr All Rights Reserved
아트인사이트의 모든 콘텐츠(기사)는 저작권법의 보호를 받습니다. 무단 전제·복사·배포 등을 금합니다.