커버스토리   챗봇, 우리 친해져 볼까

4차 산업혁명 시대에 다양한 서비스들이 인공지능(AI)의 이름을 달고 등장했다. 챗봇도 자칫 AI 서비스라고 혼동하기 쉽지만 모든 챗봇이 그런 것은 아니다. AI란 용어가 마케팅의 수단으로 남용될 뿐 자세히 뜯어보면 그렇지 않은 경우가 많다. 챗봇의 스펙트럼은 넓다. 방송대가 현재 채택한 챗봇도 AI형 채팅이라기보단 ‘자동화된 채팅’에 가깝다. 그렇지만 AI의 위력은 언제 갑자기 터져 나올지 모른다. AI의 한계를 감히 단정 지을 수 없다고 주장하는 유찬우 방송대 교수(프라임칼리지 첨단공학부 AI 전공)의 설명을 들어봤다.
김민선 기자 minsunkim@knou.ac.kr


“3년 전만 해도 챗봇이 문법에 맞게 완벽히 문장을 만들어내는 건 불가능했어요. 그래서 실제 서비스화된(상품으로 판매될 정도로 가치 있는) AI는 앞으로 없을 것이란 말이 팽배했죠. 그런데 지금은 섣불리 그런 얘기를 할 수 없게 됐어요. AI형 챗봇은 아직 완성형 단계가 아니고, 한창 연구되고 있는 분야입니다. AI를 활용한 챗봇이 문법에 맞는 문장을 만들지 못할 여지가 많이 남아있고, 그렇다 하더라도 허점이 계속해서 발견되고 있습니다.”


언제쯤 사람들이 AI형 챗봇을 일상에서 만나볼 수 있을지 궁금해서 ‘쉽게’ 한 질문에 유 교수는 이처럼 정성스럽고 조심스러운 답변을 줬다. 규칙 기반 챗봇과 달리 AI 모델은 어디로 튄다는 보장이 없다는 게 유 교수 말의 핵심이다. 2020년 국내 한 스타트업이 공개한 AI형 챗봇 ‘이루다’도 처음엔 진짜 사람과 채팅하는 것처럼 생생하게 대답해 대중을 깜짝 놀라게 했는데, 단 며칠 만에 개인정보 유출, 소수자 차별 등 결함이 드러나 서비스를 중단했다.

말로는 쉬운 AI, 그 실체는 무엇인가
국내에선 챗봇이 난데없이 나타난 것은 아니고, 사실 챗봇의 시초인 ‘심심이’가 2002년부터 서비스되고 있었다. 자동응답형에 가까운 채팅 수준이었는데, 일부 인터넷 이용자들 사이에서만 알려진 서비스였다. 그렇게 물밑에서 서비스되던 챗봇이 2016년경 AI의 반란이 일어나면서 폭발적으로 발전하기 시작했다. 이 시기엔 구글 딥마인드가 개발한 AI 바둑 프로그램이 탑재된 ‘알파고’가 한국 프로 바둑기사 이세돌 9단을 이긴 사건이 있었다. 다양한 분야에 AI를 접목하고자 하는 시도가 이어졌고, 챗봇도 그중 하나였다.


AI는 인간의 인지·추론·판단 등의 능력을 컴퓨터로 구현하기 위한 기술 혹은 그 연구 분야 등을 총칭하는 개념적인 용어로 사용된다. 그렇다면 AI의 실체는 무엇일까. ‘AI 모델’이라 하면 좀더 감이 올 수도 있다. 유 교수는 비전공자도 알아들을 수 있도록 쉽게 AI 모델을 설명했다.


“AI 모델 중 가장 간단한 모델은 숫자 하나일 수도 있습니다. 예를 들어 수능 점수로 370점 이상이 나오면 어느 대학에 지원할 수 있고, 그 미만이면 지원하지 않겠다는 규칙을 세운다고 해봅시다. 이때 370이란 수가 행동을 결정짓는 기준, 전문용어로는 ‘파라미터(parameter)’가 됩니다. 파라미터는 매개변수라는 뜻입니다. 1차 함수 기본식인 ‘y=ax+b’에서 a, b가 매개변수입니다. 각각 기울기와 절편을 정하는 기준인 거죠. 초거대 AI는 이 파라미터가 엄청나게 많은 것입니다. AI 모델은 숫자들의 집합, 즉 행렬이고 그래프기도 한 거죠.”


AI 모델이 숫자들의 집합이자 행렬이라는 설명까지 왔다. 이토록 AI가 행렬, 그래프와 밀접한 까닭에 유 교수는 AI 전공 입학을 희망하는 문과생이라면 전공에 입문하기 전에「확률 기초」,「일반 통계」,「선형대수」세 과목을 꼭 공부할 것을 권했다.


“모델은 행렬이나 그래프로 표현하기도 하는데, 문장으로 나타낼 수 있습니다. 널리 사용될 만큼 틀이 짜인 구조는 이제 문장으로 쓰일 수도 있게 되는 거죠. 그래서 컴퓨터 프로그래밍 언어의 한 종류인 파이썬이 개발됐어요.”


파이썬은 1990년대 초반에 ‘개발자의 귀차니즘’을 최대한 덜어주는 개발방식을 가능하게 하기 위해 만들어졌다. AI의 주요 프레임워크와 라이브러리들이 파이썬 언어로 개발되면서 파이썬이 AI분야에서 더욱 각광받게 됐다. 파이썬을 통하게 되면서 상대적으로 빠르게 새로운 AI 모델을 설계하고 실험해보는 것이 가능해졌다.

초거대 AI, 세포가 모여 기관을 만든 사건
좀 쓸만하다 싶은 최신 AI들은 초거대 AI급인 경우가 많다. 초거대 AI는 파라미터 수억~수조 개로 구성됐다. 초거대 AI 경쟁이 촉발된 것은 2020년 언어 처리에 특화된 범용 AI인 ‘GPT-3’가 세상에 모습을 드러내면서부터다. 오픈 AI가 발표한 GPT-3는 1천750억 개의 파라미터로 구성됐다. 2019년 발표된 GPT-2는 15억 개 파라미터로 이뤄진 모델이었는데, GPT-3는 1년 만에 약 116배 몸집을 키웠다. 그만큼 정교해진 것이다. 지난해 1월엔 구글이 파라미터 수가 1조 6천억 개에 달하는 초거대 AI ‘스위치 트랜스포머’를 공개했고, 마이크로소프트와 엔비디아는 그해 10월 파라미터 5천300억 개 규모의 언어 모델 ‘MT-NLG’를 선보였다.


이쯤 되면 어떤 그래프든 함수로 표현할 수 있고, 그래서 시간이 좀 오래 걸릴 뿐 결국 어떠한 AI든 만들어낼 수 있는 것 아닌가 하는 궁금증이 생긴다. 그에 관한 정리도 있다.


“‘보편적 근사 정리(Universial Approximation Theorem)’란 것이 있어요. 내가 뭔가를 결정하는 모델을 만든다고 하면 그 결정의 경계선이 되는 함수를 찾아낼 수 있다는 것인데, 데이터 분야마다 다를 수는 있겠지만 학습을 통해 가능하다는 거죠. 딥러닝의 기본 구조는 단순한데 폭과 깊이를 늘리면 어떤 것도 학습할 수 있다는 정리입니다. 그런데 이 말이 맞긴 하지만, 마치 망치처럼 비효율적이거든요. 못을 조일 땐 드라이버를 쓰고 자를 땐 니퍼를 써야 하는데, 무식하게 뭐든 망치로 해결하려는 시도인 거예요. 그래서 개발자들이 더 적은 데이터를 가지고도 더 간단한 모양을 가진, 더 적은 수의 파라미터를 가진 모델을 하나씩 만들려고 합니다. 2017년엔 트랜스포머란 모델이 나왔는데 이 모델이 번역이나 자연어 처리 분야에서 너무 잘 되는 겁니다. 마치 세포 덩어리가 뭉쳐져 드디어 입과 같은 기관이 탄생한 거라 볼 수 있었죠. 전처럼 아무것도 가정하지 않은 것보다 ‘이쪽 데이터는 이런 패턴일 거야’ 하며 모델의 구조를 고도화하다 보니 AI 알고리즘의 발전이 확확 일어나는 것입니다.”

AI를 배운다는 건 목공과 비슷해
유 교수는 학생들에게도 비유를 많이 곁들여 설명하는 편이라고 한다. AI 기술들이 과거에서 현재까지 어떤 식으로 발전했는지 설명하게 되는데, 당시 개발자들이 했던 추상적인 생각들을 설명하려면 비유를 많이 할 수밖에 없다고 한다.


“AI 전공은 AI 개발자로서 필요한 지식들을 대부분 커버할 수 있게 커리큘럼이 짜여 있어서요. AI는 사실 컴퓨터과학의 많은 분야 중 하나의 분야일 뿐이기 때문에, 컴퓨터과학과에서는 AI와 관련된 내용만 다룰 수는 없는 반면에 AI 전공은 AI와 관련 있는 내용을 집중적으로 배울 수 있습니다. AI를 배우는 것은 목공을 배우는 것과 비슷합니다. 이런 상황에서는 망치를 쓰고, 또 다른 상황에서는 드릴을 쓴다는 걸 깨닫는 거죠. 그리고 고급 엔지니어가 되면 도구를 창조해내는 수준이 되는 것입니다. 이 과정을 배울 수 있는 곳이 프라임칼리지 첨단공학부의 AI 전공입니다.”

 


2좋아요 URL복사 공유
현재 댓글 0
댓글쓰기
0/300

사람과 삶

영상으로 보는 KNOU

  • banner01
  • banner01
  • banner01
  • banner01