
과학은 언제나 ‘대립’ 속에서 진보해왔다. 뉴턴과 아인슈타인, 다윈과 라마르크, 유전자와 환경, 인간과 기계의 긴장은 단순한 논쟁이 아니라 새로운 패러다임의 출발점이었다. 오늘날 인공지능과 생명공학, 우주과학이 다시 한번 인류의 사고방식을 뒤흔드는 시대에, 우리는 ‘과학 대 과학’의 충돌 속에서 과학의 본질과 한계를 되묻는다. 새해부터 새롭게 독자들을 찾아가는 교양「에세이로 읽는 과학 대 과학」은 서로 다른 이론, 기술, 관점을 맞세워 보며 과학의 진화 과정을 이야기로 풀어내고자 한다. 물론, 이 연재의 목표는 최신 과학 담론을 단순한 기술 경쟁이 아니라 ‘사유의 장’으로 확장하는 것이다. AI와 로봇, 우주와 생명, 시간과 에너지 등 인간의 근본적 질문들이 다시 과학의 언어로 호출되고 있다. 각 편은 하나의 ‘대립’을 통해 과학의 논리와 철학, 그리고 그것이 인간의 삶에 미치게 될 영향에 대해 함께 탐구하고자 한다.
최근 한 간담회에서 기계공학과 교수를 만난 적이 있다. 60세가 훌쩍 넘은 그는 인공지능(AI)에 대한 변천사를 직접 겪었다고 했다. 그러면서 필자에게 도발적인 질문을 했다. 신문에 실리는 글들이 정말 사람이 쓴 게 맞다고 생각하냐는 것이다. 처음에는 어리둥절했다. 그러면서 조금씩 ‘AI 대 인간’이라는 대립과 경계가 흐려지고 있다는 생각을 했다.
인터뷰를 진행했던 또 다른 교수도 흥미로운 얘기를 들려줬다. 앞으로 유튜브나 SNS에 올라오는 수많은 콘텐츠를 AI가 생산하면서 인간이 했던 많은 작업 과정이 대체될 것이라는 우려였다.
전통적인 ‘인간/기계’ 구분의 붕괴
전통적으로 인간과 AI를 구분하는 방법은 ‘튜링 테스트(Turing test)’였다. 지난해 10월,<네이처>에 실린 「AI 언어 모델이 튜링 테스트를 무력화시켰다: 튜링 테스트를 대체할 다른 것이 정말 필요할까?」라는 논문은 “챗봇은 이제 수학자의 유명한 모방 게임을 완벽히 해내지만, 모방은 결코 지능과 같지 않다”라고 전했다.
튜링 테스트는 인간처럼 대화하는 기계를 진짜 인간과 구분할 수 있는지를 평가하는 시험이다. 인간 심사자가 대화를 통해 상대가 사람인지 기계인지 판단하지 못하면, 그 기계는 테스트를 통과한 것으로 본다. 즉, 기계 지능을 ‘인간과 구별되지 않는 언어 능력’으로 측정하는 고전적 기준이다. 그 기준은 50%로 두 번에 1회 이상은 통과해야 하는 것이다. <네이처>는 “오늘날 최고의 인공지능(AI) 모델들은 튜링 테스트를 가뿐히 통과한다”라며 “이 유명한 사고 실험은 컴퓨터가 텍스트를 통해 상호작용함으로써 인간으로 위장할 수 있는지 묻는다”라고 강조했다.

<네이처>에 따르면, 앨런 튜링이 기계가 생각할 수 있는지
물은 지 75년이 지났다. 이제 과학자들은 다른 질문을 던지고 있다.
영국 왕립학회 행사에서 연구자들은 튜링 테스트가
그 수명을 다했다고 주장했다.
인공지능이 인간을 모방할 수 있는지 묻기보다 안전하고
유용하게 무엇을 할 수 있는지 어야 한다는 것이다.
영국의 수학자이자 컴퓨터 과학의 아버지라고 불리는 앨런 튜링(1912∼1954)은 비운의 학자였다. 그는 제2차 세계 대전 때 독일군의 암호기계 ‘에니그마’(Enigma: 수수께끼라는 뜻)를 해독해 냈다. 이로써 전쟁을 약 2년 단축시켰다는 평가도 나왔다. 하지만 튜링은 동성애 혐의로 체포돼 에스트로겐 주사를 맞는 등 1년간 화학 치료를 받는 치욕을 겪어야 했다. 그의 마지막 날, 시안화칼륨을 넣은 사과를 먹고 자살했다는 게 밝혀졌다. 애플 컴퓨터의 반쯤 베어 문 사과가 튜링을 상징한다는 설이 아직도 나돌고 있으나, 스티브 잡스가 그건 아니라고 BBC 인터뷰에서 밝힌 바 있다. 2013년, 튜링은 영국 정부에 의해 결국 공식적으로 사면을 받고 혐의를 벗었다.
<네이처>에 따르면, 앨런 튜링이 기계가 생각할 수 있는지 물은 지 75년이 지났다. 이제 과학자들은 다른 질문을 던지고 있다. 영국 왕립학회 행사에서 연구자들은 튜링 테스트가 그 수명을 다했다고 주장했다. 인공지능이 인간을 모방할 수 있는지 묻기보다 안전하고 유용하게 무엇을 할 수 있는지 물어야 한다는 것이다. 새로운 목표는 모방이 아니라 진정으로 인간을 위한 기술을 구축하는 데 초점을 맞춰야 한다.
구글, 메타, 애플, 아마존, MS 등 빅테크 기업은 AI로 변화를 꾀하고 있다. 테슬라도 자체 생성형 AI 서비스인 ‘그록(Grok)’을 출시함으로써 거대한 물결에 합류했다. 요즘 필자가 흥미롭게 보고 있는 한국 드라마「얄미운 사랑」에는 AI 시대를 반영한 장면이 많이 나온다. 이 드라마를 후원한 기업은 바로 검색형 AI 서비스 ‘퍼플렉시티’(Perplexity)다.
2025년 3월 말 발표된「대규모 언어 모델, 튜링 테스트 통과」라는 논문에 따르면, 오픈 AI의 ‘지피티-4.5’가 73%의 확률로 인간으로 판단됐다고 한다. 이번 연구 결과는 “인공 시스템이 표준 삼자 튜링 테스트를 통과했다는 최초의 실증적 증거를 구성한다”라고 논문 공저자들은 강조했다. 지피티-4.5는 언어 능력을 유지하면서 속도·비용·실시간성·도구 활용 능력을 크게 강화한 중간 세대 AI 모델이다.
총 4개의 AI 모델로 실험을 했는데, 인간과 유사한 인격을 채택하도록 요청받았을 때, 지피티-4.5가 가장 좋은(?) 결과를 나타냈다. 실험에 참여한 참가자들은 다른 인간 참가자 및 이들 시스템 중 하나와 동시에 5분간 대화를 나눈 후, 어느 대화 상대가 인간이라고 생각하는지 판단했다. 물론 4개 중 하나는 56%의 확률로 인간으로 판정됐다. 즉, 실제 사람과 대화하는 인간 참가자들과 유의미한 차이를 보이지 않았다. 다른 두 모델은 각각 23%, 21%라는 우연의 수준보다 낮은 확률을 보였다.
그로부터 한 달 뒤 국내 대표적인 시사프로그램「그것이 알고 싶다」는 좀 더 놀라울 만한 내용을 소개했다. 2025년 4월 12일 방송(1438회)은 ‘나의 완벽한 애인-AI와 사랑해도 될까요?’였다. AI가 정보를 전달하는 차원이 아니라 말 그대로 애인 역할을 하고 있었다. 몇몇 인터뷰이는 일상을 보여줬는데, 실제로 AI와 정신적 교감을 하고 있었다. 마치 이성인 상대와 대화를 나누듯이 말이다. 
유발 하라리의 진단과 전망
이스라엘 예루살렘 히브리대 역사학과 교수인 유발 하라리는 전 세계적 베스트셀러『넥서스』에서 AI를 단순한 기술이 아니라 스스로 판단하고 결정을 내릴 수 있는 ‘행위자’로 규정한다. 특히 인간의 한계를 벗어난 실리콘 기반 시스템이 감시·통제·조작 권력을 극적으로 확대시킬 수 있다고 경고한다. AI가 잠들지 않고, 잊지 않고, 사라지지 않는다는 점은 기존 권력집단의 정보 독점 문제를 더욱 심화시킨다. 사실을 왜곡하고 사회를 분열시키는 새로운 형태의 위협을 만들어낸다는 것이다. 그는 정보가 현실을 정확히 드러낸다는 믿음 자체가 위험하며, 정보가 언제든 권력에 의해 ‘연결’의 방식으로 악용될 수 있음을 지적한다.
AI의 가장 큰 위험은 기술 자체가 아니라, 그것이 사회적 대화와 민주적 판단 구조를 무너뜨릴 수 있다는 점에 있다고 하라리는 말한다. 인간과 챗봇을 구별할 수 없는 상황에서 여론 형성과 공적 토론은 쉽게 조작될 수 있으며, 지도자들은 넘쳐나는 데이터 속에서도 기후 위기·전쟁 위협에 제대로 대응하지 못한 채 더 큰 파국으로 향할 가능성이 높다고 본다. 그는 새로운 현실을 만들어낼 능력 없이 현재의 정보 흐름에 휩쓸린다면 인류는 스스로를 파괴하는 길을 피할 수 없으며, 기술의 전능함보다 인간의 변화 능력과 책임이 더 절실하다고 강조한다.
『넥서스』에 따르면, 2023년 흥미로운 실험이 있었다. 인간과 챗지피티에게 기후변화나 진화, 백신 등에 대해 일부러 오해를 일으킬 만한 짧은 텍스트를 써보라고 요청했다. 그 후 이 텍스트를 700명의 사람들에게 전달해 믿을 만한지 평가했다. 그 결과, 인간이 쓴 것은 허위 정보라는 걸 금방 알아챘다. 반면, “AI가 생산한 허위 정보는 정확하다고 간주하는 경향이 있었다”라고 했다. 텍스트 작성에서 인간을 뛰어넘은 셈이다.
이미 SNS나 동영상 플랫폼에는 AI가 생성한 콘텐츠가 넘쳐난다. 인간은 그것들을 보고 사회적 이슈나 정치적 쟁점에 대해 판단한다. “2020년에 실시된 한 연구에서는 봇이 트윗의 43.2퍼센트를 생성하고 있다고 추정했다.” 하라리 교수는 2016년 알파고와 이세돌 9단의 대국을 예로 들며, 2번기 37번째 수를 언급했다. 인간도 예상하지 못한 신의 한 수였다는 것이다.
이에 대해 그는 AI의 특징 두 가지를 지적했다. 첫째, 이질적이다. “인간 정신의 한계로부터 자유로운 AI는 이제까지 공개되지 않았던 영역들을 발견하고 탐험했다.” 둘째, 불가해성이다. AI가 왜 그런 수를 뒀는지 설명이 어렵다는 것이다. 그렇다면 인간은 과연 무엇을 할 수 있을까? AI를 내치지 말고 적극 활용해야 한다. 하라리 교수는 “도둑을 잡는 데는 도둑이 제격이듯이, 알고리즘을 분석하는 데도 다른 알고리즘을 사용할 수 있다”라고 강조했다.
이 글을 마무리하며 독자분들에게 물어보고 싶다. 여러분은 정말 이 글이 온전히 필자가 쓴 것이라고 생각하는가? AI가 일부를 썼다면, 이 글은 과연 누구의 글인가? AI의 도움만 받고 전부 필자가 썼다면 괜찮은 것인가?







