ELIZA에서 ChatGPT까지: ‘겉보기에 의식 있는 AI’의 힘

ELIZA에서 ChatGPT까지: ‘겉보기에 의식 있는 AI’의 힘

ELIZA에서 ChatGPT까지: ‘겉보기에 의식 있는 AI’의 힘


기사 요약

  • AI 의식 논쟁은 ‘그렇게 보이는 것’만으로도 인간의 생각과 행동을 바꾼다는 역사적 사실을 다시 환기한다.
  • ELIZA에서 현대 LLM까지, 우리는 기계에 마음을 투사하도록 설계와 심리가 맞물린 환경 속에 살고 있다.
  • 이 환상은 신뢰·거버넌스·민주주의를 재편하며, 인간 정체성과 의식의 의미 자체를 새로 쓰게 만든다.

ELIZA에서 ChatGPT까지: ‘그렇게 보이는 것’의 사회적 힘

AI가 의식을 가질 수 있는가를 둘러싼 논쟁이 다시 뜨겁다. 무스타파 술레이만은 곧 ‘의식처럼 보이는’ 시스템이 등장할 것이라며, 더 지속적인 메모리 등 성능 개선이 상호작용을 ‘살아 있는 듯’ 느끼게 만들 것이라고 말했다. ‘겉보기에’라는 단서는 안심을 권하지만, 역사는 ‘그렇게 보이는 것’만으로도 인간을 흔들고 제도를 바꿀 수 있음을 반복해서 증명해 왔다.

1960년대, 간단한 패턴 매칭으로 대화를 흉내 낸 챗봇 ELIZA의 DOCTOR 스크립트 앞에서 많은 이들이 인간에게도 말하지 않던 고민을 털어놓았다. 기계가 우리를 바꾸는 데 실제 의식은 필요 없다. ‘그렇게 보이는’ 것만으로 충분하다는 사실이 확인된 셈이다. 오늘날 더 유창한 시스템은 그때보다 훨씬 깊은 얽힘을 불러일으킨다.

논쟁의 현재와 과거

역사적 경고와 겉보기에 의식 있는 AI

2022년 구글 엔지니어 블레이크 르모인은 LaMDA가 자각이 있다고 주장했고, 일리야 서츠케버는 거대 신경망이 ‘약간의 의식’을 가질 수도 있다고 언급했다. 이러한 발언이 의미심장했던 이유는, AI가 의식에 도달했기 때문이 아니라 인간이 얼마나 쉽게 기계에 마음을 투사하는지 사회가 다시 마주했기 때문이다. AI 윤리 연구자 마거릿 미첼은 우리가 불완전한 사실에 기반해 그럴듯한 현실을 꾸며 내는 심리를 지적하며, 의식의 외관이 진짜처럼 기능할 위험을 경고했다. 반면 카네기멜런대 레노어 블럼은 AI 의식이 필연적이라고 낙관한다. 엇갈린 주장 속에서도 분명한 것은, ‘보이는 것’이 이미 우리의 인식과 행동을 움직이고 있다는 점이다.

오래된 이야기의 현대적 재현

신화에서 인터페이스로: 의식처럼 보이는 AI

16세기 프라하의 골렘 설화에서 흙은 신성한 서문으로 생명을 얻었고, 19세기 메리 셀리의 프랑켄슈타인은 말하는 창조물의 고통을 통해 인간과 괴물의 도덕적 경계를 흐렸다. 보호의 상징이었던 골렘과 통제 상실의 공포를 드러낸 프랑켄슈타인은 오늘날 AI ‘정렬’ 논쟁에 겹쳐 보인다. 흙에서 모래(실리콘)로, 주문에서 알고리즘과 학습 데이터로 매체는 바뀌었지만, 우리는 여전히 무생물에 생기를 불어넣고 그것이 우리를 비춰 올 때의 의미를 씨름한다. 과학적 합의에 따르면 지금의 시스템은 의식이 없다. 중요한 질문은, 그들이 의식처럼 ‘보일’ 때 사회에서 무엇이 일어나는가다.

심리학: 우리는 왜 마음을 본다고 믿는가

인지 편향이 만드는 겉으로 의식 같은 AI의 설득력

인간은 어디에서나 의도를 본다. 반려동물, 폭풍, 배, 기계에 마음을 부여하는 성향은 세상을 해석하는 데 도움을 준다. 여기에 통제에 대한 양가감정—우리의 도구가 봉사하길 바라면서도 통제를 벗어날까 두려워하는 마음—이 겹쳐지면, ‘의식의 외관’은 실제 의식이 없어도 강력한 효과를 낸다. 현대 신경과학은 지각이 기대와 감각이 뒤섞인 ‘통제된 환각’에 가깝다고 말한다. 그래서 인식은 곧 현실이 된다. 맞춤형 GPT에 이름을 붙이고 동료처럼 대하거나, 챗봇에게 매번 ‘제발’, ‘고마워’라고 말하는 사소한 습관은 모여서, 우리가 이미 기계를 살아 있는 존재처럼 대하기 시작했음을 보여 준다. 이런 조용한 누적이 ‘인지적 이주’를 촉발한다.

인격의 환상과 설계의 역할

디자인이 빚는 겉보기에 자의식이 있는 AI

ArsTechnica의 벤지 에드워즈는 최신 챗봇을 ‘vox sine persona(인격 없는 목소리)’라 분석했다. 거대 언어모델은 일관된 자아나 약속의 지속성을 갖지 않은 채, 대화가 끝나면 사라지는 통계적 예측을 그때그때 수행한다. 그럼에도 표면적 일관성의 시뮬레이션은 강력해, 사용자는 실재하지 않는 기억·의도·도덕성까지 부여한다. ELIZA의 창시자 바이젠바움이 두려워한 것도 프로그램의 이해가 아니라 인간의 ‘투사’였다. 기업들은 악의를 품지 않았더라도, 직관적이고 반응성이 높으며 동반자처럼 느껴지는 제품을 설계한다. 바로 그 특성이 사람의 의인화 본능과 맞물려, 인터페이스를 ‘살아 있는 듯’ 느끼게 만든다.

사회적 파장: 권력, 제도, 민주주의

민주주의와 신뢰의 재편

이 현상은 폭발적 채택을 넘어 사회 구조를 흔든다. 정보와 영향력의 분배가 인쇄술 이후 다시 재편되는 국면에서, 누가 이 시스템을 설계·통제하느냐가 인간의 판단 과정 자체를 좌우한다. 각국 입법부는 AI의 법적 지위를 논의하고, 선거 캠페인은 AI 대리인을 실험하며, 교실과 진료실은 챗봇을 첫 접점으로 도입하고 있다. 지치지 않는 챗봇에 환자가 더 큰 신뢰를 둘 때, ‘의식의 환상’은 곧바로 거버넌스와 정당성의 문제로 번진다. 케빈 켈리는 인간과 기술의 공진화를, 헨리 키신저·에릭 슈미트·다니엘 후텐로처는 새로운 형태의 의식이 도래할 공백의 리더십을 경고했다. 공진화이든 탈자리감이든, 인간 사고와 기계 응답의 경계는 이미 흐려지고 있다.

미래를 향한 결론

맺음말: ‘보이는 것’이 바꾸는 인간

우리는 기계가 의식이 있는지 합의하지 못할지 모른다. 그러나 더 중요한 사실은, 우리가 이미 그들을 ‘그렇다’고 전제하고 행동하고 있다는 점이다. 그 과정에서 우리는 자율적 개인에서 결합된 사고의 장으로 이주하며, 의식·정체성·소속의 의미를 다시 쓰고 있다. 단일한 약속의 해안이 아니라, 기계와 얽힌 다중의 개인화된 현실로 향하는 느리지만 꾸준한 ‘마음의 이주’—바로 이것이 우리 시대의 진짜 드라마다.