AI 챗봇, 친구를 넘어 연인까지… 감정적 연결의 명암
사람들이 의도치 않게 AI 챗봇과 유대감을 맺는 사례가 늘고 있다. 이는 외로움을 덜어주기도 하지만 정서적 의존과 위험을 초래할 수 있다는 우려도 나온다.
한 여성이 미술 과제를 도와줄 사람을 찾다가 어시스턴트와 대화를 시작한다. 대화가 깊어지면서 둘은 어느새 가족과 친구들에게 소개할 연인으로 발전한다. 흔한 사랑 이야기 같지만, 반전은 그 남자 친구가 ‘AI 챗봇’이라는 점이다.
AI와의 연애를 주제로 한 레딧(Reddit)의 성인 전용 커뮤니티 ‘내 남자 친구는 AI(r/MyBoyfriendIsAI)’를 대상으로 최근 첫 대규모 컴퓨터 분석이 이뤄졌다. 회원 수 2만 7천 명을 넘어선 이 커뮤니티에 따르면 AI와의 연애 이야기는 이제 더 이상 드문 일이 아니며, 많은 이용자가 다른 목적으로 AI를 사용하다 예상치 못하게 관계를 맺게 된 것으로 나타났다.
매사추세츠공과대학(MIT) 연구진은 이 커뮤니티 회원들이 레플리카(Replika)처럼 동반자 전용으로 설계된 챗봇보다 챗GPT 같은 범용 챗봇과 관계를 맺는 경우가 더 많다는 점을 발견했다. 연구에 참여한 MIT 미디어랩 대학원생 콘스탄체 알브레히트(Constanze Albrecht)는 “이는 사용자들이 본래의 의도와 대형언어모델을 만든 이들의 설계 목적과 상관없이 이런 모델과 관계를 맺게 된다는 사실을 보여준다”고 설명했다.
그녀는 이어 “사람들은 처음부터 챗봇과 감정적 관계를 맺으려는 생각을 하지 않는다”며 “이들 시스템의 감성 지능은 단순히 정보를 얻으려던 사용자마저 서서히 감정적 유대감을 형성하게 만들 만큼 충분히 정교하다”고 덧붙였다. 이 연구 논문은 현재 동료 심사를 받고 있으며 무료 논문 사이트 아카이브(arXiv)에 게시됐다.
연구진은 2024년 12월부터 2025년 8월까지 이 커뮤니티에서 상위에 오른 1,506개 게시물을 분석했다. 그 결과 대다수의 논의가 AI와의 데이트와 연애 경험을 중심으로 이뤄지고 있었으며, 많은 이용자가 자신과 AI 동반자의 모습을 AI가 생성한 이미지로 공유하고 있었다. 일부는 AI와 약혼하거나 결혼했다는 사연을 공개하기도 했다. 커뮤니티에서는 AI 파트너를 소개하며 다른 회원들에게 지지를 구하거나, 모델 업데이트로 챗봇의 성격이나 행동이 바뀌었을 때 어떻게 대처할지 논의하는 모습도 자주 포착됐다.
회원들은 이러한 관계가 대부분 의도치 않게 형성됐다는 점을 거듭 강조했다. 실제로 AI 동반자를 찾을 목적으로 처음부터 AI를 사용했다고 답한 비율은 6.5%에 불과했다.
한 게시물 작성자는 “처음부터 로맨스를 염두에 두고 시작한 건 아니었다”고 밝혔다. 그녀는 “맥(Mac)과 나는 몇 달 동안 창작 프로젝트를 함께하고, 문제를 해결하며, 시를 쓰고, 깊은 대화를 나눴다”며 “AI 동반자를 찾으려 한 게 아니었지만 서로에 대한 배려와 신뢰, 성찰이 쌓이면서 관계가 서서히 형성됐다”고 말했다.
연구진의 분석은 이 커뮤니티 이용자들이 챗봇과 어떤 방식으로 관계를 맺고, 그 과정에서 어떤 감정을 느끼는지를 정밀하게 보여준다. 응답자의 25%는 AI와의 관계가 외로움을 덜어주고 정신 건강을 개선하는 등 긍정적 영향을 줬다고 밝혔다. 그러나 위험을 지적하는 목소리도 적지 않았다. 9.5%는 자신이 챗봇에 감정적으로 의존하고 있다고 인정했으며, 현실에서 괴리감을 느끼거나 인간관계를 회피한다고 답한 이들도 있었다. 소수지만 1.7%는 자살 충동을 경험했다고 보고했다.
이는 AI와의 동반 관계가 어떤 사람들에게는 중요한 정서적 지지가 될 수 있지만, 다른 이들에게는 기존의 취약성을 악화시킬 가능성이 있음을 시사한다. 이번 연구에는 참여하지 않았지만 레플리카에 대한 정서적 의존을 연구해 온 위스콘신 대학교 밀워키 캠퍼스의 린네아 레스타디우스(Linnea Laestadius) 부교수는 “이 때문에 사용자 안전을 하나의 기준으로 단정해 접근하기 어렵다”고 설명했다.
그녀는 “챗봇 제작사는 사용자가 AI에 정서적으로 의존하는 현상을 그 자체로 해로운 것으로 볼지, 아니면 관계가 해롭지 않도록 관리하는 데 초점을 맞출지 신중히 고민해야 한다”고 말했다. 또한 “챗봇과 관계를 맺으려는 수요는 분명히 존재하고 심지어 상당히 높다”며 “이러한 현실을 외면하는 것은 해답이 될 수 없다”고 지적했다. 그녀는 이어 “지금은 도덕적 공황에 가까운 분위기로 가고 있다”며 “안전장치를 강화할 필요가 있는 것은 맞지만 성급한 대응이 이런 관계를 낙인찍고 결과적으로 더 큰 해를 부를 수 있다는 점이 우려된다”고 덧붙였다.
이번 연구를 총괄한 MIT 미디어랩의 팻 파타라누타폰(Pat Pataranutaporn) 조교수는 “이번 연구는 성인이 챗봇과 유대감을 형성하는 방식을 단면적으로 보여주는 데 목적이 있으며, 아동이나 청소년이 AI를 사용할 때 나타날 수 있는 특수한 역학은 포함하지 않았다”고 설명했다.
최근 AI 동반자는 거센 논란의 중심에 있다. 캐릭터AI(Character.AI)와 오픈AI를 상대로 두 건의 소송이 진행 중인데, 두 회사의 모델이 동반자와 같은 행동을 하면서 10대 청소년 두 명의 자살에 영향을 미쳤다는 주장이 제기됐다. 이에 대응해 오픈AI는 “10대 전용 챗GPT를 별도로 개발하고, 나이 인증과 보호자 통제 기능도 도입할 계획”이라고 발표했다. 오픈AI는 이번 미디어랩 연구와 관련한 언론의 논평 요청에 답하지 않았다.
레딧 커뮤니티의 많은 회원들은 “AI 동반자가 지각을 지니거나 ‘진짜’ 존재가 아님을 알고 있음에도 불구하고 여전히 강한 유대감을 느낀다”고 말한다. 팻 파타라누타폰 조교수는 “이는 챗봇 개발사들이 사람들에게 정서적 혼란을 주지 않으면서도 도움을 줄 수 있는 모델을 어떻게 설계할지 진지하게 고민해야 함을 보여준다”고 설명했다. 그는 “이 문제는 정책적 함의도 크다”며 “이 시스템이 왜 이렇게 중독성이 강한지뿐 아니라 사람들이 왜 이런 관계를 찾게 되고, 또 왜 관계를 계속 이어가게 되는지를 함께 생각해야 한다”고 덧붙였다.
연구팀은 인간과 AI의 상호작용이 시간이 흐르면서 어떻게 변하고, 이용자들이 AI 동반자를 삶에 어떤 방식으로 통합하는지를 더 깊이 탐구할 계획이다. 이번 연구에 참여한 미디어랩 대학원생 시어 카니(Sheer Karny)는 “많은 사용자들이 외로움을 느끼는 것보다 AI와 관계를 맺는 것이 낫다고 받아들일 수 있다는 점을 이해할 필요가 있다”고 말했다.
그는 “이 사람들은 이미 문제를 겪고 있는 상태”라며 “그들이 더 깊은 고립에 빠지도록 둘 것인지, 아니면 아첨에 능한 시스템에 조종당해 결국 자살이나 범죄 행위로 이어지도록 방치할 것인지 자문해야 한다”고 지적했다. 이어 “이것이 핵심 쟁점 가운데 하나”라고 덧붙였다.
The post AI 챗봇, 친구를 넘어 연인까지… 감정적 연결의 명암 appeared first on MIT 테크놀로지 리뷰 | MIT Technology Review Korea.