비밀리에 챗GPT 사용하는 심리상담사들…환자들은 혼란과 배신감

일부 심리상담사들이 AI를 활용해 상담을 진행하는 것으로 드러나면서, 환자 신뢰와 개인정보 보호 문제에 대한 우려가 커지고 있다.

로스앤젤레스에 거주하는 데클런(31세)은 우연한 계기로 자신의 심리상담사(therapist)가 챗GPT를 사용하고 있다는 사실을 알게 되었다. 어느 날 온라인 상담 도중 연결 상태가 불안정해지자 상담사는 서로 영상을 끄자고 제안했지만, 실수로 자신의 화면을 공유하고 말았다.

데클런은 “나는 갑자기 심리상담사가 챗GPT를 쓰는 장면을 보게 됐다”며 “그는 내가 한 말을 챗GPT에 입력한 뒤 거기서 나온 답변을 요약하거나 일부만 골라내고 있었다”고 말했다.

충격을 받은 데클런은 아무 말도 하지 못했다. 그는 남은 상담 시간 내내 상담사의 화면에 실시간으로 표시되는 챗GPT 분석 결과를 지켜보았다. 상담은 점점 더 기묘해졌다. 데클런이 챗GPT의 응답에 따라 모범 답변을 내놓으며 상담사가 할 말을 미리 가로채 버렸기 때문이다. 

그는 “나는 순식간에 최고의 환자가 됐다”고 회고하며 “챗GPT가 ‘당신의 사고방식이 약간 이분법에 치우친 건 아닐까요?’라고 하면 나는 바로 상담사에게 ‘제가 좀 이분법적으로 생각하는 것 같아요’라고 대답했다. 그러면 [심리상담사는] ‘바로 그거예요’라고 맞장구치곤 했다. 아마 그에게는 꿈 같은 상담 시간이었을 것이다”라고 설명했다.

데클런의 머릿속에는 수많은 생각이 스쳐 지나갔다. 그중 하나는 “이게 합법적인가?”라는 의문이었다. 그는 다음 상담에서 이 일을 언급했지만 “마치 이별이라도 하는 것 같은 이상한 상황”이 벌어졌다고 말했다. 상담사는 울음을 터뜨리며 상담에 더 이상 진전이 없다고 느껴 다른 대안을 찾기 시작했다고 해명했다. 데클런은 “그래도 상담 비용은 청구됐다”고 말하며 웃었다.

최근 몇 년간 급격히 확산된 대형언어모델(LLM)은 심리치료 분야에 예상치 못한 파급 효과를 가져왔다. 주된 이유는 인간 심리상담사 대신 챗GPT와 같은 AI를 활용하는 사람들이 늘었기 때문이다. 하지만 심리상담사 또한 상담 과정에 AI를 활용하고 있다는 사실은 상대적으로 잘 알려져 있지 않다. 다른 전문 직종과 마찬가지로 생성형 AI는 매력적인 효율성 향상을 약속하지만 그 사용은 민감한 환자 데이터를 위험에 노출시키고 가장 중요한 환자와 심리상담사 간의 신뢰를 훼손할 수 있다.

흔들린 신뢰

데클런만 이런 경험을 한 것은 아니다. 필자도 직접 이러한 상황을 겪었다. 최근 심리상담사에게서 평소보다 길고 정성스럽게 작성된 이메일을 받고 처음에는 큰 위안을 얻었다. 이메일은 따뜻하고 공감 어린 메시지를 담고 있었고, 긴 분량은 상담사가 필자의 (다소) 민감한 메일 내용을 꼼꼼히 살펴보고 충분히 고민했다는 믿음을 주었다.

하지만 곰곰이 들여다보니 이메일은 어딘가 부자연스러웠다. 사용된 글꼴이 평소와 달랐고, (필자와 상담사 모두 영국 출신임에도) 미국식 긴 대시(—)의 과도한 사용, 인간적인 온기를 느끼기 힘든 건조한 문체, 원래 메일의 내용을 하나하나 짚어가는 방식 등 AI 특유의 흔적이 보였다.

이내 기분 좋은 감정은 사라지고 실망과 불신이 밀려왔다. 챗GPT를 사용해 이메일을 작성했을 가능성이 크다는 사실을 깨달았기 때문이다. 실제로 확인해 보니 상담사는 이를 인정했다.

상담사는 AI를 이용해 이메일을 길게 작성했을 뿐이라고 설명했지만 필자는 그 안에 담긴 감정이 심리상담사 자신의 것인지, 아니면 AI가 만들어낸 것인지 그 경계를 확신할 수 없었다. 또한 필자가 보낸 사적인 이메일이 통째로 챗GPT에 입력되었을지도 모른다는 의구심도 완전히 떨칠 수 없었다.

인터넷에서 비슷한 경험담을 찾아보니 심리상담사에게서 AI로 작성된 것 같은 메시지를 받았다고 말하는 사람들이 적지 않았다. 데클런을 포함한 많은 이들이 온라인 커뮤니티 레딧(Reddit)에 글을 올려 정서적 지지와 조언을 구하고 있었다.

미국 동부에 사는 25세 여성 호프도 그중 한 명이었다. 그녀는 심리상담사에게 반려견의 죽음에 대한 직접 메시지(DM)를 보냈고, 곧 답장을 받았다. 그 안에는 지금 강아지가 곁에 없는 게 얼마나 힘들지 공감하는 위로와 격려가 담겨 있었다. 하지만 메시지 맨 위에 실수로 남겨진 “부드러운 대화체 어조로 좀 더 인간적이고 진심 어린 내용을 담아 작성한 버전입니다(Here’s a more human, heartfelt version with a gentle, conversational tone)”라는 AI 프롬프트 문구는 그 진정성을 완전히 산산조각냈다.

호프는 “솔직히 정말 놀랐고 혼란스러웠다. 굉장히 이상한 기분이 들었다. 하지만 곧 배신감을 느끼기 시작했다… 이 경험은 상담사에 대한 신뢰에도 분명 영향을 미쳤다”고 말했다. 그녀는 이어 “애초에 내가 치료를 받았던 이유 중 하나가 바로 신뢰 문제였기 때문에 배신감이 훨씬 더 크게 느껴졌다”고 덧붙였다.

호프는 자신의 심리상담사가 유능하고 공감 능력이 뛰어나다고 믿었기에 “AI를 쓸 필요성을 느낄 거라고는 전혀 의심하지 않았다”고 밝혔다. 이 문제를 지적하자 상담사는 사과하며 자신은 반려동물을 키워본 경험이 없어 적절한 감정을 표현하기 위해 AI의 도움을 빌렸다고 설명했다.

정보 공개의 딜레마

환자가 느끼는 배신감과 별개로, AI가 심리상담사가 환자와 더 잘 소통하도록 돕는다는 주장에는 몇 가지 근거가 있다. 2025년 <PLOS 정신 건강(PLOS Mental Health)>에 발표된 연구에서는 심리상담사들에게 챗GPT를 이용해 환자가 상담에서 제시할 수 있는 문제 상황을 묘사한 사례들을 다루도록 했다. 830명의 참여자로 구성된 패널은 인간과 AI의 답변을 구분하지 못했을 뿐 아니라 AI의 답변이 치료 모범 사례에 더 부합한다고 평가했다.

그러나 참여자들이 해당 답변이 챗GPT에 의해 작성되었다고 의심할 경우에는 평가 점수가 낮아졌다(한편 챗GPT가 작성했지만 심리상담사가 작성한 것으로 오인된 답변은 전체 평가에서 가장 높은 점수를 받았다).

마찬가지로 2023년 코넬 대학교 연구에서는 AI가 생성한 메시지가 대화자 사이의 친밀감과 협력감을 높일 수 있지만 이는 대화 상대가 AI의 사용 여부를 알지 못할 때만 효과가 있다는 사실을 확인했다. 상대방에 대한 호감은 AI 사용을 의심하는 것만으로도 급격히 줄어드는 것으로 나타났다.

에이드리언 아길레라(Adrian Aguilera) 캘리포니아 대학교 버클리 캠퍼스 임상심리학 교수는 “사람들은 특히 심리치료에서 진정성을 중요하게 여긴다”며 “[AI를 사용하는 것은] 상대에게 ‘당신과의 관계를 진지하게 생각하지 않는다’는 신호로 느껴질 수 있다. 아내나 자녀에게 AI로 답장한다고 상상해 보라. 진정성이 느껴지지 않을 것”이라고 설명했다.

2023년 생성형 AI가 막 사용되기 시작했을 무렵, 온라인 치료 서비스 코코(Koko)는 사용자 몰래 GPT-3로 생성한 답변과 인간이 작성한 답변을 섞어 실험을 진행했다. 그 결과, 사용자들은 전반적으로 AI가 작성한 답변을 더 긍정적으로 평가했다. 그러나 이후 자신도 모르게 실험 대상이 되었다는 사실이 알려지자 사용자들은 크게 분노했다.

온라인 치료 서비스 업체 베터헬프(BetterHelp)도 몇몇 심리상담사가 AI를 활용해 답변을 작성했다는 의심을 샀다. 사진작가 브렌던 킨(Brendan Keen)은 온라인 출판 플랫폼 미디엄(Medium)에 자신의 심리상담사가 AI를 사용해 답변을 작성했음을 인정했다는 내용의 글을 올렸다. 그는 “엄청난 배신감을 느꼈고 데이터 프라이버시가 침해되었을지도 모른다는 걱정이 계속됐다”고 털어놓았다. 이후 그는 결국 치료를 중단했다.

베터헬프 측 대변인은 MIT 테크놀로지에 “심리상담사가 회원의 개인정보나 건강 정보를 외부 AI에 제공하거나, 개인을 직간접적으로 식별할 수 있는 메시지를 작성하는 데 AI를 사용하는 행위는 금지되어 있다”고 밝혔다.

지금까지 언급된 사례들은 모두 AI 사용 사실을 공개하지 않은 경우다. 아길레라는 바쁜 심리상담사들이 LLM을 활용할 수는 있지만, 반드시 투명성을 지켜야 한다고 강조했다. 그는 “심리상담사는 ‘AI를 어떤 용도로 사용할 것인지’ 미리 구체적으로 알리고 그 이유를 설명해야 한다. 그러면 환자는 AI가 작성한 메시지를 그러한 맥락 속에서 이해할 수 있으며, 심리상담사가 ‘무언가를 숨기고 있다’는 오해를 피할 수 있다”고 말했다.

미국심리학회(APA)가 2023년 수행한 연구에 따르면 심리학자들은 종종 자신의 역량 한계까지 업무를 수행하며, 직업과 관련된 번아웃 수준도 높다. 이러한 상황에서 AI 기반 도구는 분명 유용한 보조 수단이 될 수 있다.

그러나 AI 사용 사실을 공개하지 않으면 환자의 신뢰를 영원히 잃게 될 위험이 있다. 호프는 이후에도 치료를 계속 받았지만, 얼마 지나지 않아 다른 이유로 상담을 중단했다. 그녀는 “심리상담사를 만날 때마다 항상 AI 사건이 떠올랐다”고 말했다.

환자 프라이버시 침해 우려

마거릿 모리스(Margaret Morris) 임상심리학자 겸 워싱턴 대학교 겸임 교원은 투명성 문제를 차치하더라도 많은 심리상담사가 LLM 사용 자체를 꺼린다고 말했다.

그녀는 “이 도구들은 학습 목적으로 매우 유용할 수 있다”며 심리상담사들은 경력을 쌓는 동안 계속 전문성을 개발해야 한다고 강조했다. 동시에 그녀는 “환자 데이터를 다루는 과정에서는 각별히 신중해야 한다”고 말하며, 데클런의 사례를 “충격적”이라고 평가했다.

건강 분야에서 LLM의 개인정보 보호 및 보안 문제를 연구해 온 파르디스 에마미-나에이니(Pardis Emami-Naeini) 듀크 대학교 컴퓨터과학 조교수는 “챗GPT와 같은 범용 AI 챗봇은 미국 식품의약국(FDA)의 승인을 받지 않았으며, HIPAA 규정을 준수하지 않는다”고 지적했다. HIPAA는 환자의 민감한 건강 정보를 보호하는 미국 연방 규정이다.

그녀는 “환자 정보가 공개되거나 AI가 이를 추론할 수 있는 경우 환자 프라이버시 보호에 심각한 위험이 발생한다”고 설명했다.

에마미-나에이니는 최근 논문에서 사용자들이 챗GPT가 HIPAA 규정을 준수하는 것으로 착각하는 경우가 많아 AI에 대해 검증되지 않은 신뢰가 형성되고 있다고 지적했다. 그녀는 “일부 심리상담사도 이러한 오해를 할 수 있다”고 덧붙였다.

비교적 개방적인 데클런은 심리상담사가 챗GPT를 사용하는 사실을 알게 되었을 때 큰 충격을 받지는 않았다고 말했다. 그는 “개인적으로 ‘이런, 나만의 내밀하고 어두운 비밀이 드러나다니…’라고 생각하지는 않았다”고 말했다. 하지만 그도 여전히 부당함을 느낀다. 그는 “만약 내가 자살을 생각하고 있거나, 약물을 복용하고 있거나, 여자 친구 몰래 바람을 피우고 있었다면 … 그런 내용을 챗GPT에 입력하는 것은 원하지 않았을 것”이라고 덧붙였다.

에마미-나에이니는 AI를 활용해 이메일을 작성할 때 “이름이나 주소 같은 명백한 식별 정보를 제거하는 것만으로는 충분하지 않다. 겉보기에 민감하지 않은 정보에서도 민감한 내용이 추론될 수 있는 경우가 많기 때문”이라고 지적했다.

이어 그녀는 “잠재적으로 민감한 모든 데이터를 식별하고 재작성하려면 시간과 전문성이 필요하며, 이는 AI 도구의 편리성과 상충할 수 있다. 심리상담사는 모든 경우에 환자에게 AI 사용 사실을 공개하고 동의를 받아야 한다”고 강조했다.

한편 하이디 헬스(Heidi Health), 업힐(Upheal), 리슨(Lyssn), 블루프린트(Blueprint) 등 심리상담사를 위한 전문 도구를 제공하는 기업들은 점점 늘고 있다. 이들은 AI 기반 기록 작성, 교육, 전사(transcription) 서비스 등을 제공하며, 스스로 HIPAA 규정을 준수하고 필요시 암호화와 가명 처리를 통해 데이터를 안전하게 저장한다고 밝힌다. 그러나 대다수의 심리상담사는 여전히 개인정보 문제를 우려하며, 특히 상담 과정 전체를 기록해야 하는 서비스에 대해서는 매우 신중한 입장을 보인다.

에마미-나에이니는 “개인정보 보호가 강화되더라도, 정보 유출이나 데이터 2차 활용의 위험은 항상 존재한다”고 말했다.

실제로 2020년 핀란드에서는 한 정신건강 기업이 해킹을 당해 수만 명의 치료 기록이 유출된 사건이 발생했다. 명단에 포함된 사람들은 협박을 당했으며, 이후 기록 전체가 공개되면서 아동 학대 경험, 중독 문제 등 환자들의 극히 민감한 정보가 노출되었다.

심리상담사가 감수해야 할 위험

심리상담사가 환자를 대신해 LLM에 상담을 의뢰하는 경우 데이터 프라이버시 침해 외에도 여러 위험이 뒤따른다. 연구에 따르면 일부 전문 치료용 챗봇은 인간 심리상담사의 상담에 견줄 만한 도움을 제공하지만, 챗GPT와 같은 범용 AI에서 제공되는 조언은 오히려 피해를 야기할 수 있다.

예를 들어 스탠퍼드 대학교의 최근 연구에 따르면 챗봇이 사용자가 제공한 정보를 무비판적으로 수용할 경우 망상이나 반사회적 성향이 강화되며, 편향적이거나 아첨하는 경향도 나타날 수 있다. 이러한 한계는 심리상담사가 환자를 위해 챗봇을 상담 도구로 활용할 경우 문제가 될 수 있다. 심리상담사의 근거 없는 직감을 뒷받침하는 데 사용되거나 상담을 잘못된 방향으로 이끌 가능성이 있기 때문이다.

아길레라는 정신건강 실습 교육 과정에서 챗GPT와 같은 도구를 활용해 가상의 증상을 입력하고 AI에게 진단을 요청해 본 경험이 있다고 말했다. 그는 AI가 다양한 가능성을 제시하긴 했지만 분석 수준이 깊지 않았다고 지적했다. 미국 상담협회(ACA)는 현재 AI를 정신건강 진단에 사용하는 것을 권장하지 않는다.

2024년 발표된 챗GPT 초기 버전에 대한 연구에서도 AI는 진단이나 치료 계획 수립에 실제로 도움이 될 만큼 구체적이지 않고 다른 적절한 치료법 대신 인지행동치료(CBT)를 과도하게 권장하는 경향이 강한 것으로 밝혀졌다.

다니엘 키멀(Daniel Kimmel) 컬럼비아 대학교 정신과 의사 겸 신경과학자는 관계에 관한 고민이 있는 환자로 가장해 챗GPT를 실험했다. 그는 챗봇이 정상화(normalizing), 공감, 추가 정보 요청, 특정 인지적·정서적 연관성 강조와 같은 ‘기본적인’ 치료 반응은 제법 잘 모방한다고 평가했다.

그러나 그는 “깊이 있는 고민은 거의 이루어지지 않았다”며 “챗GPT는 겉보기에 관련 없어 보이는 정보들을 연결해 이야기나 아이디어, 이론을 만들어내려는 시도를 하지 않았다”고 덧붙였다.

그는 “사고 과정 자체를 AI에 맡기는 것에는 회의적”이라며 “사고는 심리상담사의 역할”이라고 강조했다.

모리스는 AI 기술이 심리상담사의 시간을 절약하는 데 도움을 줄 수는 있지만, 이러한 이점이 환자에게 피해를 줄 수 있다고 말한다. 그는 “몇 분 아끼는 대가로 내주고 있는 것이 무엇인지 반드시 따져봐야 한다”고 경고했다.

The post 비밀리에 챗GPT 사용하는 심리상담사들…환자들은 혼란과 배신감 appeared first on MIT 테크놀로지 리뷰 | MIT Technology Review Korea.


발행일: 2025년 09월 08일 21:00
원본 URL: https://www.technologyreview.kr/%eb%b9%84%eb%b0%80%eb%a6%ac%ec%97%90-%ec%b1%97gpt-%ec%82%ac%ec%9a%a9%ed%95%98%eb%8a%94-%ec%8b%ac%eb%a6%ac%ec%83%81%eb%8b%b4%eb%93%a4%ed%99%98%ec%9e%90%eb%93%a4%ec%9d%80-%ed%98%bc%eb%9e%80/
수집일: 2025년 09월 08일 21:01
출처: https://www.technologyreview.kr/feed/