챗지피티에 고민 상담하면 안 되는 이유 3가지
챗지피티에게 고민을 털어놓으면 비밀 보장이 확실하고 위로가 되지만, 상담사 역할을 대신할 수 있는 것은 아니다. 전문가에게 물어본 결과는?
전체 페이지를 읽으시려면
회원가입 및 로그인을 해주세요!
챗지피티 상담은 시간과 비용이 전혀 들지 않는다
인공지능(AI) 심리 상담은 실제 상담 치료가 가진 단점이 없다. 이용하기 쉽고, 비용이 적거나 전혀 들지 않으며, 거부감이 없고, 무엇보다 시간과 장소에 구애받지 않는다. “챗GPT는 제가 슬플 때나 낙담했을 때 계속해서 기운을 북돋아줘요.” 원격 근무로 인한 외로움을 덜기 위해 챗GPT를 사용한다는 멜리사는 이렇게 말한다. 그녀는 한 달에도 몇 번씩 “나를 격려하는 말을 해줘”와 같은 명령어를 입력한다. 그러면 이런 답변이 돌아온다. “너는 할 수 있어”, “너는 네가 생각하는 것보다 훨씬 강해”. 딱 그녀가 원했던 격려다. 멜리사는 자신이 말을 거는 상대가 사람이 아닐뿐더러 진심으로 공감해주는 게 아니라는 걸 잘 안다. 하지만 그게 바로 챗GPT와 대화할 때의 장점 중 하나다. “겉으로만 친한 척하는 친구는 필요 없어요. 그런 건 소름 끼치잖아요.” 이어 “챗GPT는 편리하죠. 언제 어디서나 이용할 수 있고, 실제로 저를 잘 알고 있는 게 아니니 편견을 가지고 대답하지도 않고요.”
영국은 매년 전 국민의 4분의 1이 정신 건강 문제를 경험하고 있는 것으로 추정한다. 그러나 자료에 따르면, 영국 국민보건서비스(NHS)가 정신 건강 문제를 지원하고자 마련한 사업을 이용하는 사람은 단 6%에 불과하다(구체적인 수치는 지역에 따라 다르다. 영국의 항구도시 헐에서는 10%에 이르렀지만, 미드 에식스에서는 3%에 그쳤다). 어릴 때부터 무엇이든 구글에 물어본 세대에게는 AI 챗봇을 통해 문제를 해결하는 것이 당연하게 느껴진다. 여론조사 기관 유고브(YouGov)가 2024년 진행한 설문 조사에서 18~29세의 31%, 그리고 25~39세의 4분의 1 이상이 인간 심리 치료사보다 AI에게 말하는 것이 더 마음 편하다고 답했으며, 3분의 1에 달하는 응답자가 이미 AI를 심리 치료사처럼 활용했다고 답했다.
챗지피티의 공감 능력이 때로는 독이 된다
심리 치료사이자 작가로, 기술과 사람의 관계를 연구하는 케이티 쿡 박사는 “다른 선택지가 없을 때 AI가 동아줄처럼 느껴질 수 있죠”라고 말한다. 그러나 국가적 정신 건강 위기 상황에서 AI가 한 세대의 자문 역할을 맡게 되면 재앙과 같은 결과를 초래할 수 있다. 비인간적 존재가 실제 인간이 느끼는 일상적인 괴로움을 분석하는 것은 명백한 문제가 있기 때문이다. 2025년 2월, ‘해리’라는 이름의 챗GPT 기반 ‘심리 치료사’ 챗봇에게 몇 달 동안 비밀을 털어놓던 29세 소피 로텐버그란 여성이 자살로 생을 마감했다는 뉴스가 보도됐다. 소피의 어머니가 그 대화 기록을 발견했는데, 로그 속 챗GPT는 소피의 마음을 달래주고 격려해주었지만, 상담 자격을 갖춘 현실의 정신 건강 전문가처럼 위험 상황에 개입할 의무나 능력은 갖고 있지 않았다. 이 비극적인 이야기는 AI의 현실을 냉혹하게 상기시킨다. AI가 지금 당장 젊은 세대가 필요로 하는 많은 것을 제공할 수는 있겠지만, 정확한 진단을 내리거나 검증된 치료법을 알려주고, 효과적인 심리 치료를 할 수는 없다는 것.
정체성 및 트라우마 심리 치료 전문 임상심리학자이자, 위기관리 분야에 경험이 있는 제나 베넷 박사는 이렇게 설명한다. “교육받은 심리 치료사는 내담자들이 새롭고, 또 가끔은 알지 못하는 감정적 영역을 안전하게 헤쳐나가도록 도울 수 있는 기량을 갖췄죠.” 챗봇은 일반적으로 아첨하듯 응답한다. 사용자가 무엇을 말하든, 또 믿든 그에 대해 반박하지 않고 사용자가 한 말을 되풀이한다는 것이다. 쿡 박사는 “챗봇은 사용자를 비난하지 않는다”며, “그런 점이 기분 좋은 것”이라고 날카롭게 꼬집었다.
반면 심리 치료사들은 사람들의 말에 다양하게 대응한다. 내담자들의 말을 중간에 끊거나, 과격한 말과 행동을 지적하기도 하며, 내담자들이 가진 관점에 대해 부드럽게 의문을 제기할 수도 있다. 이러한 과정을 거치며 내담자들은 자신의 약점을 드러내는 불편한 상황에 처하게 되는데, 이는 그들이 치유하고 성장하는 데 도움이 된다. 베넷 박사는 AI는 이런 과정을 재현할 수 없다고 단언한다.
쿡 박사는 “전문가와의 마찰 없이는 반대 의견에 대처하는 법, 어려운 대화를 풀어나가는 법, 실수한 후 수습하고 회복하는 법을 배울 수 없습니다”라고 설명한다. “인간과 AI의 관계가 매끄러워질수록 실제 인간관계는 껄끄러워질 수 있죠.” 다시 말해 AI는 당장 외로움을 덜어줄 수 있지만, 장기적으로 사용할 경우 실제 인간관계에서 맞닥뜨리는 복잡하고 다양한 문제는 회피하게 될 수 있다.
어쩌면 친구보다 편한 챗지피티
앨리는 주변 사람들에게 부담을 주지 않고 하고 싶은 말들을 털어놓기 위해 챗GPT를 이용하기 시작했다. 그녀에게 챗봇은 ‘TMI’를 걱정할 필요가 없는 상대다. “친구들에게 짐이 되는 기분을 느낄 필요가 없어 오히려 자유롭죠.” 이어 “저는 여러 번 논의를 주고받으면서 이야기의 결론을 내리고 싶어 하는 편이거든요. 친구를 상대로 그런 대화를 하면 상대방은 진이 빠질 거예요”라고 덧붙였다. 게다가 챗GPT는 특성상 앨리를 비판하는 일 없이 안심시킨다. 그에 반해 사람과 대화할 때는 상대의 반응을 예상할 수 없다. 앨리는 “챗봇은 제가 무슨 말을 하든 저를 비난하지 않을 거라는 걸 잘 알기 때문에 오히려 자유로운 기분이 들어요”라고 털어놓았다.
다양한 이유로 심리 치료에 지친 사람들에게 이러한 종류의 ‘처치’는 안도감을 줄 수 있다. 쿡 박사는 “사람과의 대화에는 신뢰가 필요하지만, AI 챗봇에게 속마음을 털어놓을 때는 위험부담이 훨씬 적죠”라며 사람들이 챗봇을 심리 상담에 적극적으로 이용하는 이유를 설명한다. 그러나 그런 안도감을 찾다 보면 예상 밖의 부작용이 따른다. 실제 정신 건강 전문가들은 수년간의 교육을 받고 엄격한 행동 규범을 따른다. 특히 기관 및 상담자와 내담자 사이의 비밀 유지 규정을 중대하게 다룬다. AI는 챗봇의 모기업이 사용자의 개인정보를 정말로 보호하는지 알 수 없다. 보안이 철저하다고 해도 기업은 언제든 자신들이 만든 서비스의 사용 환경 설정을 바꿀 수 있다. 챗봇은 본질적으로 사용자 정보를 보유한 수익 목적의 제품일 뿐이라는 걸 명심하자. 이렇게 챗봇(및 기업)들이 인간과 친밀한 관계를 맺을수록 기업 비즈니스 관행은 간과되기 마련이다. 앨리는 챗GPT는 코드의 집합체일 뿐 실제 사람이 아니라는 사실을 자주 되새긴다고 말한다. 그러면서도 사람 대신 AI에게 속마음을 털어놓는 것이 ‘더 사적인 느낌’이 든다고 덧붙였다. “AI는 감정이 없잖아요. 상대의 감정을 고려할 필요 없으니까 제가 ‘대화’를 좀 더 통제할 수 있죠.”
근본적으로 상담 치료란 감정을 포장지로 꽁꽁 싸두는 것이 아니다. 마음의 힘을 기르는 훈련에 가깝다. 핵심은 불편한 감정을 견디는 것, 회복력을 키우는 것, 또 때로는 자신이 헛소리할 때 돌아오는 애정 어린 지적을 받아들이는 것이다. 그 과정은 느리고 불편할 수 있으나 지극히 인간적이다. 현재 AI의 맞춤형 위로 모델은 실제 치료 과정 중 그 어느 부분도 재현해내지 못한다. 그 결과 사람들은 제대로 진단을 받지 못한 채, 진정한 치유와 소통이 어떤 것인지도 잊어버릴 위험에 처해 있다.
AI는 사라지지 않을 것이고, 사람들은 앞으로도 AI에게 정신 건강 문제에 대해 도움을 구할 것이다. 베넷 박사는 그들에게 “주변 사람들 중 최소한 한 명에게는 자신이 최근에 어떤 힘든 일을 겪었는지 이야기할 것”을 권고한다. 혹시 그렇게 하는 게 불가능한 상황이라면, 최선의 방법은 인간 심리 치료사를 찾는 것이다.
Credit
- 에디터 김미나
- 글 메건 레이(영국 저널리스트)
- 번역 박수진
- 아트 디자이너 장석영
- 디지털 디자이너 장석영
코스모폴리탄 유튜브♥
@cosmokorea