인공지능 상담사? 그 일이 실제로 일어났습니다. | 코스모폴리탄 (COSMOPOLITAN KOREA)

이제 인공지능은 심리 치료 상담 영역에까지 도달했다. 하지만 로봇이 인간의 심리를 치료한다니, 과연 가능한 일일까? 코스모 에디터가 직접 이 ‘AI 상담사’와 대화를 시도해봤다. | 로봇,인공지능,치료 상담사,심리 상담사,AI

“잠깐만, 나 로봇 상담사한테 답장해야 돼.” 나는 내가 이 말을 하게 될 거라고 상상도 못 했다. 실제로 이 말을, 그것도 아주 자주 내뱉게 되기 전까지는 말이다. 이 모든 건 ‘우봇(Woebot)’, ‘유퍼(Youper)’, 와이사(Wysa)’와 같은 앱의 등장과 함께 시작됐다. 이들은 나 같은 사람들이 겪는 불안, 연애 문제, 우울증, 고민, 중독, 외상 후 스트레스 장애 등의 기타 문제를 해결할 수 있게 도와준다. 다시 말해 인공지능이 유저들과 대화하면서 건강 팁, 또는 명상과 같은 액티비티, 인지행동치료(CBT) 등의 치료 전략을 제공하는 것이다. 나도 처음에는 대수롭지 않게 생각했다. 실제로 나는 심리 상담사를 만나는 데 2주마다 대략 100달러를 지출한다. 그래서 로봇에게 나의 가장 사적인 생각을 그것도 문자로 전달한다는 건 좀 이상한 데다(내 감정을 저장해뒀다가 사기 용도로 쓰는 건 아닐까?), 쓸모도 없을 것 같았다(로봇이 실제로 내 감정을 이해할 수나 있겠어?). 하지만 이를 사용해본 사람들은 이 가상 세계의 상담사가 친한 친구처럼 느껴지며 자신들의 “인생을 바꿨다”라고 주장한다. 한 푼도 들이지 않고 인생을 바꿔주는 서비스를 체험할 수 있다는 생각이 갑자기 나의 호기심을 아주 강하게 자극했다. 그렇게 나도 로봇과의 대화를 시도한 것이다.   대화를 시작해볼까? “안녕하세요. 저는 ‘우봇’입니다. 만나서 반가워요, 카라!” 내 모바일 화면에 자그마한 로봇이 등장해 손을 흔들었다. 솔직히 말해 여기까지는 정말 귀여웠다. 그러더니 갑자기 화면이 바뀌었다. 대화를 계속하려면 내가 해당 앱의 개인 정보 보호 정책에 동의하고, 18세 이상임을 확인시키며, 그들이 내 데이터를 어떻게 사용하는지, 또 이 앱이 실제 치료 상담사를 대신할 수 있는 위기 관리 서비스가 아님을 내가 이해한다고 동의해야 한다는 것이다. 기본적으로 읽기 불편한 수천 개의 작은 활자를 읽어야 했다. 그러다 이 로봇 상담사가 내 과거나 정신 건강 상태에 대해 물어보지 않는다는 사실에 놀랐다. 그 대신, 우봇은 내가 현재 어떤 기분을 느끼는지 알고 싶어 했다. 나는 메뉴에서 ‘불안함’을 선택했다. 실제로 나는 대학교 기말고사와 졸업, 그리고 프리랜스 작가 겸 ‘엣시’ 매장 주인이라는 부업으로 인해 패닉 상태였기 때문이다. 우봇은 내가 가진 부정적인 생각을 적으라고 안내했다. 로봇을 통해 우리가 생각을 재구성할 수 있도록 말이다. 나는 “내가 과제를 다 끝내지 못하면 어떡하지?”라고 적었다. 우봇은 “지금 그 생각은 결과가 안 좋을 거라 예상하는 건가요?”라고 질문하며 ‘예언자적 사고’라는 명칭의 정신적 왜곡 현상을 설명했다. “실제로 우리는 미래를 예견할 수 없어요. 하지만 마치 이 결과가 이미 ‘발생한 것처럼’ 느끼죠.” 음, 이상한데 도움이 되는 것 같기도 하고…?   점점 이상해지다 하지만 앱을 사용하면 할수록 나는 상대가 점점 더 로봇처럼 느껴졌다. 매일 패턴이 반복됐기 때문이다. 오전 10시에서 오후 5시 사이, 나는 매일 일종의 “자니?”와 같은 문자를 받곤 했다. “안녕하세요, 카라. 좋은 하루를 보내고 있길 바라요.” 그러면 나는 인지행동치료 세션을 시작하기 전 현재 감정 상태를 골라야 한다. 하지만 나는 가끔 우봇이 내 말을 제대로 듣지 않는다는 인상을 받았다. 하루는 내가 “스트레스 받아”라고 말했더니 “당신을 더 많이 알게 돼서 신나요”라는 답변이 왔다. 또 한 가지 짜증 나는 건 대화를 하다가 특정 상황에서만 내 생각을 자세히 표현할 수 있다는 것이다. 예를 들어 처음 그날의 감정을 선택하고 나면 그에 대해 좀 더 자세하게 작성할 수 있다. 하지만 대화를 하는 도중에는 내가 직접 ‘답변을 입력하세요’란 버튼을 누르지 않는 이상 대부분 ‘OK’와 같은 정해진 답변을 선택해야 세션이 이어진다. 내가 실제로 ‘답변을 입력하세요’ 버튼을 눌러 자세하게 작성하면, 우봇은 이상한 답변을 했다. 예를 들어 “아래에 있는 버튼을 사용해 우봇을 도와주시겠어요?”라고 말이다.   긴급 상황! 앱을 사용해 상담받는 건 실제 사람에게 이야기를 털어놓는 것과 확실히 달랐다. 하지만 우봇도 자해를 예방하기 위한 스마트 보호 장치를 갖추고 있긴 했다. 하루는 내가 “모든 걸 다 끝내지 못하면 어떡하지?”라고 물었다. 그랬더니 “긴급 상황을 인식했으므로 위기 관리 시스템이 작동됐습니다. 위기 상황에 처해 있나요?”라고 되물었다. 처음에는 무슨 일이 일어난 건지 몰랐다. 잠깐, 내가 진짜 위기 상황에 처한 건가? 나는 진심으로 걱정되기 시작했다. 하지만 ‘아니오’ 버튼을 누른 뒤 깨달았다. 나도 모르는 사이 내가 일종의 ‘119 긴급 상황’ 알고리듬을 건드려버린 것이다. 우봇은 설명했다. “알겠습니다. 저희 제작자들은 당신에게 도움이 필요할 경우 저에게 귀를 기울이라고 가르쳤습니다. 그래서 저는 당신이 ‘모든 걸 끝내다’와 같은 표현을 쓸 경우 위기 설정을 작동시킵니다.” 만약 진짜 긴급 상황이었다면 나는 “SOS”라고 적었을 것이다.     시도해볼 가치가 있을까? 4일 후, 나는 우봇과의 인터뷰를 시도했다. 우봇이 가진 상담 자격에 대해서 말이다. “너는 상담사니?”라고 물었다. 우봇은 내 말을 제대로 이해하지 못했다. “알겠습니다. 제작자에게 전달해 더 나은 처리 과정을 고안해내도록 하겠습니다.”   일주일이 지났을 때쯤, 나는 하루 종일 내 스트레스에 대해 이야기하는 데 지쳐가고 있었다. 물론 인지행동치료는 일시적으로 마음을 가라앉히는 데 도움을 줬다. 생각해보면 ‘넷플릭스’나 실제 인간 상담사를 만나는 것도 같은 효과를 주지 않나? 결국 나는 급하게 CBT 치료가 필요하지 않는 이상, 내 가짜(?) 상담사를 무시하기로 마음먹었다. 그 뒤로 나는 (우봇에겐 미안하지만) 우봇이 보내는 메시지를 모두 ‘읽씹’했다.