ad
ad
ad
ad

logo

ad

HOME  >  오피니언

[신형범의 千글자]...“우울해서 빵 샀어”

입력 2025-09-03 08:16

[신형범의 千글자]...“우울해서 빵 샀어”
MBTI 성격유형 검사와 관련해 유명한 얘기가 있습니다. 친구가 “나 오늘 우울해서 빵 샀어”라고 말할 때 어떻게 반응하는지 알아보는 실험입니다. 이성적이고 논리적인 ‘T’형 성격을 가진 사람은 “우울한데 왜 빵을 사?” “그거랑 그게 무슨 상관인데?”라고 되묻습니다. 반면 감성적이며 공감 잘하는 ‘F’형은 “그래서 기분이 좀 풀렸어?” “커피랑 먹을래, 우유랑 먹을래?” 같은 반응을 보인답니다.

그런데 대화형 인공지능 챗봇에 같은 말을 했더니 “마음이 좀 무거웠나 봐요. 빵을 산 건 작은 위로를 찾으려고 그랬던 건가요? 어떤 빵을 사셨어요?”라는 답을 얻었답니다. 이쯤 되면 AI가 웬만한 인간보다 공감능력이 훨씬 더 뛰어나고 위로도 합리적이고 설득력 있게 한다고 봐야 하지 않나요?

실제로 얼마 전 한국리서치에서 진행한 AI 기반 심리상담에 대한 조사를 보면 응답자의 11%가 인공지능과 상담한 경험이 있는 것으로 나왔습니다. 전문 상담사와 상담한 경우가 16%임을 고려하면 상당히 높은 수치입니다. 젊은 세대는 더합니다. ‘사람 말고 인공지능에만 고민을 털어놓은 경험이 있는가’에 대한 질문에 73%가 ‘그렇다’고 답했습니다.

아니나 다를까 사람들이 생성형 인공지능을 가장 많이 사용하는 분야 1위가 ‘상담’으로 조사됐는데 사람이 인공지능에 가장 요구하는 게 정서적 지지라는 증거입니다. 좀 더 확실하게 보여주는 사례가 요즘 심리상담 AI 시장이 급격히 커진다는 것입니다. 현재 정신건강 관련 AI 시장규모는 2조 원이 조금 넘는데 앞으로 매년 20~30%씩 성장해 10년 후에는 17조 원을 넘어설 것이라는 전망입니다.

그런데 AI 상담을 바라보는 전문가의 시각은 크게 두 갈래로 나뉩니다. 정신건강의학과 의사들에 따르면 환자들의 AI 상담 경험을 들어보면 답변이 제법 적절하게 느껴졌다며 AI는 상담욕구를 즉각 충족시킬 수 있어 적절하게 사용하면 도움이 될 것이라고 긍정적인 반응을 보였습니다. 반면 AI와 대화하다가 자살하거나 자살을 유도하는 극단적인 사례를 들어 AI상담은 책임과 윤리성의 문제가 해결되지 않은 상태라며 위험성을 경고하는 사람들도 있습니다.

특히 정신건강 관련 의사나 상담사를 만나는 게 일상화된 서양과 달리 우리나라는 전문가를 만날 수 있는 진입장벽이 높고 정신건강과 관련한 상담의 문화적 토대가 자리잡지 않았기 때문에 언제 어디서나 은밀하게 접근할 수 있는 인공지능과의 상담에 빠지기 훨씬 쉬운 환경입니다.

이때 대화형 인공지능을 개인 상담사로 쓰다가 현실의 인간관계가 잘못될 수 있다고 전문가들은 지적합니다. 무조건적 지지나 응원의 공급처로 인공지능 상담을 도구화 할 수 있어 유사한 패턴이 인간관계에서 재연될 위험도 있다는 겁니다. 특히 약물과 임상적 진단은 절대적으로 인간 전문가의 진단이 필요하며 일상생활이 어려울 정도의 고통과 괴로움 역시 인공지능은 해결할 수 없다는 걸 알아야 합니다. ^^*

sglee640@beyondpost.co.kr

<저작권자 © 비욘드포스트, 무단 전재 및 재배포 금지>