AI 치료 챗봇이 궁극적인 윤리적 딜레마인 이유
게시 됨: 2023-10-31ChatGPT 와 같은 생성적 AI 챗봇은 업무 프로세스를 간소화하고, 코드를 작성하고, 스탠드업 코미디 세트용 스크립트를 작성하는 데에도 사용되고 있습니다. 불안과 우울증 사례가 사상 최고치를 기록하고 전문적인 지원이 여전히 확대되고 있는 미국에서 사용자들이 정신 건강 관리를 돕기 위해 이 기술을 활용하고 있다는 것은 놀라운 일이 아닙니다.
Elomia, Pi, Woebot과 같은 AI 챗봇은 시도되고 테스트된 치료 기술을 기반으로 연중무휴 24시간 저렴하고 맞춤화된 지원을 제공합니다. 사용자가 긴 대기자 명단을 피할 수 있도록 돕는 것부터 도움 이용에 대한 오명을 줄이는 것까지, 그 이점은 엄청납니다. 여전히 실수, 환각 , 편견이 발생하기 쉬운 생성 AI가 인간 귀의 공감 능력과 비교할 수 있을까요?
우리는 새로운 기술이 치료의 미래를 어떻게 형성할 것인지에 대해 조명하기 위해 학자, 심리학자, 현직 치료사와 이야기를 나눴습니다. 또한 AI 치료의 어두운 측면에 대해 논의하고 오늘날 해결해야 할 윤리적 문제가 무엇인지 정확히 지적합니다. 우리가 찾은 것은 다음과 같습니다.
AI 챗봇: 차세대 로봇 치료사
OpenAI의 챗봇인 ChatGPT가 지난 11월 처음 출시된 이후, Google Bard 및 Claude AI 와 같은 일반 사용 앱부터 덜 전통적인 Marvel 캐릭터 시뮬레이터에 이르기까지 수많은 챗봇 모방군이 앱 스토어에 등장했습니다.
이러한 급성장하는 시장은 또한 생성 AI를 사용하여 자격을 갖춘 치료사와 정신 건강 전문가가 제공하는 조언과 지침을 모방하는 앱인 AI 치료 챗봇의 등장을 가져왔습니다.
개인적으로 웹을 탐색하고 싶으신가요? 아니면 다른 나라에 있는 것처럼 보이나요?
Tech.co 블랙 프라이데이 혜택으로 Surfshark를 86% 할인 받으세요.
주요 예로는 공명판 역할을 하고 정서적 지원을 제공하는 자칭 "친절한 채팅 동반자"인 Pi; 사용자의 말하는 스타일과 성격을 모방하는 챗봇 프로그램인 Replika 그리고 어려운 감정을 기록하고 극복하는 데 도움이 되도록 설계된 불안 추적기 Earkick이 있습니다.
"AI 기반 플랫폼은 개인 정보 보호를 제공하여 정신 건강 문제에 대한 도움을 구하는 것과 관련된 낙인을 줄입니다." – Ryan Sultan, 공인 정신과 의사이자 컬럼비아 대학교 교수
최고의 정신 건강 앱 과 마찬가지로 이러한 앱 중 다수는 이미 6자릿수 다운로드 수를 자랑하고 있으며 그 인기는 그리 놀랄 일이 아닙니다. 자격을 갖춘 심리학자, 정신과 의사, 사회 복지사의 부족과 전국적으로 서비스에 대한 수요 급증으로 인해 미국은 현재 기록상 최악의 정신 건강 위기 중 하나를 겪고 있습니다.
전통적인 치료법의 높은 비용과 정신 건강에 대한 금기 사항으로 인해 많은 사람들이 기존 치료법을 추구하는 것을 방해하고 있으며 보다 신중하고 저렴한 대안에 대한 격차가 발생하고 있습니다.
초기 증거에 따르면 그것들도 효과적이라는 것을 알 수 있습니다. AI Chatbot의 Earkick 자체 연구 결과에 따르면, 5개월 동안 앱을 사용한 후 사용자의 기분은 34% 향상되었고 불안 수준은 32% 감소한 것으로 나타났습니다. 그러나 이러한 앱이 사소한 불안을 완화하는 데 성공하더라도 우리 모두가 기다려 왔던 정신 건강 만병통치약은 아닙니다.
심각한 정신 건강 상태에 부적합한 AI 챗봇
주머니 크기의 챗봇을 통해 치료사가 승인한 합리적인 조언을 받는 것은 의심할 여지 없이 많은 사람들에게 도움이 될 것입니다. 그러나 우울증, 정신분열증, 양극성 장애와 같은 심각한 정신 건강 질환을 앓고 있는 사람들은 별다른 조치를 받지 못할 가능성이 높습니다.
정신 장애는 복잡하고 미묘한 차이가 있으며 영향을 받는 사람마다 다릅니다. 어떤 경우에는 자격을 갖춘 의료 전문가만이 올바르게 처방할 수 있는 약물로 가장 잘 관리됩니다. LLM(대형 언어 모델)은 최근 몇 년 동안 비약적으로 발전했지만 그 결과는 정신과 의사, 심리학자 및 치료사가 제공하는 임상 전문 지식, 공감 및 연민을 결코 대체할 수 없습니다.
"알고리즘이 개선된 것은 감사하지만 궁극적으로 사람들이 도움을 구할 때 직면하는 복잡한 사회적 현실을 해결하지는 못할 것이라고 생각합니다." – 캘리포니아 대학교 샌프란시스코 인류학 교수 Julia Brown
전략적 심령 치료사인 Aanant Bisht는 또한 현재 상태에서는 AI가 모든 사용자의 복잡한 치유 여정을 도울 수 없다고 믿습니다. Bisht는 Tech.co에 “복잡한 정신 건강 문제를 지나치게 단순화하지 않고 사용자가 필요할 때 전문적인 도움을 구하도록 권장하는 것도 중요합니다.”라고 말합니다.
우리가 인터뷰한 전문가들이 표현한 또 다른 일반적인 우려 사항은 의학적 오진입니다. 정신 건강 커뮤니티는 복잡하고 심각한 정신 장애를 정확하게 식별하는 데 오랫동안 문제를 안고 있으며, AI에 대한 과도한 의존은 기술이 제한적이고 대표적인 데이터 세트가 아니며 인간의 뉘앙스를 해석할 수 없기 때문에 이 문제를 악화시킬 수 있습니다.
이것의 결과도 극명할 수 있습니다. 정신 건강 오진은 종종 부적절한 치료와 지원, 추가적인 정신적 압박, 의료 시스템에 대한 장기적인 회의로 이어집니다. 인공지능이 현재의 형태로 치료사의 의자를 따라잡기에 적합하지 않은 유일한 이유는 아닙니다.
AI에는 결함이 있고 윤리적 문제에 가려져 있습니다.
생성적 AI의 급속한 성장은 결과를 낳지 않았습니다. 기술이 엄청난 속도로 계속 발전함에 따라 기술 사용에 대한 규제가 따라잡는 데 시간이 걸려 데이터 개인 정보 보호, 내재된 편견 및 오용과 관련된 일련의 윤리적 문제가 발생했습니다.
이러한 우려는 치료에만 국한되는 것은 아니지만 정신 건강의 민감한 특성은 윤리적 틀이 좋은 치료 관계의 중심에 있음을 의미합니다. 현재 공식적인 AI 윤리 강령이 존재하지 않기 때문에 사용자가 상담이나 기타 정신 건강 지원을 위해 자격을 갖춘 전문가 대신 챗봇에 의존하는 것은 매우 문제가 됩니다.
데이터 프라이버시는 중요한 문제 중 하나입니다. ChatGPT와 같은 챗봇은 사용자 데이터를 보호하지 못해 종종 난관에 부딪히곤 했습니다. 사용자가 개인 정보에 대해 편안하게 논의할 수 있도록 AI 회사는 기밀성을 우선시하는 완벽한 데이터 보호 전략을 갖춰야 합니다.
"치료적 대화의 친밀하고 민감한 특성은 비교할 수 없는 수준 의 데이터 보호를 요구합니다." – Impulse Therapy의 심리학자 Langham 박사
알아야 할 또 다른 중요한 요소는 기계 학습 편견입니다. 모든 AI 시스템은 인종이나 성별과 같은 민감한 변수가 제거되더라도 인간의 편견이 내재되어 있는 미리 결정된 훈련 데이터에 의존합니다.
라이프 코치 회사인 Life Architekture의 CEO인 Bayu Prihandito 에 따르면 AI가 편향된 데이터로 훈련된다면 "기존 편향을 지속하거나 악화시켜 불평등한 치료 권장 사항을 초래할 수 있습니다"라고 합니다. 이러한 내장된 편견은 소수 집단의 사람들에게도 더 많은 영향을 미칠 가능성이 높으며 인간 감독과 다양하고 대표적인 교육 데이터 세트의 중요성을 강조합니다.
대체가 아닌 치료사의 보조자로서의 AI
Pi 및 Woebot과 같은 친근한 동반자는 사용자가 정신 건강을 보충할 수 있는 접근 가능한 방법을 계속 추구함에 따라 인기가 높아질 것입니다. 그러나 광범위한 윤리적 우려로 인해 인공지능은 전통적인 치료법의 역할을 대체할 준비가 되어 있지 않으며 앞으로도 그럴 필요가 없습니다.
하지만 신흥 기술이 실무 전반에 큰 영향을 미치지 않을 것이라는 말은 아닙니다. 우리가 인터뷰한 대부분의 실무자들은 분류와 같은 힘든 작업을 수행함으로써 AI 도구가 다른 실무 영역에 투입할 수 있는 더 많은 시간과 에너지를 제공할 수 있다고 믿습니다.
"치료사가 제공하는 깊은 인간 관계를 대체할 수는 없지만 보완적인 도구 역할을 할 수 있습니다." – Aanant Bish, 비즈니스 심령 코치
Bayu Prihandito는 Tech.co와의 인터뷰에서 “AI는 초기 평가, 지속적인 모니터링을 처리하고 덜 복잡한 사례에 대한 지원을 제공할 수 있어 우리가 더 심각하거나 민감한 상황에 집중할 수 있도록 해줍니다.”라고 덧붙였습니다. 사용 가능."
컬럼비아 교수이자 공인 정신과 의사인 술탄(Sultan)은 Tech.co와의 인터뷰에서 5년 안에 AI 가 행정 업무를 간소화하고 의사가 보다 개인화된 치료 계획을 세울 수 있도록 지원하며 " 인간의 전문 지식과 AI를 결합한 하이브리드 모델을 만들어 기존 치료법을 보완할 것"이라고 말했습니다. 치료를 향상시키는 도구”를 제공합니다.
이는 AI가 인간성의 실천을 고갈시키는 것이 아니라 실제로 공감, 연결, 연민과 같은 인간의 기술을 자유롭게 하여 고객이 서비스에서 더 많은 것을 얻을 수 있도록 돕는 힘을 가지고 있음을 시사합니다.
그러나 정신 건강을 돌보는 것은 심각한 일이며 종종 삶과 죽음의 문제가 될 수 있습니다. AI가 모든 치료사의 보조자가 되거나 실제로 그들을 대체하기 전에 AI의 배포 및 사용에 대한 엄격한 규정을 고려해야 합니다.
그런 때가 오기 전까지는 AI 챗봇이 정신 건강 지원에 대한 접근성을 향상시킬 수 있는 분명한 잠재력과 그것이 초래하는 위험을 완전히 조화시킬 수는 없습니다. 윤리적 딜레마가 당연하게 여겨지는 세상에서 이것은 무시하기에는 너무 큽니다.