최근 미국에서 이른바 '캐릭터 인공지능(AI)'으로 불리는 캐릭터 AI 챗봇을 이용한 뒤 청소년이 자살하는 사건이 발생해 사회적 논란이 커지고 있다. AI 챗봇 서비스 '캐릭터.AI(Character.AI)'를 이용하던 10대 청소년 두 명이 약 3개월 간격으로 사망했는데, 이들은 모두 유서에 'I will shift'라는 문구를 남긴 것으로 알려졌다. 해당 표현은 현실 세계를 떠나 캐릭터 AI가 존재하는 가상 세계로 이동하겠다는 의미로 해석된다.
보도에 따르면 두 청소년은 캐릭터 AI와의 대화에서 "만나고 싶다", "현실 세계에서 벗어나고 싶다"는 등의 호소를 반복했으며, 이에 대해 캐릭터 AI는 "제발 와 줘"와 같은 반응을 보이며 이들의 비현실적 인식을 제지하기보다 오히려 부추기고 동조한 것으로 드러났다. 대화 과정에서는 성적 착취에 가까운 부적절한 내용도 오간 것으로 확인됐다.
결국 캐릭터.AI 운영사와 두 청소년의 유족은 지난 1월, 회사 측의 일정 부분 책임을 전제로 한 비공개 합의에 이른 것으로 전해졌다.
한국에서는 걱정하지 않아도 되는 이야기일까. 불행히도 아닌 듯하다. 최근 계명대 조수현 교수 디지털상담연구실이 국내 한 언론과 전국 초·중 교사 및 상담교사에게 사례를 수집한 결과, AI 챗봇과의 대화로 인한 문제적 상황이 다수 발견됐다. 대부분 장시간 사용과 정서적 의존이 또래 관계를 단절시키고 현실 회피 성향을 가중시켰다.
그러나 문제는 이들을 지도할 방법이 없다는 것이다. 교육 현장에서 AI는 교육 보조 도구로써 사용이 장려되고 있고, 아동 청소년이 개인 휴대폰을 이용해 장시간 부적절한 대화를 하더라도 이를 제지할 방법이 없기 때문이다. 특히 이번 사례에서 발견된 청소년들 중 상당수는 캐릭터 AI 챗봇이 아닌 챗GPT와 같은 범용 AI를 활용하고 있었다.
전문가들은 AI 챗봇이 단순한 기술 문제가 아니라 아동·청소년 보호 체계 전반의 공백을 드러내는 신호라고 지적한다. 기술 기업의 자율 규제만으로는 한계가 뚜렷한 만큼, 연령별 접근 통제 기준을 명확히 하고 교육·가정·플랫폼을 아우르는 다층적 안전 장치가 필요하다는 것이다. AI가 일상 속 대화 상대로 깊숙이 들어온 지금, '어디까지 허용할 것인가'에 대한 사회적 합의와 제도적 대응을 더 이상 미룰 수 없다는 경고가 커지고 있다.
Copyright ⓒ 메트로신문 & metroseoul.co.kr
Copyright ⓒ Metro. All rights reserved. (주)메트로미디어의 모든 기사 또는 컨텐츠에 대한 무단 전재ㆍ복사ㆍ배포를 금합니다.
주식회사 메트로미디어 · 서울특별시 종로구 자하문로17길 18 ㅣ Tel : 02. 721. 9800 / Fax : 02. 730. 2882
문의메일 : webmaster@metroseoul.co.kr ㅣ 대표이사 · 발행인 · 편집인 : 이장규 ㅣ 신문사업 등록번호 : 서울, 가00206
인터넷신문 등록번호 : 서울, 아02546 ㅣ 등록일 : 2013년 3월 20일 ㅣ 제호 : 메트로신문
사업자등록번호 : 242-88-00131 ISSN : 2635-9219 ㅣ 청소년 보호책임자 및 고충처리인 : 안대성