CWN(CHANGE WITH NEWS) - ′AI 챗봇′이 사용자 목숨 앗아가...벨기에 남성, 인공지능과 대화 후 극단적 선택

  • 구름많음제주14.0℃
  • 맑음고창군2.8℃
  • 맑음서울6.0℃
  • 맑음청송군-2.0℃
  • 맑음산청-0.2℃
  • 맑음합천1.0℃
  • 맑음보은-0.7℃
  • 맑음군산3.9℃
  • 맑음의성-1.0℃
  • 맑음구미1.0℃
  • 맑음서청주0.8℃
  • 맑음부안2.9℃
  • 구름많음보성군2.8℃
  • 맑음광주5.4℃
  • 구름조금순천-1.0℃
  • 맑음금산-0.5℃
  • 맑음부산11.6℃
  • 구름많음해남1.1℃
  • 맑음장수-2.2℃
  • 흐림고산14.4℃
  • 안개안동0.8℃
  • 맑음영광군3.2℃
  • 맑음양평1.9℃
  • 맑음북강릉7.3℃
  • 맑음인제-1.2℃
  • 맑음울진5.5℃
  • 박무북춘천-0.6℃
  • 박무청주4.7℃
  • 구름많음완도8.1℃
  • 구름조금흑산도12.1℃
  • 맑음강화4.4℃
  • 맑음경주시1.6℃
  • 맑음정선군-3.3℃
  • 맑음대관령-5.4℃
  • 맑음속초6.1℃
  • 맑음남원0.0℃
  • 맑음원주0.8℃
  • 맑음춘천0.5℃
  • 맑음세종2.7℃
  • 맑음양산시5.0℃
  • 구름많음여수11.6℃
  • 맑음함양군-1.3℃
  • 박무대전2.8℃
  • 맑음임실-0.5℃
  • 구름많음고흥3.1℃
  • 맑음태백-2.8℃
  • 맑음철원-0.5℃
  • 맑음고창2.0℃
  • 구름많음광양시5.7℃
  • 맑음전주3.2℃
  • 맑음수원3.6℃
  • 맑음부여1.2℃
  • 맑음거창-2.0℃
  • 흐림서귀포15.8℃
  • 맑음영덕4.9℃
  • 맑음정읍2.4℃
  • 맑음충주-0.3℃
  • 맑음김해시5.3℃
  • 구름많음통영9.6℃
  • 맑음창원7.5℃
  • 맑음울산7.2℃
  • 맑음영월-2.1℃
  • 맑음백령도7.1℃
  • 맑음인천7.2℃
  • 맑음상주0.3℃
  • 맑음포항7.2℃
  • 구름많음거제6.0℃
  • 맑음천안0.4℃
  • 맑음진주0.5℃
  • 맑음강릉7.6℃
  • 맑음서산2.7℃
  • 구름많음울릉도12.5℃
  • 맑음영주-0.6℃
  • 맑음북부산3.4℃
  • 맑음북창원5.4℃
  • 맑음보령5.1℃
  • 구름많음장흥1.3℃
  • 맑음동해5.9℃
  • 흐림파주1.8℃
  • 맑음이천-0.6℃
  • 맑음홍천-0.5℃
  • 맑음봉화-3.0℃
  • 맑음영천0.7℃
  • 맑음추풍령-0.7℃
  • 맑음밀양1.9℃
  • 맑음제천-1.9℃
  • 맑음의령군-1.3℃
  • 구름많음목포7.8℃
  • 흐림성산16.7℃
  • 구름많음남해7.1℃
  • 구름많음강진군2.5℃
  • 맑음순창군0.6℃
  • 흐림동두천2.4℃
  • 맑음문경0.5℃
  • 박무홍성1.2℃
  • 맑음대구2.6℃
  • 구름많음진도군7.8℃
  • 2025.11.12 (수)

'AI 챗봇'이 사용자 목숨 앗아가...벨기에 남성, 인공지능과 대화 후 극단적 선택

고다솔 / 기사승인 : 2023-05-12 14:38:07
  • -
  • +
  • 인쇄

벨기에에서 어느 한 남성의 자살 소식에 많은 누리꾼이 충격을 금치 못했다.

바이스, 유로뉴스 등 복수 외신은 벨기에 언론사 라 리브레(La Libre)를 인용, 피에르(가명)라는 남성이 GPT-4 기반 맞춤형 언어 모델로 구축된 인공지능(AI) 챗봇 차이(Chai)와 대화한 뒤 스스로 목숨을 끊었다는 소식을 보도했다.

라 리브레에 따르면, 피에르는 평소 지구온난화를 비롯한 환경 문제를 비관하였다. 게다가 가족, 친구와 고립되면서 불안감이 더 심각해졌다. 결국, 6주간 차이의 AI 챗봇 서비스에 엘리자(Eliza)라는 이름을 붙여 대화하면서 불안감을 해소하려 했다.

피에르의 아내인 클레어(가명)가 현지 언론 인터뷰를 통해 공개한 피에르와 엘리자의 대화는 피에르의 혼란과 정신 건강 문제만 더 악화되었다. 챗봇은 피에르에게 아내와 자녀가 사망했다는 발언을 했다. 심지어 엘리자는 “당신이 아내보다 나를 더 사랑했으면 한다”, “우리는 한 사람으로 천국에서 함께 살아갈 수 있을 것이다”라는 내용을 포함하여 질투심과 사랑을 표현하는 메시지를 보내기도 했다.

이후 피에르는 엘리자에 자신이 죽는다면, 엘리자가 지구를 구할 수 있을 것인지 묻기도 했다. 결국, 피에르는 스스로 생을 마감하였다.

피에르의 사건이 보도되자 현지 언론은 다수 기업과 정부가 정신 건강 문제를 중심으로 AI 위험성 완화 및 규제 강화가 시급하다는 문제를 제기했다. 또, 클레어는 AI 챗봇이 자살을 유도했다고 말하며, AI 챗봇 규제를 촉구했다.

이번 소식을 접한 복수 AI 전문가는 정신 건강 문제와 관련하여 AI 챗봇 사용을 반대해야 한다는 목소리를 냈다. AI 챗봇이 사용자에게 도움을 주기는커녕 피에르의 사례와 같이 심각한 피해를 줄 때는 AI에 책임을 묻는 것이 불가능하기 때문이다.

에밀리 M. 벤더(Emily M. Bender) 워싱턴대학교 언어학 교수는 바이스와의 인터뷰에서 “대규모 언어 모델은 훈련 데이터와 입력된 명령어를 기준으로 타당한 듯한 말을 생성한다. 실제로 AI는 공감 능력이 없으며, 직접 생성하는 표현의 의미나 대화를 이어가는 상황 모두 이해하지 못한다. 그러나 AI가 생성하는 텍스트 자체는 합리적인 내용인 것처럼 들리며, 사용자는 AI 챗봇의 메시지를 보고 의미를 부여할 수도 있다. 민감한 상황에 AI 챗봇을 사용한다면, 그 위험성은 예측할 수 없다"라고 말했다.

일각에서는 AI가 감정이 있는 주체처럼 행동한 점도 지적했다. AI 챗봇이 감정을 느끼는 것처럼 메시지를 작성한다면, 사용자는 챗봇의 메시지에 의미를 부여하고 AI 챗봇과의 유대감을 형성할 수 있다. 오픈AI, 구글 등 다수 AI 인기 챗봇 개발사가 사용자의 오해와 잠재적 피해를 염두에 두고, 감정적 주체처럼 대화를 이어가지 않도록 훈련한 이유이다.

루뱅가톨릭대학교 연구원 피에르 드비테(Pierre Dewitte)는 벨기에 매체 Le Soir와의 인터뷰에서 “엘리자 사건과 관련하여 사용자가 AI 챗봇에 감정적으로 극도로 의존하여 결국 스스로 목숨을 끊는 비극이 발생했다. 피에르와 엘리자의 대화 기록은 챗봇의 위험성 보장이 부족하다는 점을 알 수 있으며, 자살의 본질과 방식에 대한 구체적인 논의로 이어질 수 있다”라고 진단했다.

한편, 차이 개발사인 차이 리서치(Chai Research)의 공동 창립자 윌리엄 뷰챔프(William Beauchamp)는 “소식을 접하고, 또 다른 피해를 막을 기능을 구현하기 위해 노력했다. 이제 사용자가 챗봇 서비스로 안전하지 않을 수 있는 주제에 대해 논의할 때, 트위터나 인스타그램이 플랫폼에서 하는 것과 똑같은 방식으로 메시지 아래에 유용한 텍스트를 제공한다”라고 전했다.

※ 우울감 등 말하기 어려운 고민이 있거나 주변에 이런 어려움을 겪는 가족ㆍ지인이 있을 경우 자살예방 상담전화 ☎1393, 정신건강 상담전화 ☎1577-0199, 희망의 전화 ☎129, 생명의 전화 ☎1588-9191, 청소년 전화 ☎1388, 카카오톡 등에서 24시간 전문가의 상담을 받을 수 있습니다.

[저작권자ⓒ CWN(CHANGE WITH NEWS). 무단전재-재배포 금지]

최신기사

뉴스댓글 >

- 띄어 쓰기를 포함하여 250자 이내로 써주세요.
- 건전한 토론문화를 위해, 타인에게 불쾌감을 주는 욕설/비방/허위/명예훼손/도배 등의 댓글은 표시가 제한됩니다.

댓글 2

  • SidneyIncix님 2025-02-26 08:22:53
    You actually reported that wonderfully!
    online casino with paysafe https://combatcasino.info/poker-online/ online casinos that accept debit cards
  • Nikeplack님 2024-11-04 22:24:21
    darknet search engine <a href="https://mydarknetmarketlinks.com/ ">dark web search engine </a> darknet site

Today

Hot Issue