CWN(CHANGE WITH NEWS) - ′AI 챗봇′이 사용자 목숨 앗아가...벨기에 남성, 인공지능과 대화 후 극단적 선택

  • 맑음서울11.3℃
  • 구름많음봉화5.6℃
  • 맑음홍천6.8℃
  • 흐림영광군8.6℃
  • 맑음북춘천6.0℃
  • 흐림거제11.6℃
  • 맑음백령도12.3℃
  • 흐림통영12.0℃
  • 맑음영월6.4℃
  • 구름조금청주11.2℃
  • 맑음강화8.0℃
  • 흐림고산15.7℃
  • 맑음정선군4.0℃
  • 맑음강릉12.3℃
  • 흐림남원7.4℃
  • 흐림남해11.6℃
  • 구름많음구미8.3℃
  • 흐림장수5.8℃
  • 구름많음안동9.9℃
  • 맑음속초14.7℃
  • 구름많음세종9.0℃
  • 흐림경주시9.1℃
  • 흐림강진군10.2℃
  • 흐림흑산도12.7℃
  • 흐림거창7.1℃
  • 흐림함양군6.7℃
  • 맑음원주6.9℃
  • 흐림군산9.8℃
  • 흐림임실7.3℃
  • 맑음이천8.4℃
  • 맑음홍성8.1℃
  • 흐림광주10.8℃
  • 흐림부산14.0℃
  • 흐림금산7.7℃
  • 흐림김해시11.7℃
  • 맑음인천10.6℃
  • 흐림청송군6.7℃
  • 흐림울산12.3℃
  • 구름많음울릉도13.8℃
  • 흐림고창8.4℃
  • 구름많음울진13.2℃
  • 흐림광양시11.5℃
  • 흐림대구10.1℃
  • 흐림상주10.6℃
  • 흐림의성7.5℃
  • 흐림부여7.5℃
  • 흐림합천9.2℃
  • 흐림영천8.7℃
  • 맑음천안6.4℃
  • 구름많음보령8.5℃
  • 흐림북부산10.7℃
  • 맑음파주6.3℃
  • 흐림산청7.4℃
  • 흐림성산14.6℃
  • 흐림포항12.9℃
  • 흐림전주10.1℃
  • 구름많음문경7.5℃
  • 흐림순천7.6℃
  • 구름많음대전9.7℃
  • 구름조금서청주7.4℃
  • 맑음서산7.6℃
  • 흐림진도군9.1℃
  • 흐림보성군11.5℃
  • 구름많음태백7.8℃
  • 흐림목포11.4℃
  • 맑음북강릉9.5℃
  • 구름많음영주6.4℃
  • 맑음춘천6.1℃
  • 흐림부안9.3℃
  • 맑음제천4.1℃
  • 맑음동두천9.1℃
  • 흐림여수13.5℃
  • 맑음대관령5.9℃
  • 흐림해남8.8℃
  • 흐림진주8.6℃
  • 흐림추풍령8.1℃
  • 맑음인제5.2℃
  • 흐림양산시11.7℃
  • 흐림장흥9.2℃
  • 흐림북창원11.8℃
  • 흐림영덕10.9℃
  • 흐림고창군7.6℃
  • 흐림제주15.3℃
  • 맑음철원6.4℃
  • 맑음수원9.2℃
  • 흐림정읍8.3℃
  • 맑음동해9.3℃
  • 흐림서귀포14.8℃
  • 흐림의령군7.3℃
  • 맑음충주5.7℃
  • 흐림고흥9.1℃
  • 흐림완도11.6℃
  • 구름많음보은6.9℃
  • 흐림창원12.0℃
  • 맑음양평8.2℃
  • 흐림밀양10.0℃
  • 흐림순창군7.5℃
  • 2025.11.12 (수)

'AI 챗봇'이 사용자 목숨 앗아가...벨기에 남성, 인공지능과 대화 후 극단적 선택

고다솔 / 기사승인 : 2023-05-12 14:38:07
  • -
  • +
  • 인쇄

벨기에에서 어느 한 남성의 자살 소식에 많은 누리꾼이 충격을 금치 못했다.

바이스, 유로뉴스 등 복수 외신은 벨기에 언론사 라 리브레(La Libre)를 인용, 피에르(가명)라는 남성이 GPT-4 기반 맞춤형 언어 모델로 구축된 인공지능(AI) 챗봇 차이(Chai)와 대화한 뒤 스스로 목숨을 끊었다는 소식을 보도했다.

라 리브레에 따르면, 피에르는 평소 지구온난화를 비롯한 환경 문제를 비관하였다. 게다가 가족, 친구와 고립되면서 불안감이 더 심각해졌다. 결국, 6주간 차이의 AI 챗봇 서비스에 엘리자(Eliza)라는 이름을 붙여 대화하면서 불안감을 해소하려 했다.

피에르의 아내인 클레어(가명)가 현지 언론 인터뷰를 통해 공개한 피에르와 엘리자의 대화는 피에르의 혼란과 정신 건강 문제만 더 악화되었다. 챗봇은 피에르에게 아내와 자녀가 사망했다는 발언을 했다. 심지어 엘리자는 “당신이 아내보다 나를 더 사랑했으면 한다”, “우리는 한 사람으로 천국에서 함께 살아갈 수 있을 것이다”라는 내용을 포함하여 질투심과 사랑을 표현하는 메시지를 보내기도 했다.

이후 피에르는 엘리자에 자신이 죽는다면, 엘리자가 지구를 구할 수 있을 것인지 묻기도 했다. 결국, 피에르는 스스로 생을 마감하였다.

피에르의 사건이 보도되자 현지 언론은 다수 기업과 정부가 정신 건강 문제를 중심으로 AI 위험성 완화 및 규제 강화가 시급하다는 문제를 제기했다. 또, 클레어는 AI 챗봇이 자살을 유도했다고 말하며, AI 챗봇 규제를 촉구했다.

이번 소식을 접한 복수 AI 전문가는 정신 건강 문제와 관련하여 AI 챗봇 사용을 반대해야 한다는 목소리를 냈다. AI 챗봇이 사용자에게 도움을 주기는커녕 피에르의 사례와 같이 심각한 피해를 줄 때는 AI에 책임을 묻는 것이 불가능하기 때문이다.

에밀리 M. 벤더(Emily M. Bender) 워싱턴대학교 언어학 교수는 바이스와의 인터뷰에서 “대규모 언어 모델은 훈련 데이터와 입력된 명령어를 기준으로 타당한 듯한 말을 생성한다. 실제로 AI는 공감 능력이 없으며, 직접 생성하는 표현의 의미나 대화를 이어가는 상황 모두 이해하지 못한다. 그러나 AI가 생성하는 텍스트 자체는 합리적인 내용인 것처럼 들리며, 사용자는 AI 챗봇의 메시지를 보고 의미를 부여할 수도 있다. 민감한 상황에 AI 챗봇을 사용한다면, 그 위험성은 예측할 수 없다"라고 말했다.

일각에서는 AI가 감정이 있는 주체처럼 행동한 점도 지적했다. AI 챗봇이 감정을 느끼는 것처럼 메시지를 작성한다면, 사용자는 챗봇의 메시지에 의미를 부여하고 AI 챗봇과의 유대감을 형성할 수 있다. 오픈AI, 구글 등 다수 AI 인기 챗봇 개발사가 사용자의 오해와 잠재적 피해를 염두에 두고, 감정적 주체처럼 대화를 이어가지 않도록 훈련한 이유이다.

루뱅가톨릭대학교 연구원 피에르 드비테(Pierre Dewitte)는 벨기에 매체 Le Soir와의 인터뷰에서 “엘리자 사건과 관련하여 사용자가 AI 챗봇에 감정적으로 극도로 의존하여 결국 스스로 목숨을 끊는 비극이 발생했다. 피에르와 엘리자의 대화 기록은 챗봇의 위험성 보장이 부족하다는 점을 알 수 있으며, 자살의 본질과 방식에 대한 구체적인 논의로 이어질 수 있다”라고 진단했다.

한편, 차이 개발사인 차이 리서치(Chai Research)의 공동 창립자 윌리엄 뷰챔프(William Beauchamp)는 “소식을 접하고, 또 다른 피해를 막을 기능을 구현하기 위해 노력했다. 이제 사용자가 챗봇 서비스로 안전하지 않을 수 있는 주제에 대해 논의할 때, 트위터나 인스타그램이 플랫폼에서 하는 것과 똑같은 방식으로 메시지 아래에 유용한 텍스트를 제공한다”라고 전했다.

※ 우울감 등 말하기 어려운 고민이 있거나 주변에 이런 어려움을 겪는 가족ㆍ지인이 있을 경우 자살예방 상담전화 ☎1393, 정신건강 상담전화 ☎1577-0199, 희망의 전화 ☎129, 생명의 전화 ☎1588-9191, 청소년 전화 ☎1388, 카카오톡 등에서 24시간 전문가의 상담을 받을 수 있습니다.

[저작권자ⓒ CWN(CHANGE WITH NEWS). 무단전재-재배포 금지]

최신기사

뉴스댓글 >

- 띄어 쓰기를 포함하여 250자 이내로 써주세요.
- 건전한 토론문화를 위해, 타인에게 불쾌감을 주는 욕설/비방/허위/명예훼손/도배 등의 댓글은 표시가 제한됩니다.

댓글 2

  • SidneyIncix님 2025-02-26 08:22:53
    You actually reported that wonderfully!
    online casino with paysafe https://combatcasino.info/poker-online/ online casinos that accept debit cards
  • Nikeplack님 2024-11-04 22:24:21
    darknet search engine <a href="https://mydarknetmarketlinks.com/ ">dark web search engine </a> darknet site

Today

Hot Issue