CWN(CHANGE WITH NEWS) - 인공지능, 두들겨 보고 사용하자...한계점 드러낸 대표적인 사례 3가지

  • 안개홍성-1.4℃
  • 박무흑산도5.6℃
  • 맑음고창군0.6℃
  • 맑음영월-0.6℃
  • 맑음보령1.3℃
  • 맑음고산9.7℃
  • 박무백령도1.1℃
  • 맑음진주1.3℃
  • 맑음통영7.1℃
  • 맑음의령군1.6℃
  • 맑음천안2.3℃
  • 맑음양산시8.2℃
  • 연무울산8.9℃
  • 맑음원주0.1℃
  • 맑음문경4.4℃
  • 맑음함양군0.9℃
  • 박무대전2.1℃
  • 맑음강진군3.2℃
  • 연무포항7.2℃
  • 맑음여수8.6℃
  • 맑음정읍3.7℃
  • 맑음부산10.1℃
  • 맑음보성군5.3℃
  • 맑음인제-1.0℃
  • 흐림부안2.8℃
  • 맑음순창군0.4℃
  • 맑음동두천-0.4℃
  • 맑음속초6.7℃
  • 맑음상주5.3℃
  • 박무서울2.2℃
  • 맑음경주시8.3℃
  • 맑음산청5.4℃
  • 맑음정선군0.8℃
  • 맑음구미5.8℃
  • 박무청주3.6℃
  • 맑음서청주0.8℃
  • 맑음완도6.8℃
  • 맑음서산-1.4℃
  • 맑음보은0.4℃
  • 맑음거창0.2℃
  • 맑음합천2.0℃
  • 맑음제주8.4℃
  • 맑음부여-1.9℃
  • 맑음대관령0.0℃
  • 맑음세종1.7℃
  • 박무광주4.2℃
  • 맑음군산1.7℃
  • 맑음밀양2.6℃
  • 연무안동3.1℃
  • 맑음임실0.3℃
  • 맑음파주-2.7℃
  • 맑음성산8.4℃
  • 맑음김해시9.1℃
  • 맑음영광군3.4℃
  • 맑음거제7.3℃
  • 박무수원-0.1℃
  • 맑음동해7.6℃
  • 맑음북부산7.1℃
  • 맑음북창원9.1℃
  • 박무전주3.6℃
  • 맑음봉화-2.2℃
  • 박무인천1.0℃
  • 맑음장수-2.1℃
  • 맑음장흥1.4℃
  • 맑음고창1.8℃
  • 맑음제천-2.0℃
  • 맑음금산0.2℃
  • 맑음울릉도7.6℃
  • 맑음영주4.3℃
  • 박무북춘천-4.5℃
  • 맑음태백1.4℃
  • 맑음양평0.4℃
  • 맑음이천1.5℃
  • 맑음창원9.7℃
  • 맑음충주-1.0℃
  • 맑음청송군4.7℃
  • 연무북강릉3.1℃
  • 맑음서귀포10.0℃
  • 맑음강릉6.2℃
  • 맑음순천4.9℃
  • 맑음강화-1.1℃
  • 맑음의성-1.5℃
  • 맑음영덕5.6℃
  • 맑음해남3.4℃
  • 맑음광양시7.7℃
  • 맑음남원1.2℃
  • 맑음남해5.1℃
  • 맑음울진2.8℃
  • 박무목포4.3℃
  • 맑음영천7.1℃
  • 맑음진도군4.5℃
  • 맑음홍천-1.1℃
  • 맑음춘천-4.2℃
  • 맑음철원-2.5℃
  • 맑음고흥3.0℃
  • 맑음추풍령4.1℃
  • 연무대구7.6℃
  • 2026.01.16 (금)

인공지능, 두들겨 보고 사용하자...한계점 드러낸 대표적인 사례 3가지

김도은 / 기사승인 : 2021-06-28 20:18:35
  • -
  • +
  • 인쇄

인공지능 기술은 우리 생활 속 의료, 제조, 금융, 법률 등 다양한 산업 전반에 도입되면서 발전과 혁신을 이어오고 있다. 그러나 그와 동시에 예상하지 못한 부분에서 말썽을 일으키기도 한다. 대부분의 신기술이 그러하듯 아직 해결해야 할 과제가 많은 것은 당연하다.

그렇지만, 특히 인공지능에 대해서는 만능이라고 생각하는 경향이 있다. 실제 발견된 인공지능 오류 사례와 문제점을 돌아보고, 인공지능의 문제를 보완하고 발전시킬 필요가 있다.

1. 자동차 사고
지난 2월, 구글의 자율주행 자동차가 시속 3km로 미국 캘리포니아주의 도로를 달리다 버스와 충돌했다. 당시 자율주행 프로그램 내 인공지능의 판단과는 다른 상황이 전개되지 않자 그대로 충돌한 것이다. 이처럼 아직은 돌발 상황에 차량 스스로 위험을 피하거나 피해를 줄이는 방향으로 자율적인 판단이 불가능하다.

2. 아마존의 인공지능 채용 프로그램의 차별 문제
작년 10월, 세계 최대 전자상거래 기업 아마존은 수년간 공들여 개발해 온 인공지능 채용 프로그램을 자체 폐기했다고 전했다. 여대를 졸업했거나 이력서에 ‘여성’이라는 용어가 들어있으면 점수를 깎는 등 여성 지원자를 차별했기 때문이다.

감정, 친분, 이해 관계 등 비합리적 요소의 영향을 받는 인간보다 인공지능의 알고리즘이 더 공정하리라 기대했던 개발자들의 예상과는 다른 결과였다. 인공지능이 부정확하거나 편향된 데이터를 가지고 학습한다면, 인간 이상의 차별주의적 판단을 내릴 수 있다는 것이다.

3. 정신과 환자에게 자살을 권장하는 인공지능
의학 분야에서도 인공지능이 활발히 이루어지고 있다. 정신과 의사 업무량을 줄이기 위한 AI 챗봇도 등장했으나 환자에게 자살을 추천하면서 도입이 무산되었다. 프랑스 헬스케어 기업 나블라(Nabla)가 텍스트 생성 모델인 GPT-3를 기반으로 만든 정신과 챗봇은 출시 전 실험에서 모의 환자에게 자살을 독려했다. 이후, 나블라는 “소프트웨어 특징상 현실 세계에서 불규칙하고 예측할 수 없는 반응을 보일 수 있기 때문이라고 환자와 상호작용하는데 부적절하다”고 밝혔다.

위의 사례를 보았을 때, 인공지능의 오류가 우리 삶에 직간접적으로 피해를 줄 수 있는 만큼 인공지능을 맹신하는 것은 바람직하지 않다. 인공지능의 문제점 분석과 예측에 도움을 줄 수 있도록 개발하고 보완해야 해 순기능을 최대한 이용하는 것이 바람직할 것이다.

[저작권자ⓒ CWN(CHANGE WITH NEWS). 무단전재-재배포 금지]

최신기사

뉴스댓글 >

- 띄어 쓰기를 포함하여 250자 이내로 써주세요.
- 건전한 토론문화를 위해, 타인에게 불쾌감을 주는 욕설/비방/허위/명예훼손/도배 등의 댓글은 표시가 제한됩니다.

댓글 0

Today

Hot Issue