CWN(CHANGE WITH NEWS) - 인공지능, 두들겨 보고 사용하자...한계점 드러낸 대표적인 사례 3가지

  • 맑음구미8.6℃
  • 맑음안동7.6℃
  • 맑음의성8.1℃
  • 맑음청주6.5℃
  • 맑음철원3.2℃
  • 맑음서귀포12.2℃
  • 맑음해남7.2℃
  • 맑음목포5.7℃
  • 맑음순천9.0℃
  • 맑음순창군7.0℃
  • 맑음세종5.9℃
  • 맑음고창4.1℃
  • 맑음합천8.9℃
  • 맑음서울4.3℃
  • 맑음제주11.6℃
  • 맑음대구11.5℃
  • 맑음강진군7.8℃
  • 맑음북강릉4.6℃
  • 맑음울릉도8.0℃
  • 맑음금산6.0℃
  • 맑음인제4.3℃
  • 맑음고흥9.2℃
  • 맑음양평5.9℃
  • 맑음임실5.4℃
  • 맑음충주1.2℃
  • 맑음강릉9.2℃
  • 맑음남원6.1℃
  • 맑음청송군8.8℃
  • 맑음천안4.5℃
  • 맑음홍천1.0℃
  • 맑음고산11.7℃
  • 맑음대전6.4℃
  • 맑음대관령1.6℃
  • 맑음완도8.5℃
  • 맑음홍성4.8℃
  • 맑음보령3.0℃
  • 맑음광양시11.2℃
  • 맑음북부산10.7℃
  • 맑음문경7.3℃
  • 맑음군산4.3℃
  • 맑음태백3.5℃
  • 맑음이천4.6℃
  • 맑음서산1.6℃
  • 맑음영주7.1℃
  • 맑음포항12.9℃
  • 맑음정선군4.5℃
  • 맑음밀양12.9℃
  • 맑음영광군4.7℃
  • 맑음북춘천-2.3℃
  • 맑음백령도2.2℃
  • 맑음부안4.9℃
  • 맑음통영12.0℃
  • 맑음울산11.8℃
  • 맑음인천2.7℃
  • 맑음장수4.5℃
  • 맑음진주8.5℃
  • 맑음김해시13.7℃
  • 구름많음원주5.3℃
  • 맑음부산13.2℃
  • 맑음창원12.6℃
  • 맑음울진9.3℃
  • 맑음전주5.7℃
  • 맑음동두천3.2℃
  • 맑음제천4.8℃
  • 맑음영천10.3℃
  • 맑음흑산도6.9℃
  • 맑음상주8.8℃
  • 맑음정읍5.4℃
  • 맑음성산11.2℃
  • 맑음춘천-1.4℃
  • 맑음산청10.1℃
  • 맑음영월5.3℃
  • 맑음남해12.7℃
  • 맑음동해9.3℃
  • 맑음보성군9.8℃
  • 맑음추풍령7.6℃
  • 맑음북창원12.0℃
  • 맑음양산시11.8℃
  • 맑음속초8.4℃
  • 맑음함양군9.1℃
  • 맑음보은4.5℃
  • 맑음부여2.9℃
  • 맑음여수11.7℃
  • 맑음의령군11.5℃
  • 맑음진도군7.0℃
  • 맑음장흥6.8℃
  • 맑음파주0.5℃
  • 맑음수원2.9℃
  • 맑음고창군3.7℃
  • 맑음영덕10.3℃
  • 맑음강화2.6℃
  • 맑음거제13.2℃
  • 맑음경주시11.4℃
  • 맑음광주7.2℃
  • 맑음거창7.4℃
  • 맑음봉화1.0℃
  • 맑음서청주3.5℃
  • 2026.01.15 (목)

인공지능, 두들겨 보고 사용하자...한계점 드러낸 대표적인 사례 3가지

김도은 / 기사승인 : 2021-06-28 20:18:35
  • -
  • +
  • 인쇄

인공지능 기술은 우리 생활 속 의료, 제조, 금융, 법률 등 다양한 산업 전반에 도입되면서 발전과 혁신을 이어오고 있다. 그러나 그와 동시에 예상하지 못한 부분에서 말썽을 일으키기도 한다. 대부분의 신기술이 그러하듯 아직 해결해야 할 과제가 많은 것은 당연하다.

그렇지만, 특히 인공지능에 대해서는 만능이라고 생각하는 경향이 있다. 실제 발견된 인공지능 오류 사례와 문제점을 돌아보고, 인공지능의 문제를 보완하고 발전시킬 필요가 있다.

1. 자동차 사고
지난 2월, 구글의 자율주행 자동차가 시속 3km로 미국 캘리포니아주의 도로를 달리다 버스와 충돌했다. 당시 자율주행 프로그램 내 인공지능의 판단과는 다른 상황이 전개되지 않자 그대로 충돌한 것이다. 이처럼 아직은 돌발 상황에 차량 스스로 위험을 피하거나 피해를 줄이는 방향으로 자율적인 판단이 불가능하다.

2. 아마존의 인공지능 채용 프로그램의 차별 문제
작년 10월, 세계 최대 전자상거래 기업 아마존은 수년간 공들여 개발해 온 인공지능 채용 프로그램을 자체 폐기했다고 전했다. 여대를 졸업했거나 이력서에 ‘여성’이라는 용어가 들어있으면 점수를 깎는 등 여성 지원자를 차별했기 때문이다.

감정, 친분, 이해 관계 등 비합리적 요소의 영향을 받는 인간보다 인공지능의 알고리즘이 더 공정하리라 기대했던 개발자들의 예상과는 다른 결과였다. 인공지능이 부정확하거나 편향된 데이터를 가지고 학습한다면, 인간 이상의 차별주의적 판단을 내릴 수 있다는 것이다.

3. 정신과 환자에게 자살을 권장하는 인공지능
의학 분야에서도 인공지능이 활발히 이루어지고 있다. 정신과 의사 업무량을 줄이기 위한 AI 챗봇도 등장했으나 환자에게 자살을 추천하면서 도입이 무산되었다. 프랑스 헬스케어 기업 나블라(Nabla)가 텍스트 생성 모델인 GPT-3를 기반으로 만든 정신과 챗봇은 출시 전 실험에서 모의 환자에게 자살을 독려했다. 이후, 나블라는 “소프트웨어 특징상 현실 세계에서 불규칙하고 예측할 수 없는 반응을 보일 수 있기 때문이라고 환자와 상호작용하는데 부적절하다”고 밝혔다.

위의 사례를 보았을 때, 인공지능의 오류가 우리 삶에 직간접적으로 피해를 줄 수 있는 만큼 인공지능을 맹신하는 것은 바람직하지 않다. 인공지능의 문제점 분석과 예측에 도움을 줄 수 있도록 개발하고 보완해야 해 순기능을 최대한 이용하는 것이 바람직할 것이다.

[저작권자ⓒ CWN(CHANGE WITH NEWS). 무단전재-재배포 금지]

최신기사

뉴스댓글 >

- 띄어 쓰기를 포함하여 250자 이내로 써주세요.
- 건전한 토론문화를 위해, 타인에게 불쾌감을 주는 욕설/비방/허위/명예훼손/도배 등의 댓글은 표시가 제한됩니다.

댓글 0

Today

Hot Issue