CWN(CHANGE WITH NEWS) - 美 연구팀 "로봇, 인종차별·남성우월주의 일삼는 기계로 변질될 수 있어" 경고

  • 맑음북부산6.9℃
  • 맑음진도군7.7℃
  • 구름조금서귀포14.0℃
  • 맑음울진6.1℃
  • 맑음장수5.7℃
  • 맑음북강릉5.4℃
  • 구름많음보령3.8℃
  • 맑음통영7.9℃
  • 맑음광양시6.4℃
  • 맑음고산13.1℃
  • 흐림백령도-0.6℃
  • 맑음제천-3.3℃
  • 맑음부안3.6℃
  • 구름많음인제-3.1℃
  • 맑음흑산도7.8℃
  • 구름많음전주5.5℃
  • 흐림동두천-4.0℃
  • 맑음이천-2.2℃
  • 흐림홍천-3.8℃
  • 맑음서산2.2℃
  • 맑음북창원6.0℃
  • 맑음안동0.1℃
  • 맑음거제5.4℃
  • 맑음여수4.4℃
  • 흐림북춘천-5.1℃
  • 맑음대관령-3.6℃
  • 구름많음부여2.1℃
  • 맑음제주11.4℃
  • 맑음인천0.4℃
  • 맑음대구3.6℃
  • 흐림춘천-3.9℃
  • 맑음충주-1.8℃
  • 맑음목포6.4℃
  • 맑음포항4.4℃
  • 맑음강릉4.4℃
  • 맑음거창4.4℃
  • 맑음의령군4.2℃
  • 구름조금원주-2.3℃
  • 구름많음파주-3.6℃
  • 맑음태백0.3℃
  • 맑음정선군-1.8℃
  • 구름조금순창군4.1℃
  • 맑음김해시6.0℃
  • 맑음해남9.0℃
  • 맑음양평-3.3℃
  • 맑음성산12.7℃
  • 맑음세종1.7℃
  • 맑음동해6.3℃
  • 맑음고흥7.4℃
  • 맑음구미3.5℃
  • 맑음함양군5.8℃
  • 맑음부산7.7℃
  • 맑음남원3.6℃
  • 맑음수원0.1℃
  • 맑음봉화-1.9℃
  • 구름많음고창군5.2℃
  • 맑음상주2.1℃
  • 구름조금정읍5.0℃
  • 맑음문경0.7℃
  • 맑음천안-0.2℃
  • 구름많음영광군4.3℃
  • 맑음보은0.3℃
  • 맑음남해3.9℃
  • 맑음창원6.4℃
  • 맑음영천3.4℃
  • 흐림고창4.8℃
  • 맑음임실4.4℃
  • 맑음장흥7.4℃
  • 맑음울릉도4.0℃
  • 맑음서청주-0.2℃
  • 맑음추풍령2.7℃
  • 맑음합천4.7℃
  • 맑음강화-2.8℃
  • 맑음울산5.4℃
  • 구름많음광주4.7℃
  • 맑음영덕3.5℃
  • 맑음영월-1.8℃
  • 맑음의성2.2℃
  • 구름많음홍성2.1℃
  • 맑음밀양4.9℃
  • 맑음대전2.2℃
  • 맑음완도6.4℃
  • 맑음순천7.6℃
  • 맑음진주5.0℃
  • 맑음산청5.4℃
  • 흐림철원-5.2℃
  • 맑음청주1.2℃
  • 구름조금속초1.8℃
  • 맑음서울-1.1℃
  • 맑음양산시6.9℃
  • 구름조금군산2.6℃
  • 맑음보성군5.7℃
  • 맑음금산3.4℃
  • 맑음강진군7.9℃
  • 맑음청송군1.0℃
  • 맑음영주-1.8℃
  • 맑음경주시4.9℃
  • 2026.01.14 (수)

美 연구팀 "로봇, 인종차별·남성우월주의 일삼는 기계로 변질될 수 있어" 경고

박채원 / 기사승인 : 2022-07-01 12:59:18
  • -
  • +
  • 인쇄

제조 시설과 유통 매장, 은행 업무, 치안 관리 등 일상 속 여러 분야에서 인공지능(AI)과 로봇 활용 사례가 보편화되었다. 인간의 작업을 보조할 정도로 기술이 발전한 덕분이다. 보통 AI와 로봇 등 기술이 공정하면서 객관적인 사고를 한다고 가정한다. 그런데 널리 사용되는 AI와 로봇을 선입견을 지닌 인간이 설계한다면 어떨까?

이에, 해외 온라인 매체 퓨처리즘이 조지아 공과대학교와 존스홉킨스대학교, 워싱턴대학교 연구팀의 합동 연구 논문을 인용, 로봇이 성별, 인종 등과 같은 기준으로 인간을 분류하는 차별을 일삼을 가능성을 경고했다.

연구팀은 AI와 로봇의 차별 문제를 경고하면서, 특히 오픈AI(OpenAI)의 이미지 인식 능력과 학습 능력, 연상 능력을 갖춘 AI 모델인 CLIP을 경고했다.

연구팀은 CLIP을 바탕으로 설계된 로봇이 인간의 얼굴을 본 뒤 인종에 따라 범죄자를 구분하도록 지시받았을 때, 백인 남성보다 흑인 남성을 범죄자로 분류할 확률이 10% 더 높다는 사실을 확인했다. 또한, 가정주부를 구분하라는 명령을 받았을 때는 백인 남성보다는 유색인종 여성을 선택할 확률이 높다는 점도 발견했다. 모두 소규모 샘플로 로봇을 훈련한 뒤 얻은 결과이다.

이번 연구 논문의 공동 저자인 조지아공과대학교 연구 펠로 앤드류 헌트(Andrew Hundt)는 “자칫하면 인종차별과 성차별을 일삼는 로봇을 개발할 수 있다. 그러나 인간과 기관은 로봇과 AI의 차별 문제를 해결하는 데 관심을 두지 않는다”라고 말했다.

연구팀은 문제의 원인으로 AI, 로봇 설계자의 문제라고 강조했다. 헌트 박사는 제대로 설계된 알고리즘에 인종에 따라 범죄자를 분류하라는 명령을 내리면, 알고리즘이 명령을 따르지 않는다는 사실을 발견했다.

실제로 연구팀이 경고한 성별, 인종 등 특정 기준에 따른 차별 문제는 과거에도 여러 차례 문제가 되었다.

과거, 영국 버밍엄대학교 연구팀은 안구 질환 진단 AI의 진단 정확도가 환자의 거주 국가, 인종에 따라 좌우될 수 있다는 사실을 발견했다. 당시 연구를 이끈 샤오수안 리우(Xiaoxuan Liu) 버밍엄대학교 교수는 국가, 인종에 따른 차별 때문에 알고리즘의 질병 진단 정확도와 효율성이 저하될 수 있다고 지적했다.

또한, 미국 비영리 의료 기관 매스제너럴브리검(Mass General Brigham)은 신장 건강을 판단하는 알고리즘이 신장 이식 수술자 대기 명단에 흑인 환자보다 백인 환자를 우선순위로 분류한다는 사실을 발견했다.

[저작권자ⓒ CWN(CHANGE WITH NEWS). 무단전재-재배포 금지]

최신기사

뉴스댓글 >

- 띄어 쓰기를 포함하여 250자 이내로 써주세요.
- 건전한 토론문화를 위해, 타인에게 불쾌감을 주는 욕설/비방/허위/명예훼손/도배 등의 댓글은 표시가 제한됩니다.

댓글 0

Today

Hot Issue