CWN(CHANGE WITH NEWS) - 美 연구팀 "로봇, 인종차별·남성우월주의 일삼는 기계로 변질될 수 있어" 경고

  • 흐림대구20.7℃
  • 박무백령도19.7℃
  • 흐림영주16.9℃
  • 비홍성19.2℃
  • 흐림진주17.7℃
  • 흐림장수15.9℃
  • 흐림고산23.5℃
  • 흐림보령19.8℃
  • 흐림인천21.2℃
  • 구름많음속초17.5℃
  • 흐림서청주18.9℃
  • 흐림울진18.5℃
  • 흐림김해시21.5℃
  • 흐림동두천18.3℃
  • 흐림봉화15.4℃
  • 흐림강진군17.8℃
  • 흐림안동18.6℃
  • 흐림동해18.6℃
  • 흐림정선군15.8℃
  • 흐림부안19.5℃
  • 흐림정읍18.5℃
  • 흐림파주18.2℃
  • 비창원20.8℃
  • 흐림군산19.6℃
  • 흐림인제15.9℃
  • 흐림강릉19.0℃
  • 흐림순창군18.3℃
  • 흐림구미19.6℃
  • 흐림북창원21.2℃
  • 흐림부여19.2℃
  • 비청주22.1℃
  • 흐림홍천18.5℃
  • 흐림울산21.4℃
  • 흐림고창19.1℃
  • 비광주19.1℃
  • 흐림거제19.8℃
  • 흐림진도군17.0℃
  • 흐림고창군18.2℃
  • 흐림영광군17.8℃
  • 흐림청송군16.3℃
  • 흐림거창17.7℃
  • 흐림서울21.1℃
  • 흐림원주19.3℃
  • 비여수19.4℃
  • 흐림서산18.9℃
  • 흐림추풍령18.3℃
  • 흐림완도17.6℃
  • 흐림순천16.9℃
  • 흐림북강릉17.5℃
  • 흐림보은17.7℃
  • 흐림함양군17.7℃
  • 흐림보성군18.3℃
  • 비대전19.3℃
  • 흐림합천19.0℃
  • 흐림북춘천17.9℃
  • 흐림광양시18.4℃
  • 흐림양평18.9℃
  • 흐림천안18.6℃
  • 흐림성산24.9℃
  • 비전주19.6℃
  • 흐림통영19.8℃
  • 흐림의령군17.7℃
  • 비서귀포24.6℃
  • 흐림수원20.3℃
  • 흐림남해17.1℃
  • 흐림밀양19.7℃
  • 흐림고흥18.2℃
  • 흐림강화18.5℃
  • 흐림영천18.9℃
  • 비제주22.6℃
  • 흐림포항21.6℃
  • 흐림의성18.5℃
  • 흐림흑산도17.9℃
  • 흐림대관령11.6℃
  • 흐림제천17.4℃
  • 흐림장흥17.5℃
  • 흐림춘천18.0℃
  • 흐림세종18.8℃
  • 흐림문경18.5℃
  • 흐림태백14.2℃
  • 흐림양산시22.5℃
  • 흐림상주18.8℃
  • 흐림금산18.0℃
  • 비목포17.2℃
  • 흐림남원17.6℃
  • 흐림임실17.6℃
  • 흐림이천18.8℃
  • 흐림영덕17.9℃
  • 흐림충주18.5℃
  • 흐림경주시19.2℃
  • 구름많음울릉도20.0℃
  • 비북부산22.0℃
  • 흐림철원17.1℃
  • 흐림영월17.2℃
  • 흐림해남17.7℃
  • 흐림산청17.7℃
  • 흐림부산22.6℃
  • 2025.10.03 (금)

美 연구팀 "로봇, 인종차별·남성우월주의 일삼는 기계로 변질될 수 있어" 경고

박채원 / 기사승인 : 2022-07-01 12:59:18
  • -
  • +
  • 인쇄

제조 시설과 유통 매장, 은행 업무, 치안 관리 등 일상 속 여러 분야에서 인공지능(AI)과 로봇 활용 사례가 보편화되었다. 인간의 작업을 보조할 정도로 기술이 발전한 덕분이다. 보통 AI와 로봇 등 기술이 공정하면서 객관적인 사고를 한다고 가정한다. 그런데 널리 사용되는 AI와 로봇을 선입견을 지닌 인간이 설계한다면 어떨까?

이에, 해외 온라인 매체 퓨처리즘이 조지아 공과대학교와 존스홉킨스대학교, 워싱턴대학교 연구팀의 합동 연구 논문을 인용, 로봇이 성별, 인종 등과 같은 기준으로 인간을 분류하는 차별을 일삼을 가능성을 경고했다.

연구팀은 AI와 로봇의 차별 문제를 경고하면서, 특히 오픈AI(OpenAI)의 이미지 인식 능력과 학습 능력, 연상 능력을 갖춘 AI 모델인 CLIP을 경고했다.

연구팀은 CLIP을 바탕으로 설계된 로봇이 인간의 얼굴을 본 뒤 인종에 따라 범죄자를 구분하도록 지시받았을 때, 백인 남성보다 흑인 남성을 범죄자로 분류할 확률이 10% 더 높다는 사실을 확인했다. 또한, 가정주부를 구분하라는 명령을 받았을 때는 백인 남성보다는 유색인종 여성을 선택할 확률이 높다는 점도 발견했다. 모두 소규모 샘플로 로봇을 훈련한 뒤 얻은 결과이다.

이번 연구 논문의 공동 저자인 조지아공과대학교 연구 펠로 앤드류 헌트(Andrew Hundt)는 “자칫하면 인종차별과 성차별을 일삼는 로봇을 개발할 수 있다. 그러나 인간과 기관은 로봇과 AI의 차별 문제를 해결하는 데 관심을 두지 않는다”라고 말했다.

연구팀은 문제의 원인으로 AI, 로봇 설계자의 문제라고 강조했다. 헌트 박사는 제대로 설계된 알고리즘에 인종에 따라 범죄자를 분류하라는 명령을 내리면, 알고리즘이 명령을 따르지 않는다는 사실을 발견했다.

실제로 연구팀이 경고한 성별, 인종 등 특정 기준에 따른 차별 문제는 과거에도 여러 차례 문제가 되었다.

과거, 영국 버밍엄대학교 연구팀은 안구 질환 진단 AI의 진단 정확도가 환자의 거주 국가, 인종에 따라 좌우될 수 있다는 사실을 발견했다. 당시 연구를 이끈 샤오수안 리우(Xiaoxuan Liu) 버밍엄대학교 교수는 국가, 인종에 따른 차별 때문에 알고리즘의 질병 진단 정확도와 효율성이 저하될 수 있다고 지적했다.

또한, 미국 비영리 의료 기관 매스제너럴브리검(Mass General Brigham)은 신장 건강을 판단하는 알고리즘이 신장 이식 수술자 대기 명단에 흑인 환자보다 백인 환자를 우선순위로 분류한다는 사실을 발견했다.

[저작권자ⓒ CWN(CHANGE WITH NEWS). 무단전재-재배포 금지]

최신기사

뉴스댓글 >

- 띄어 쓰기를 포함하여 250자 이내로 써주세요.
- 건전한 토론문화를 위해, 타인에게 불쾌감을 주는 욕설/비방/허위/명예훼손/도배 등의 댓글은 표시가 제한됩니다.

댓글 0

Today

Hot Issue