사이언스 일반

AI가 놀랄 정도로 인종·성차별주의적인 이유 (MIT 연구)

작성 2018.11.19 17:40 ㅣ 수정 2018.11.20 09:10
페이스북 공유 트위터 공유 카카오톡 공유 네이버블로그 공유
세계 이슈 케챱 케챱 유튜브 케챱 틱톡 케챱 인스타그램
확대보기
▲ 123rf.com
인공지능(AI)가 놀라울 정도로 성차별적, 인종차별적 성향을 가지고 있다는 연구결과가 나왔다.

미국 매사추세츠공과대학(MIT) 연구진은 AI를 구성하는 다양한 시스템을 분석한 결과, AI가 여성과 소수민족 등에 대한 부정확한 정보를 제공한다는 사실을 밝혀냈다.

예컨대 연구진이 AI를 이용하는 소득예측시스템을 점검한 결과, AI가 여성근로자를 저소득층으로, 남성근로자를 고소득층으로 분류하는 비율이 그 반대보다 2배 더 높은 것으로 나타났다.

이후 연구진이 AI 시스템에 내장돼 있는 데이터 세트(data set, 컴퓨터의 데이터 처리에서 한 개의 단위로 취급하는 데이터의 집합)를 10% 증가시켰더니, 위의 사례처럼 편향적으로 분류하는 실수가 40% 감소하는 것을 확인했다.

또 중환자실에 있는 환자의 사망률을 예측하는 AI의 경우, 아시아 환자에 대한 예측에서 덜 정확한 예측 결과를 내놓는 것을 확인했다.

연구진은 AI가 이처럼 성차별적 또는 인종차별적 오류를 범하는 것이 데이터 세트의 부족 때문이며, 이는 더 나은 데이터가 더 정확한 결과를 내놓는다는 것을 입증하는 사례라고 설명했다.

즉 AI가 단순히 데이터의 양이나 뛰어난 알고리즘뿐만 아니라, 다양한 분야에서 가져온 양질의 데이터를 내장하고 있지 않으면 인종차별적이고 성차별적인 결과를 내놓을 가능성이 높다는 것.

연구를 이끈 데이비드 손탁 교수와 박사 후 과정 연구원인 아이린 첸은 “과학자들은 이러한 시스템의 편향을 줄이는 방법이 단순히 더 나은 알고리즘을 설계하는 것이라고 생각한다. 하지만 알고리즘만큼이나 우수한 데이터를 사용한다면, 더욱 다른 결과를 가져올 수 있다는 사실이 입증됐다”고 설명했다.

이어 “데이터의 양 만큼이나 중요한 것은 데이터의 품질이다. 만약 기존의 방식대로 시스템을 유지한다면 결과물들의 정확도는 더 낮아질 것”이라면서 “‘소외그룹’( under-represented group)으로부터 더 많은 데이터를 수집하는 것이 좋다”이라고 덧붙였다.


이번 연구결과는 오는 12월 몬트리올에서 열리는 신경정보처리시스템학회(Neural Information Processing Systems)에서 발표될 예정이다.

사진=123rf.com

송현서 기자 huimin0217@seoul.co.kr

추천! 인기기사
  • “포기란 없다”…비트코인 ‘7600억원 어치’ 실수로 버린
  • “나 아직 안죽었다”…보이저 1호 240억㎞ 거리서 ‘통신’
  • 나홀로 사냥…단 2분만에 백상아리 간만 쏙 빼먹는 범고래
  • 美 언론 “KF-21 공중급유 첫 성공, 인상적인 속도로 발
  • 죄수 출신 바그너 용병들, 사면 후 고향 오자마자 또 성범죄
  • 정체불명 ‘금속기둥’ 모노리스, 웨일스 언덕서 발견
  • 노브라로 자녀 학교 간 캐나다 20대 엄마 “교사가 창피”
  • 푸틴, 피눈물 나겠네…“‘1조 160억원 어치’ 러軍 전투기
  • 우크라도 ‘용의 이빨’ 깔며 방어전 돌입…전쟁 장기화 양상
  • “감사하다”…인도서 8명에 집단 강간 당한 女관광객, 얼굴
  • 나우뉴스 CI
    • 광화문 사옥: 서울시 중구 세종대로 124 (태평로1가 25) , 강남 사옥: 서울시 서초구 양재대로2길 22-16 (우면동 782)
      등록번호 : 서울 아01181  |  등록(발행)일자 : 2010.03.23  |  발행인 : 곽태헌 · 편집인 : 김성수
    • Copyright ⓒ 서울신문사 All rights reserved. | Tel (02)2000-9000