미국 매사추세츠공과대학(MIT) 연구진은 AI를 구성하는 다양한 시스템을 분석한 결과, AI가 여성과 소수민족 등에 대한 부정확한 정보를 제공한다는 사실을 밝혀냈다.
예컨대 연구진이 AI를 이용하는 소득예측시스템을 점검한 결과, AI가 여성근로자를 저소득층으로, 남성근로자를 고소득층으로 분류하는 비율이 그 반대보다 2배 더 높은 것으로 나타났다.
이후 연구진이 AI 시스템에 내장돼 있는 데이터 세트(data set, 컴퓨터의 데이터 처리에서 한 개의 단위로 취급하는 데이터의 집합)를 10% 증가시켰더니, 위의 사례처럼 편향적으로 분류하는 실수가 40% 감소하는 것을 확인했다.
또 중환자실에 있는 환자의 사망률을 예측하는 AI의 경우, 아시아 환자에 대한 예측에서 덜 정확한 예측 결과를 내놓는 것을 확인했다.
연구진은 AI가 이처럼 성차별적 또는 인종차별적 오류를 범하는 것이 데이터 세트의 부족 때문이며, 이는 더 나은 데이터가 더 정확한 결과를 내놓는다는 것을 입증하는 사례라고 설명했다.
즉 AI가 단순히 데이터의 양이나 뛰어난 알고리즘뿐만 아니라, 다양한 분야에서 가져온 양질의 데이터를 내장하고 있지 않으면 인종차별적이고 성차별적인 결과를 내놓을 가능성이 높다는 것.
연구를 이끈 데이비드 손탁 교수와 박사 후 과정 연구원인 아이린 첸은 “과학자들은 이러한 시스템의 편향을 줄이는 방법이 단순히 더 나은 알고리즘을 설계하는 것이라고 생각한다. 하지만 알고리즘만큼이나 우수한 데이터를 사용한다면, 더욱 다른 결과를 가져올 수 있다는 사실이 입증됐다”고 설명했다.
이어 “데이터의 양 만큼이나 중요한 것은 데이터의 품질이다. 만약 기존의 방식대로 시스템을 유지한다면 결과물들의 정확도는 더 낮아질 것”이라면서 “‘소외그룹’( under-represented group)으로부터 더 많은 데이터를 수집하는 것이 좋다”이라고 덧붙였다.
이번 연구결과는 오는 12월 몬트리올에서 열리는 신경정보처리시스템학회(Neural Information Processing Systems)에서 발표될 예정이다.
사진=123rf.com
송현서 기자 huimin0217@seoul.co.kr