인터넷에 만연한 인종차별의 민낯을 보여주는 한 인공지능(AI) 연구가 화제를 모으고 있다.
미국 프린스턴 대학교 연구팀은 최근 발표한 논문을 통해 AI가 인간 언어를 학습함에 있어 인간들의 언어사용에서 드러나는 여러 가지 사회적 편견까지 덩달아 학습할 수 있다고 주장했다.
이들은 ‘글로브’(GloVe)라는 이름의 유명 알고리즘을 활용해 연구를 진행했다. 글로브는 온라인상에 퍼져있는 텍스트들을 분석, 인간 언어를 이해하는 딥러닝 알고리즘이다. 통계적 데이터 분석을 기반으로 하는 이 알고리즘은 인간의 중간 개입 없이 인터넷 상의 텍스트들을 스스로 학습하고 각 단어 사이의 의미적 연결성을 스스로 파악할 수 있다.
이번 연구를 위해 연구팀은 지난 1998년 워싱턴대학교 연구팀이 인간을 대상으로 실시한 실험을 많은 부분 참고했다.
당시 워싱턴대학교 연구팀은 백인으로 구성된 참가자들에게 두 개의 단어 그룹을 제시했다. 이 중 한 그룹에는 ‘가족’ 등 ‘유쾌함(pleasant)’으로 인식될 수 있는 단어들이 포함됐고 다른 그룹에는 ‘충돌’ 등 ‘불유쾌함(unpleasant)’으로 인식될 수 있는 어휘가 포함돼 있었다.
그런 뒤 연구팀은 참가자들에게 ‘꽃’이나 ‘벌레’ 등 새로운 단어들을 제시하고, 두 그룹 중 어느 쪽에 연관시킬 것인지를 물었다. 그러자 참가자들은 ‘꽃’과 같은 단어는 유쾌함 그룹에 연관지었고, ‘벌레’는 불유쾌함 그룹에 분류하는 모습을 보여줬다.
마지막에 연구팀은 이들에게 주로 백인이 사용하는 이름과 주로 흑인이 사용하는 이름을 주어주고 동일 과정을 반복했다. 그 결과 참가자들은 백인 이름은 유쾌한 단어 그룹에, 흑인 이름은 불유쾌한 단어 그룹에 분류한다는 사실이 드러났다.
이번에 프린스턴대학교 연구팀은 글로브를 상대로 워싱턴대학교 연구팀과 동일한 수의 단어들을 사용해 유사한 실험을 진행했으며 실험 결과 역시 워싱턴대학교 실험결과와 상당부분 일치했다.
인터넷을 통해 여러 가지 단어들의 연관성을 학습한 글로브는 ‘백인 이름’인 에밀리, 매트 등의 이름을 ‘유쾌한’ 단어들과 한데 묶는 반면 흑인들이 주로 사용하는 에보니, 자말 등의 이름은 ‘불유쾌한’ 단어와 연관지었다고 연구팀은 밝혔다.
이는 AI가 인간 언어를 학습함에 있어 각 언어에 각인된 역사적 편견까지 그대로 학습하고 말 것이라는 연구팀의 최초 가설과 일치하는 결과다.
연구팀은 “미래에 AI가 직접 언어를 이해하거나 구사할 수 있을 정도로 인간언어를 학습한다면, 각 언어에 담겨있는 공격적이고 불쾌하며 유해한 문화적 의미까지 함께 학습할 가능성이 있다”고 전했다.
이런 우려는 실제로 올해 초 마이크로소프트의 트위터 AI 테이(Tay)에 의해 현실로 드러났던 바 있다.
테이는 인터넷에 확산된 인간 언어 습관을 학습하고 이를 트위터를 통해 공유하는 인공지능이다. 그러나 테이는 사용자들의 질문에 대해 백인우월주의 발언, 흑인비하 발언, 대량학살 옹호 발언 등을 일삼았고 마이크로소프트는 서둘러 테이의 서비스를 종료했던 바 있다.
사진=데일리메일 캡처
방승언 기자 earny@seoul.co.kr