이족보행 로봇에서부터 스마트폰의 대화형 어플리케이션까지, 현존하는 많은 인공지능 기술은 인간이 지닌 여러 능력을 그대로 구현하는 것을 목표로 개발되고 있다. 이번에는 유아 특유의 신속한 학습능력을 본뜬 새로운 인공지능이 만들어진 것으로 알려져 이목을 끈다.
미국 워싱턴대학교 컴퓨터공학과·발달심리학과 공동 연구팀이 미국 공공과학도서관저널 ‘플로스 원’(PLOS ONE) 11월 호에 연구논문을 싣고 인간 아이들의 학습방식을 모방한 새로운 인공지능 학습 알고리즘을 개발했다고 밝혔다.
이번 연구는 과거 워싱턴대학교 발달심리학과에서 생후 18개월 유아들을 대상으로 진행한 학습능력 연구를 반영해 이루어졌다. 해당 연구에서는 유아들이 관찰을 통해 성인의 동작에 담긴 목표를 유추해낸 뒤, 그 목표를 성취할 새로운 대안을 스스로 고안할 수 있다는 사실이 드러난 바 있다.
일례로 이 연구에서 어떤 어른이 단단히 결합된 장난감을 분해하려다가 실패하는 모습을 관찰한 한 아동은, 장난감이 본인에게 주어지자 그 끝 부분을 손으로 단단히 감아쥐고 힘껏 잡아당긴다는 전혀 다른 방법을 통해 어른이 본래 의도했던 ‘분해 동작’을 완수하려는 모습을 보여줬다.
해당 실험을 진행했던 심리학 박사 앤드류 멜조프에 따르면 인간 아동이 이런 분석을 할 수 있는 이유는 평소 직접 체험을 통해 각개 동작에 어떤 결과가 뒤따르는지에 대한 자료를 축적해 놓았기 때문이다. 이 정보를 참조해 타인의 동작을 분석하기 때문에 동작을 취한 사람의 본래 의도를 추론하는 일이 가능하다는 것이다.
이번에 공동 연구팀은 로봇에게도 이와 동일한 학습 알고리즘을 적용시켜 그 효과를 알아보았다. 즉, 로봇으로 하여금 먼저 다양한 동작을 스스로 시도해 각 동작의 결과를 ‘체험’하도록 한 뒤 이 지식을 바탕으로 타인의 동작에 담긴 의도를 분석할 수 있는지 여부를 관찰한 것.
이를 위해 연구팀은 인간 아동들에게 진행했던 것과 유사한 두 가지 실험을 진행했다. 첫 번째는 로봇의 ‘시선 분석능력’을 알아보는 실험이었다. 이 실험에서 로봇은 먼저 다양한 방식으로 머리를 움직여봄으로써 ‘머리가 움직이는 방식’에 대해 먼저 학습했다. 그 결과 로봇은 인간의 머리 동작을 관찰하는 것만으로 인간이 바라보려는 위치가 어딘지 알아내 같은 곳을 바라보는 모습을 보여줬다.
잇따른 실험에서는 로봇에게 눈가리개의 기능을 직접 체험시켜 그 역할을 깨닫게 했다. 그 뒤 눈가리개를 한 인간의 모습을 보여주자 로봇은 이전 실험과 달리 인간의 시선 방향을 파악하려 하지 않았다. 눈가리개를 한 인간이 사실상 아무것도 보지 못할 것이라는 점을 경험으로 깨달았기 때문이다.
두 번째로 진행한 ‘동작 흉내’ 실험에서 로봇은 인간이 사물을 이동시켜 테이블 위로 옮기는 과정을 관찰했다. 이 때 인간은 다양한 동작을 통해 사물을 옮겼는데 이를 본 로봇은 인간의 동작을 그대로 따라하는 대신 자신만의 방법을 통해 테이블 위로 물건을 옮김으로써 인간의 ‘의도’를 파악하는 모습을 보여줬다.
연구팀은 두 실험에서 로봇이 인간 아동들과 흡사한 학습방식을 구현해냈으나 아직은 갈 길이 멀다고 설명했다. 이들은 인간의 목표를 추론하고 단순한 동작만을 답습하는 현재의 수준에서 더 나아가 로봇에게 보다 복잡한 동작에 대한 학습 능력을 부여할 계획을 세우고 있다고 밝혔다.
멜조프는 “유아들은 스스로 동작을 체험을 한 뒤 타인의 동작을 관찰한다는 단순한 학습구조를 가지고 있는데, 이는 현존하는 가장 우수한 학습법”이라며 “인간 아이만큼 손쉽게 동작을 학습하는 로봇을 설계해볼 가치가 있다”고 전했다.
사진=ⓒ워싱턴 대학교
방승언 기자 earny@seoul.co.kr