영화와 같은 일이 실현될 날이 멀지 않은 것 같다. 최근 MIT미디어랩이 사람을 마음을 읽을 수 있는 안경을 개발했다.
이 안경에는 카메라가 탑재돼 있어 ‘웃음’ , ‘눈썹 움직임’ , ‘입술 움직임’ 등 대화하는 상대방의 24가지 얼굴 표정을 잡아낼 수 있다. 이 얼굴 표정속에 드러나는 움직임이 대화하는 상대방의 본심을 드러내고 있다는 것.
이같은 사람 표정 속에 드러나는 신호를 기술적으로 읽어내려고 시도한 연구자는 캠브리지 대학의 레나 칼유비 박사다. 레나 박사는 감정적인 교류가 어려운 자폐증 환자를 연구해 왔는데 실험에 의해 사람 표정 속에 드러나는 심리상태를 면밀히 조사했다.
그 결과 레나 박사는 얼굴 표정 속에 나오는 사람의 심리상태를 ‘생각중’, ‘동의’, ‘걱정’, ‘혼란’, ‘흥미’, ‘비동의’ 등 6가지로 분류해 소프트웨어를 완성했으며 여기에 MIT미디어랩의 기술이 더해져 이같은 안경을 개발하게 됐다.
작동 구조는 간단하다. 카메라가 장착된 안경은 대화하는 상대방의 표정을 읽어내 컴퓨터로 보내고 컴퓨터는 소프트웨어를 구동해 모니터에 신호등 같은 신호로 상대방의 본심을 보여주게 된다.
이같은 기술로 최근 창업한 연구팀은 “이 기술은 개인적으로는 절대 사용해서는 안된다.” 며 “상대방의 동의하에 마케팅 용으로 사용될 예정” 이라고 밝혔다.
서울신문 나우뉴스부 nownews@seoul.co.kr