와우! 과학

“인공지능(AI), 이미 악용 단계 돌입” 전문가들 경고

작성 2018.02.22 18:19 ㅣ 수정 2018.02.22 18:19
페이스북 공유 트위터 공유 카카오톡 공유 네이버블로그 공유
세계 이슈 케챱 케챱 유튜브 케챱 틱톡 케챱 인스타그램
확대보기


미사일로 바뀐 드론(무인항공기)이나 여론을 조종하는 가짜 영상, 또는 자동화된 해킹 프로그램은 범죄자 손에 들어간 인공지능(AI)이 가져올 일부 위협에 지나지 않는다고 AI 분야 최고 전문가 26인이 경고하고 나섰다.

학계와 시민단체, 그리고 업계의 기관 14곳의 전문가 26명은 이달 이틀간 영국 옥스퍼드에서 ‘AI의 위험성’에 관한 워크숍을 가졌다.

그 결과를 바탕으로 한 ‘AI 악용 보고서’(The Malicious Use of Artificial Intelligence)는 불량 국가(테러지원국)나 범죄자, 또는 테러리스트들은 이미 AI를 악용할 수준에 있으며 그 기회는 무르익어가고 있다고 경고한다.

100쪽 분량의 이번 보고서에서 전문가들은 AI가 악용될 가능성이 가장 높은 분야로 디지털과 현실세계, 그리고 정치까지 3가지로 꼽았다.

이번 보고서에는 미국 비영리 AI 연구 단체 ‘오픈 AI’(Open AI)와 디지털권리 단체 ‘프런티어전자재단’(The Electronic Frontier Foundation), 그리고 미국 안보 싱크탱크 센터 ‘신미국안보센터’(Center for a New American Security)도 참여했다.

AI 시스템의 설계자들은 자신들이 개발하는 기술이 악용될 가능성을 줄이기 위해 지금까지 이상으로 노력해야만 한다고 말한다.

또 이번 보고서는 각 나라 정부가 새로운 법안을 검토해야만 한다고 주장한다.

보고서의 주된 제안은 다음과 같다.

  · 정책 입안자들과 기술 연구원들은 AI의 악용을 이해하고 대비하기 위해 협력한다.
  · AI는 긍정적인 면이 많지만, 양날의 검과 같은 기술임을 이해하고 연구자나 기술자들은 악용 가능성을 염두에 두고 이를 미리 적극적으로 대응해야 한다.
  · 컴퓨터 보안과 같이 양날의 검과 같은 기술을 오랫동안 취급해온 분야에서 모범 사례를 배워야 한다.
  · AI의 악용과 관련한 위험을 방지하고 완화하는 다양한 분야의 이해 관계자를 적극적으로 확충한다.

이번 보고서에 대해 영국 케임브리지대학 산하 실존적위험연구센터(CSER·Centre for the Study of Existential Risk)의 샤하르 아빈 박사는 BBC 뉴스와의 인터뷰에서 “먼 미래보다는 현재나 5년 안에 사용될 분야에 중점을 뒀다”고 말했다.

특히 우려되는 점은 ‘강화 학습’(reinforcement learning)으로 불리는 새로운 분야다. 인간의 예시나 지침이 없는 상태에서 AI는 초인적인 수준으로 지식을 습득한다.

아빈 박사는 가까운 미래에 AI가 어떻게 ‘악의적’으로 변할 수 있는지 몇 가지 가능한 시나리오를 공개했다.

  · 인간을 뛰어넘은 구글 딥마인드의 AI 바둑 프로그램 ‘알파고’와 같은 기술을 해커가 이용하면 데이터나 프로그램 코드의 패턴을 읽을 수 있다.
  · 범죄자가 드론을 구매해 얼굴 인식 기술을 탑재한 뒤 표적이 되는 사람을 공격할 수 있다.
 · ‘봇(bot)’이라는 자동게시프로그램을 이용해 실제 사람이 올린 것처럼 ‘가짜’ 영상을 유포해 정치적 여론을 조작할 수 있다.
 · 해커들은 목표물을 속이기 위해 음성 합성을 사용할 수 있다.

영국 옥스퍼드대 인류미래연구소의 마일즈 브런디지 연구원은 “AI는 시민과 조직, 그리고 국가 수준으로 위험 예측을 바꿀 것이다. 범죄자들은 AI에 인간 수준의 해킹이나 피싱 기술을 학습하게 하거나 사생활을 없애는 감시와 자료수집, 그리고 억압 기술을 기억하게 하는 등 안보에 엄청나게 큰 영향을 줄 것”이라고 우려했다.

이와 함께 “AI 시스템이 인간의 능력 수준에 도달하는 것뿐만 아니라 이를 크게 능가하는 경우는 많다”면서도 “초인적 해킹과 감시, 설득, 그리고 물리적 대상 식별에 더해 인간 이하이긴 하지만 인간의 노동력을 쓰는 것보다 훨씬 더 확장성이 있는 AI 능력의 영향은 성가시긴 하지만 필요하다”고 말했다.

CSER의 책임자로 보고서를 공동 집필한 숀 오아이기어태이그 박사는 “AI는 현재 상황을 단번에 바꿀 수 있다. 이 보고서는 앞으로 5~10년 동안 세계가 어떤 모습일지 예측한다”고 설명했다.

또 “우리는 AI의 악용에 매일 위험에 노출될 수도 있는 세상에서 살고 있다. 우리는 이 문제를 자신의 문제로 파악해야 한다”면서 “위험은 실제로 존재하기 때문”이라고 말했다.

이어 “지금 결정하지 않으면 안 되는 사안이 몇 가지 있다”면서 “이번 보고서는 전 세계의 정부와 기관, 그리고 개개인이 행동을 취하도록 촉구하는 것”이라고 덧붙였다.

사진=123rf.com

윤태희 기자 th20022@seoul.co.kr

추천! 인기기사
  • 女26명 살해하고 돼지먹이로 준 ‘최악의 연쇄 살인마’, 가
  • “다른 놈 만났지?”…아내 참수한 뒤 시신 일부 들고 돌아다
  • “나 아직 안죽었다”…보이저 1호 240억㎞ 거리서 ‘통신’
  • 신화 속 ‘용’ 실존?…2억 4000만년 전 ‘똑 닮은’ 화
  • 사방에 널린 시신들…사령관 방문 기다리던 러軍 65명, 한꺼
  • 우크라 조종사, F-16 전투기에 “아이폰 같다” 평가…이유
  • 나홀로 사냥…단 2분만에 백상아리 간만 쏙 빼먹는 범고래
  • 러, 지르콘 극초음속 미사일 알고보니 ‘종이 호랑이’?
  • 정체불명 ‘금속기둥’ 모노리스, 웨일스 언덕서 발견
  • 죄수 출신 바그너 용병들, 사면 후 고향 오자마자 또 성범죄
  • 나우뉴스 CI
    • 광화문 사옥: 서울시 중구 세종대로 124 (태평로1가 25) , 강남 사옥: 서울시 서초구 양재대로2길 22-16 (우면동 782)
      등록번호 : 서울 아01181  |  등록(발행)일자 : 2010.03.23  |  발행인 : 곽태헌 · 편집인 : 김성수
    • Copyright ⓒ 서울신문사 All rights reserved. | Tel (02)2000-9000