본문 바로가기

기타참고자료들

+ 경 고 - AI의 배신?···/ “인공지능(AI), 이미 악용 단계 돌입” 26명의 전문가들 경고

 

 

 

AI의 배신?··· "가짜뉴스 퍼트려 인간사회 공격할 수도"


“인공지능(AI), 이미 악용 단계 돌입” 전문가들 경고


입력 : 2018.02.22 18:19





미사일로 바뀐 드론(무인항공기)이나 여론을 조종하는 가짜 영상, 또는 자동화된 해킹 프로그램은 범죄자 손에 들어간 인공지능(AI)이 가져올 일부 위협에 지나지 않는다고 AI 분야 최고 전문가 26인이 경고하고 나섰다.


학계와 시민단체, 그리고 업계의 기관 14곳의 전문가 26명은 이달 이틀간 영국 옥스퍼드에서 ‘AI의 위험성’에 관한 워크숍을 가졌다.


그 결과를 바탕으로 한 ‘AI 악용 보고서’(The Malicious Use of Artificial Intelligence)는 불량 국가(테러지원국)나 범죄자, 또는 테러리스트들은 이미 AI를 악용할 수준에 있으며 그 기회는 무르익어가고 있다고 경고한다.
100쪽 분량의 이번 보고서에서 전문가들은 AI가 악용될 가능성이 가장 높은 분야로 디지털과 현실세계, 그리고 정치까지 3가지로 꼽았다.


이번 보고서에는 미국 비영리 AI 연구 단체 ‘오픈 AI’(Open AI)와 디지털권리 단체 ‘프런티어전자재단’(The Electronic Frontier Foundation), 그리고 미국 안보 싱크탱크 센터 ‘신미국안보센터’(Center for a New American Security)도 참여했다.


AI 시스템의 설계자들은 자신들이 개발하는 기술이 악용될 가능성을 줄이기 위해 지금까지 이상으로 노력해야만 한다고 말한다.


또 이번 보고서는 각 나라 정부가 새로운 법안을 검토해야만 한다고 주장한다.


보고서의 주된 제안은 다음과 같다.


  · 정책 입안자들과 기술 연구원들은 AI의 악용을 이해하고 대비하기 위해 협력한다.


  · AI는 긍정적인 면이 많지만, 양날의 검과 같은 기술임을 이해하고 연구자나 기술자들은 악용 가능성을 염두에 두고 이를 미리 적극적으로 대응해야 한다.


  · 컴퓨터 보안과 같이 양날의 검과 같은 기술을 오랫동안 취급해온 분야에서 모범 사례를 배워야 한다.


  · AI의 악용과 관련한 위험을 방지하고 완화하는 다양한 분야의 이해 관계자를 적극적으로 확충한다.


이번 보고서에 대해 영국 케임브리지대학 산하 실존적위험연구센터(CSER·Centre for the Study of Existential Risk)의 샤하르 아빈 박사는 BBC 뉴스와의 인터뷰에서 “먼 미래보다는 현재나 5년 안에 사용될 분야에 중점을 뒀다”고 말했다.


특히 우려되는 점은 ‘강화 학습’(reinforcement learning)으로 불리는 새로운 분야다. 인간의 예시나 지침이 없는 상태에서 AI는 초인적인 수준으로 지식을 습득한다.


아빈 박사는 가까운 미래에 AI가 어떻게 ‘악의적’으로 변할 수 있는지 몇 가지 가능한 시나리오를 공개했다.


  · 인간을 뛰어넘은 구글 딥마인드의 AI 바둑 프로그램 ‘알파고’와 같은 기술을 해커가 이용하면 데이터나 프로그램 코드의 패턴을 읽을 수 있다.


  · 범죄자가 드론을 구매해 얼굴 인식 기술을 탑재한 뒤 표적이 되는 사람을 공격할 수 있다.


 · ‘봇(bot)’이라는 자동게시프로그램을 이용해 실제 사람이 올린 것처럼 ‘가짜’ 영상을 유포해 정치적 여론을 조작할 수 있다.


 · 해커들은 목표물을 속이기 위해 음성 합성을 사용할 수 있다.


영국 옥스퍼드대 인류미래연구소의 마일즈 브런디지 연구원은 “AI는 시민과 조직, 그리고 국가 수준으로 위험 예측을 바꿀 것이다. 범죄자들은 AI에 인간 수준의 해킹이나 피싱 기술을 학습하게 하거나 사생활을 없애는 감시와 자료수집, 그리고 억압 기술을 기억하게 하는 등 안보에 엄청나게 큰 영향을 줄 것”이라고 우려했다.


이와 함께 “AI 시스템이 인간의 능력 수준에 도달하는 것뿐만 아니라 이를 크게 능가하는 경우는 많다”면서도 “초인적 해킹과 감시, 설득, 그리고 물리적 대상 식별에 더해 인간 이하이긴 하지만 인간의 노동력을 쓰는 것보다 훨씬 더 확장성이 있는 AI 능력의 영향은 성가시긴 하지만 필요하다”고 말했다.


CSER의 책임자로 보고서를 공동 집필한 숀 오아이기어태이그 박사는 “AI는 현재 상황을 단번에 바꿀 수 있다. 이 보고서는 앞으로 5~10년 동안 세계가 어떤 모습일지 예측한다”고 설명했다.


또 “우리는 AI의 악용에 매일 위험에 노출될 수도 있는 세상에서 살고 있다. 우리는 이 문제를 자신의 문제로 파악해야 한다”면서 “위험은 실제로 존재하기 때문”이라고 말했다.


이어 “지금 결정하지 않으면 안 되는 사안이 몇 가지 있다”면서 “이번 보고서는 전 세계의 정부와 기관, 그리고 개개인이 행동을 취하도록 촉구하는 것”이라고 덧붙였다.


사진=123rf.com


[출처: 서울신문 나우뉴스] 윤태희 기자 th20022@seoul.co.kr
http://nownews.seoul.co.kr/news/newsView.php?id=20180222601022§ion=&type=daily&page=

 




AI의 배신?··· "가짜뉴스 퍼트려 인간사회 공격할 수도"


송고시간 | 2018/02/21 15:26





(서울=연합뉴스) 신유리 기자 = 인공지능(AI)이 무서운 속도로 성장하면서 자칫 가짜뉴스를 퍼트리거나 사이버 공격을 가해 인간사회에 물리적으로 해를 끼칠 수 있다는 전문가 진단이 나왔다.


21일 영국 파이낸셜타임스(FT)에 따르면 AI 연구원, 학자, 시민단체 활동가 등 26명은 'AI의 악의적 활용' 보고서에서 AI가 현재와 같은 속도로 발전을 거듭하면 디지털 시스템의 방어망을 뚫을 정도로 금세 강력해질 수 있다고 경고했다.


미국 AI 연구 단체인 오픈AI(OpenAI)의 잭 클라크 대표는 "최근 5년간 많은 일이 일어났다는 데 충격을 받았다"면서 "이런 추세가 계속되면 정말로 위험한 일들이 발생할 가능성을 보게 될 것"이라고 말했다.


특히 AI는 해커의 사이버 공격을 손쉽게 만들어 스피어 피싱(악성 이메일로 개인정보 탈취)을 일으킬 우려도 제기됐다.


물리적 공격에서도 안심할 수 없다.


AI로 드론이나 자율주행 차량을 조종해 무기처럼 쓰거나, 선거에서 표심을 조작하는 온라인 선전 활동에도 AI가 투입될 수 있다고 보고서는 지적했다.


보고서는 AI의 위협을 놓고 공개 논의를 확대하고, 연구진이 AI의 이중적 활용도를 숙고하며, 각국 정부도 이러한 논의에 동참해야 한다고 제안했다.



<저작권자(c) 연합뉴스> newglass@yna.co.kr 2018/02/21 15:26 송고

http://www.yonhapnews.co.kr/international/2018/02/21/0619000000AKR20180221130900009.HTML