[KOSEN 동향] 음성인지형 인공지능 소프트웨어의 보안취약점 노출

음성인지형 인공지능 소프트웨어의 보안취약점 노출

Researchers develop way to turn commands into voice-activated AI software


미국과 중국의 연구팀들이 IBM과 공동으로 최근 인기를 끌고 있는 음성인식 인공지능 가상비서에 대한 잠재적인 보안위협을 조사한 것으로 나타나 인공지능을 탑재한 디지털 기기에 대한 보안성 실태를 살펴보고자 한다.


상기 연구팀은 인기 있는 음악들에 내재한 실행 명령을 은밀하게 실행하여 음성인식 시스템을 활성화할 수 있는 새로운 방안을 발견하였다고 한다. 이러한 음성인식 시스템의 핵심 부분은 심층학습으로서 컴퓨터 시각기술과 마찬가지로 음성기반의 가상비서에 악용될 수 있을 것으로 예상하고 있다.


이러한 적대적 혼란(adverarial perturbation)이 기기학습을 비롯한 인공지능 시스템을 우회하여 잘못된 정보를 식별하여 잘못된 지시를 내리게 만드는데 사용될 수 있는 것으로 나타났는데, 특히 최근 인기를 끌고 있는 인공지능 가상비서에도 활용될 수 있을 것으로 예상하고 있다.


이번 연구를 통해 위와 같은 사이버 공격이 실제 발생 가능하다는 것을 보여주었을 뿐 아니라 체계적인 공격으로 실제 수행될 수 있음이 확인되었다 볼 수 있겠다. 실제 특정 음악에 음성명령을 삽입하는 실험을 통해 라디오, 텔레비전, 스마트폰과 같은 휴대용 기기에 설치된 모든 미디어 플레이어를 통해 음성명령이 퍼져나갈 수 있음이 확인되었으며, 수백만 명의 사용자에게 영향을 미칠 수 있는 것으로 나타났다고 한다.


상기 실험에서 약 95%의 성공률을 거둔 연구팀은 임의의 노래에 어떠한 명령어를 만들어 수정하는 행위는 파악하기가 어렵다는 점을 언급하면서 인공지능형 가상비서에 대한 새로운 사이버 공격의 대비책이 필요할 것으로 예상되는 시점이다.


관련연구자:

관련기관: IBM

본문키워드(한글): 음성 인식, 인공지능 소프트웨어, 심층 학습, 적대적 혼란

본문키워드(영문): voice recognition, AI software, deep learning, adverarial perturbation

국가: 미국

원문출판일: 2018-01-30

출처: https://www.computing.co.uk/ctg/news/3025603/researchers-develop-way-to-turn-commands-into-voice-activated-ai-software