미국에서 한 남성이 여자친구를 폭행, 위협하는 목소리 듣고 911에 신고

아마존의 인공지능(AI) 음성인식 비서 '알렉사(Alexa)'가 여자친구를 폭행하는 남성을 경찰에 신고했다.  

[컨슈머와이드-강진일 기자] 아마존의 인공지능(AI) 음성인식 비서 '알렉사(Alexa)'가 여자친구를 폭행하는 남성을 경찰에 신고했다.  

10일(이하 현지시간) CNN, 버즈피드 등에 따르면, 미국 뉴멕시코 주에 거주하는 에두아르도 바로스라는 남성은 지난 2일 자택에서 한 시간가량 경찰과 대치하다 경찰 특수기동대(SWAT)에 연행됐다.

바로스는 여자친구가 의심스러운 문자메시지를 받았다며 폭행을 가하고 권총으로 얼굴을 가격하며 죽여버리겠다고 협박해 경찰에 신고 당했다. 

이 폭행 사건이 911로 신고접수된 것은 누군가가 한 행동이 아니다. 바로스가 지속적으로 폭행을 하던 중 여자친구에게 '경찰에 전화했냐'고 물었고 그의 목소리로 인해 음성인식 장치가 작동돼 해당 폭행 사건이 911로 신고 접수된 것으로 보인다. 

경찰은 알렉사가 '경찰'과 '전화' 등 음성 단어를 '911에 신고하라'는 명령으로 인지해 실제 신고로 이어진 것으로 파악했다.

현지 경찰 관계자는 신기술이 예상치 못한 사건에서 사람의 생명을 구하는 응급 구조를 가능하게 했다며 '이 놀라운 기술 덕분에 폭력 상황을 중단시킬 수 있었다'고 말했다.

한편, 알렉사가 911에 신고한 메커니즘은 명확하게 판명되지 않았다. 통상 알렉사는 '알렉사, 컨트리 음악을 틀어줘'라고 명령어를 말해야 음성인식을 하고 움직인다. 또 아마존 측은 '알렉사에 911 신고 기능은 없다'고 밝혔다.

저작권자 © 컨슈머와이드 무단전재 및 재배포 금지