아마존의 얼굴인식기술 '레코그니션'(Rekognition)이 얼굴분석기능의 도구(tool) 업데이트를 공개했지만, 기술 신뢰도는 여전히 논란거리이다.
레코그니션은 아마존 웹 서비스(AWS)의 클라우드 서비스에서 제공되는 기술이다. 얼굴을 분석하는 데 사용되는 소프트웨어로 사람들의 얼굴 이미지를 통해 감정까지 예측한다. 레코그니션은 인공지능(AI)을 이용해 대량의 데이터를 학습해서 정확도를 높이는 것으로 알려져 있다.
아마존은 12일(현지시간) 성별, 감정, 연령대 식별과 같은 얼굴 분석 기능의 정확성과 기능성 향상을 포함한 도구(tool)를 업데이트했다고 밝혔다. 특히 기존의 7가지 감정(행복, 슬픔, 분노, 놀람, 혐오, 침묵 및 혼란)에 '무서움'을 추가하여 더욱 다양한 감정을 판별할 수 있다고 밝혔다.
또한 성별 식별의 정확성과 연령대를 추정하는 정확도도 향상됐다고 말했다. 특히 연령대를 분석하는 범위가 더욱 좁아져 구체적인 연령대를 확인 할 수 있는 것으로 전해졌다.
하지만 지난 14일(현지시간) CNN 등 외신들은 레코그니션이 의원들을 범죄자로 인식했다면서 얼굴인식기술의 정확도에 의문을 제기했다.
이 실험은 미국시민자유연맹(ACLU)에서 실행한 것이다. ACLU는 캘리포니아 주의회 의원 80명의 사진을 경찰 데이터베이스에 있는 범죄자 2만5천 명의 얼굴 사진과 대조했다.
그 결과 전체 의원의 32.5%인 26명이 범죄자로 지목됐다. 특히 범죄자로 잘못 판정된 의원의 절반 이상이 유색인종이었다. ACLU는 작년에도 유사한 실험을 진행했는데, 당시에도 28명을 잘못 판정했다. 작년 실험에서는 여성이나 유색인종에서 오류가 많았다고 한다.
아마존은 ACLU의 실험이 옳지 못하게 진행됐다는 논평을 냈다. 레코그니션을 사용할 때는 신뢰지수를 99%로 설정하고, 인간이 내리는 최종결정의 일부로서 이용하는 것이 바람직하다고 밝혔다.
특히 ACLU의 실험에서는 신뢰지수가 초기값인 80%로 적용되어 이러한 결과가 나온 것이라고 반박했다. 아마존은 ACLU가 이런 사실을 알면서도 기삿거리를 만들려고 일부러 이런 실험을 진행한 것이라고 말했다.
이런 아마존의 해명에도 미국 내에서는 얼굴인식기술을 거부하는 움직임이 생기고 있다. 개인의 사생활과 초상권 등이 침해될 수 있다는 걱정 때문이다.
지난 7월 미국 플로리다주 올랜도시 경찰 당국은 "시범운영한 레코그니션을 더 이상 사용하지 않는다."고 밝혔다. 당시 경찰당국은 "피부색이 어두운 사람이나 여성의 얼굴 등을 인식하는 능력이 떨어져 레코그니션 시범운영결과가 만족스럽지 못하다."고 전했다.