페이스북이 아동을 학대하거나 테러에 관련된 콘텐츠를 찾아내는 알고리즘을 공개했다.
1일(현지시간) 페이스북은 자사 블로그에 “디지털 해시를 통해 콘텐츠를 기존의 유해콘텐츠 데이터와 비교하는 기술을 깃허브에 공개한다.”고 말했다.
깃허브는 컴퓨터 프로그램 소스를 공유하고 협업하여 개발할 수 있는 버전 관리 시스템인 깃(Git)에 프로젝트 관리 지원 기능을 확장하여 제공하는 웹 호스팅 서비스이다.
이번에 공개된 알고리즘은 오픈소스이다. 오픈소스는 누구나 소프트웨어를 개량하고, 이것을 재배포할 수 있도록 하는 소프트웨어를 말한다.
페이스북은 “이 오픈소스는 콘텐츠가 업로드되었을 때, 콘텐츠 서비스플랫폼이 더욱 빠르게 유해 콘텐츠를 확인하고 제거할 수 있도록 도와준다.”면서, “다른 IT기업과 비영리단체, 개발자들이 이 오픈소스를 활용해 다른 유해한 콘텐츠를 확인하는데 도움이 되길 바란다.”고 밝혔다.
또한 “자체적으로 유해 콘텐츠 여과 기술을 활용 중인 기업들은 방어막을 두껍게 할 수 있다.”고 말했다.
전문가들은 오픈소스 공개의 이유를 페이스북이 유해 콘텐츠의 차단을 단독으로 처리하는 것에 한계가 있기 때문이라고 보고있다.
지난 3월 발생한 뉴질랜드 크라이스트처치 이슬람사원(모스크) 테러 사건에서 페이스북의 인공지능이 테러 실시간 중계영상을 식별해 차단하지 못하며, 상당기간 동안 해당 영상의 복사본과 캡처사진이 페이스북을 떠돌아다니기도 했다.
이후 페이스북은 다른 인터넷 플랫폼 등과 함께 유해 콘텐츠를 제거하고 협력 방안을 논의하기 위해 자원을 투입하겠다는 서약인 ‘크라이스트처치 콜’에 서명했다.
이러한 노력에도 지난 5월에는 페이스북의 인공지능이 여전히 테러관련 콘텐츠를 걸러내지 못하고, 의도치 않게 관련 콘텐츠까지 자동생성하고 있다는 내부고발이 나왔다.
당시 페이스북의 익명의 제보자로부터 소식을 접한 미국 워싱턴 소재 내부고발자센터(NWC)가 제보를 검증한 결과는 놀라웠다.
검증결과 이슬람 극단주의 무장세력인 '이슬람국가'(IS)와 알카에다 등이 페이스북에서 '공공연히' 활동하고 있는 것으로 나타났다. 특히 NWC는 페이스북의 인공지능이 많은 조회수와 '좋아요'를 받은 테러 관련 페이지에서 자동으로 '축하'와 '추억보기' 영상을 생성하고 있다고 밝혔다.
이에 대해 페이스북은 2년 전보다 훨씬 높은 성공률로 테러 관련 콘텐츠를 제거하고 있으며, 관련 기술에도 막대한 투자를 해 왔다고 해명했다.
실제로 페이스북은 지난 5월 말, 올해 1분기에 가짜 계정 22억개를 삭제했다고 밝혔다. 이러한 가짜 계정은 유해 콘텐츠를 생산하는 기반이 되는 것으로 알려졌다. 또한 페이스북 정책에 어긋난 730여 만건의 게시글과 사진도 삭제했다. 이 또한 직전 6개월 동안 삭제한 540만건보다 크게 증가한 수치였다.
이러한 결과를 밝히면서 마크 저커버그 페이스북 최고경영자(CEO)는 "유해콘텐츠의 보급에 대해 이해하는 것은 기업체와 정부가 이를 처리하기 위한 시스템을 설계하는데 도움이 될 것."이라는 견해를 밝혔다.
전문가들은 이번 페이스북의 오픈소스 공개가 5월에 밝힌 마크 저커버그의 견해를 반영한 것이라고 보고있다.