2021-07-27 18:40 (화)
페이스북, 미얀마 내의 잘못된 정보 및 혐오와 싸우기 위해 AI 사용
상태바
페이스북, 미얀마 내의 잘못된 정보 및 혐오와 싸우기 위해 AI 사용
  • 정원석 기자
  • 승인 2018.08.22 17:17
이 기사를 공유합니다

20180822091652338.jpg
▲페이스북이 60명 이상의 미얀마어 전문가를 고용해 자사 사이트에 업로드된 내용들을 더 세심하게 검토할 예정이다(출처=플리커)

페이스북(Facebook)이 최근 미얀마 로힝야족에 대한 잘못된 정보와 혐오 발언 등을 없애기 위해 인공 지능(AI)을 도입했다고 워싱턴 포스트가 보도했다.

페이스북은 최근 유엔, 인권 운동가들, 국회의원들로부터 비판을 받았다. 미얀마에서 발생한 위기를 완화하려는 페이스북의 역할이 제대로 이뤄지고 있지 않다는 것이다. 그 이후 페이스북은 조금 더 광범위한 방어 행동에 더 관여할 것이라고 말했다.

페이스북에는 미얀마 로힝야족에 대한 잘못된 정보, 혐오 발언 등이 업로드되고 있다. 이를 없애기 위해 페이스북 직원들이 미얀마를 직접 방문해 60명 이상의 미얀마어 전문가를 고용하고 자사 사이트에 업로드되는 미얀마어 게시물들을 검토할 계획이다. 페이스북 CEO 마크 저커버그는 혐오 발언, 이른바 '헤이트 스피치'를 없애기 위해 2018년 말까지 미얀마어 전문가 수를 100명으로 늘릴 것이라고 밝혔다.

페이스북의 제품 관리 담당자인 사라 수는 이런 이유 때문에 페이스북이 AI를 많이 사용한다고 말했다. 저커버그는 AI가 사람보다 많은 양의 게시물을 분석할 수 있으며 문제를 일으킬 소지가 있는 요소를 식별할 수 있다고 말했다. 앞으로 5~10년이 지나면 AI가 잘못된 정보와 헤이트 스피치를 정확하게 식별하게 될 것이다.

이 회사는 현재 미얀마에서 AI 기술을 테스트하고 있으며 정책 위반 가능성이 있는 게시물의 52%를 찾아냈다.