뉴욕 타임즈에 따르면 6월 27일 브리티시 데일리 메일 신문의 비디오에서 문제가 발생했습니다. Facebook은 대중의 항의의 결과로 AI의 작동을 평가하기 위해 사과하고 추천 기능을 비활성화했습니다.
이 사건은 AI가 복제하는 인종차별적 및 성차별적 행동의 긴 목록에 추가될 뿐입니다. 우리는 Facebook과 같은 소셜 미디어 사이트가 백인의 사진을 강조하면서 다른 인종을 한 번 이상 차별하는 방법에 대해 논의했습니다.
흑인과 백인이 말다툼을 하는 영장류에 대한 비디오가 사용자에게 추천되었습니다. 영국 언론의 보도에 따르면 백인 남성이 상대방에게 욕설을 퍼부어 경찰이 출동했다. 하지만 영상의 제목과 상관없이 페이스북은 영상이 끝난 후 “동영상을 계속 보고 싶다”는 메시지를 전했다. 영장류에 대해?”
데일리메일은 페이스북을 처음으로 비판했지만, 처음에는 잘못이 밝혀지지 않았다. 나중에 Facebook은 New York Times에 사과했습니다. “이전에 말했듯이 AI는 발전했지만 AI는 완벽하지 않고 해야 할 일이 더 있습니다.”
WhatsApp과 Instagram을 소유하고 있는 이 회사는 무슨 일이 일어났는지 조사하고 다시는 이를 방지하기 위해 핵심 소셜 네트워크에서 추천 기능을 비활성화했습니다.
기타 오류
“매일 우리는 인공 지능에만 의존하는 한계, 편견, 순전한 어리석음을 봅니다. 그럼에도 불구하고 우리는 계속해서 스스로를 기니피그가 되도록 허용하고 있습니다.”라고 New York Times의 사이버 보안 작가인 Nicole Perlroth는 이 예에 대해 말했습니다.
인공 지능은 인간이 서로 편향을 물려받는 경향이 있다는 규칙에서 예외가 아닙니다. 최근 몇 주 동안 Twitter도 이러한 현실에 직면해야 했습니다. Twitter의 스마트 알고리즘은 젊고 백인의 사진을 선호합니다.
인공 지능을 사용하는 프로그램은 기능을 훈련하기 위해 샘플 또는 매개변수 세트에 자주 의존하기 때문에 편향됩니다. 표본이 제한되어 있고 한 인종이나 성별의 이미지가 많이 포함되어 있으면 인공 지능이 이러한 기준에 맞지 않는 나머지 인류를 식별하기 어려울 것입니다.