Facebook po raz kolejny pokazał, że jego systemy sztucznej inteligencji nie są doskonałe. Tym razem ofiarą błędu padło Muzeum Pamięci Auschwitz, którego zdjęcia ofiar Holocaustu zostały oznaczone jako naruszające standardy społeczności.
Co się stało?
Sztuczna inteligencja Facebooka błędnie oznaczyła 20 zdjęć opublikowanych przez Muzeum Auschwitz jako naruszające standardy społeczności. Zdjęcia przedstawiały ofiary obozu koncentracyjnego, w tym sieroty. Algorytm błędnie uznał je za „znęcanie się i molestowanie” oraz „nagość dorosłych i aktywność seksualną”.
Reakcja Muzeum
Muzeum zareagowało z oburzeniem na to wydarzenie. W oświadczeniu instytucja podkreśliła, że podobne treści były publikowane na Facebooku bez żadnych problemów przez wiele lat. Muzeum zażądało również natychmiastowego wyjaśnienia sytuacji i przejrzystego wyjaśnienia, dlaczego zdjęcia zostały oznaczone jako naruszające standardy.
Meta przeprasza
Meta, firma macierzysta Facebooka, przeprosiła za pomyłkę. Firma wyjaśniła, że powiadomienia o naruszeniu regulaminu wysłane do muzeum zostały wysłane omyłkowo. Zdjęcia sierot, które zostały usunięte, zostały przywrócone.
Komentuj i udostępniaj!
To wydarzenie pokazuje, że systemy sztucznej inteligencji nie są doskonałe i mogą popełniać poważne błędy. Ważne jest, abyśmy o tym pamiętali i byli krytyczni wobec informacji, które otrzymujemy z mediów społecznościowych.
Udostępnij ten post, aby zwrócić uwagę na ten problem i pomóc w walce z dezinformacją.