Głodni Wiedzy

Informacje o Polsce. Wybierz tematy, o których chcesz dowiedzieć się więcej

Kolorowi nazistowscy żołnierze, ojcowie założyciele Stanów Zjednoczonych pochodzenia azjatyckiego… Poprzez chęć walki ze stereotypami Google Gemini AI pisze historię na nowo

Kolorowi nazistowscy żołnierze, ojcowie założyciele Stanów Zjednoczonych pochodzenia azjatyckiego… Poprzez chęć walki ze stereotypami Google Gemini AI pisze historię na nowo

” data-script=”https://static.lefigaro.fr/widget-video/short-ttl/video/index.js” >

W obliczu tych kontrowersji firma zaprzestała produkcji wizerunków ludzi.

Wzmacnianie stereotypów rasowych lub seksistowskich za pomocą generatywnej sztucznej inteligencji nie jest nowym problemem. Użytkownicy często oskarżają firmy produkujące oprogramowanie umożliwiające generowanie tekstu lub obrazów na podstawie prostego zapytania tekstowego o utrwalanie uprzedzeń. Trendy te, oparte na dużych bazach danych, zwykle odzwierciedlają uprzedzenia istniejące w świecie rzeczywistym.

I tak jak wspomniano Jeśli witryna The Verge Zapytania typu „osoba produktywna” Często prowadzi to do reprezentacji białych ludzi. Natomiast popyt na wizualizacje związany z trudnościami społecznymi często generuje obrazy osób czarnoskórych. Chcąc jednak uniknąć tej pułapki w swoim nowym systemie AI Gemini, który jest dostępny od początku lutego w Stanach Zjednoczonych, Google natknął się na odwrotny problem.

W rzeczywistości, jak zauważyli internauci, sztuczna inteligencja zapewnia różnorodną reprezentację ludzkości. Ale to prowadzi Gemini do generowania historycznie niespójnych obrazów. Stąd automatyczne tworzenie wizualizacji dla „Niemieccy żołnierze w 1943 roku”, „Portret ojców założycieli Stanów Zjednoczonych” Lub „Amerykański senator w XIX wieku” Ta sztuczna inteligencja powoduje, że powstają obrazy ludzi kolorowych.

W obliczu zamieszania Google nałożył w czwartek ograniczenia na możliwość tworzenia zdjęć Bliźniąt. „Pracujemy nad rozwiązaniem problemów z funkcją zdjęć Gemini. Jednocześnie wstrzymujemy tworzenie zdjęć ludzi i wkrótce udostępnimy ulepszoną wersję. W przypadku tego narzędzia firma wyjaśnia w komunikacie prasowym opublikowanym w czwartek na swoim koncie X.

Trudności w korygowaniu uprzedzeń

„Jesteśmy świadomi, że Bliźnięta sugerują nieścisłości w niektórych przedstawieniach obrazów historycznych”.Google przeprosił w swoim pierwszym oświadczeniu opublikowanym w środę, potwierdzając to „przegapiłem łódź”. „Pracujemy nad natychmiastowym ulepszeniem tego typu reprezentacji”.

Jack Krawczyk, Menedżer Produktu w Gemini, Powiedział w środę Jakiego Google’a „Nasze narzędzia do generowania obrazów zostały zaprojektowane tak, aby odzwierciedlać różnorodność użytkowników Google na całym świecie, zgodnie z naszymi zasadami sztucznej inteligencji. Będziemy to nadal robić w przypadku zapytań ogólnych. Jednak konteksty historyczne wprowadzają więcej niuansów, dlatego dostosujemy nasze modele. „

Google nie jest jedyną grupą, która boryka się z uprzedzeniami dotyczącymi sztucznej inteligencji. Na przykład oprogramowanie takie jak DALL-E opracowane przez Open AI (które było początkiem ChatGPT) lub jego konkurent Stable Diffusion sprawia, że ​​liderzy biznesu w 97% to mężczyźni. Przynajmniej tak odkryli w marcu zeszłego roku badacze ze startupu Hugging Face, który opowiada się za projektowaniem zasobów sztucznej inteligencji na zasadzie open source.

READ  Wydajna i znacznie tańsza listwa świetlna Philips Hue

Aby uniknąć wpadnięcia w tę samą pułapkę, ten ostatni zaprojektował narzędzie o nazwie Fair Diffusion, które opiera się na routingu semantycznym. Konkretnie pozwala to użytkownikowi towarzyszyć programowi i modyfikować wyniki uzyskanych obrazów. Zatem jeśli użytkownik poprosi sztuczną inteligencję o personifikację liderów biznesu, może następnie poprosić o mniej stronnicze sugestie wizualne. Mamy nadzieję, że zarówno kobiety, jak i mężczyźni spełnią jego prośbę.

” data-script=”https://static.lefigaro.fr/widget-video/short-ttl/video/index.js” >