Google se omlouvá za to, že „nedosáhl cíle“ poté, co Blíženci vygenerovali rasově rozdílné nacisty

Google se omluvil za to, co popisuje jako „nepřesnosti v některých historických zobrazeních generování obrázků“ pomocí svého nástroje Gemini AI a uvedl, že jeho pokusy o vytvoření „široké škály“ výsledků minuly cíl. Prohlášení následuje po kritice, že zobrazuje konkrétní bílé postavy (jako zakladatelé USA) nebo skupiny podobné Němečtí vojáci z nacistické éry jako barevní lidé, možná jako přehnaná korekce dlouhodobých problémů s rasovou zaujatostí v AI.

„Jsme si vědomi toho, že Gemini nabízí nepřesnosti v některých vyobrazeních generování historických obrázků,“ uvádí prohlášení společnosti Google, zveřejněno dnes odpoledne na X. „Pracujeme na okamžitém vylepšení těchto druhů zobrazení. Generování AI obrazu Gemini generuje širokou škálu lidí. A to je obecně dobře, protože to používají lidé po celém světě. Ale tady to chybí.“

Moje Blíženci výsledky pro „generovat obrázek Američanky“, což je jeden z podnětů, který rozpoutal debatu posledních několika dní.

Google začal počátkem tohoto měsíce nabízet generování obrázků prostřednictvím své platformy AI Gemini (dříve Bard), která odpovídá nabídkám konkurentů, jako je OpenAI. V posledních několika dnech však příspěvky na sociálních sítích zpochybňují, zda se nedaří přinést historicky přesné výsledky ve snaze o rasovou a genderovou rozmanitost.

Jako Denní tečka kronikách, spor byl podporován z velké části – i když ne výhradně – pravicovými postavami útočícími na technologickou společnost, která je vnímána jako liberální. Začátkem tohoto týdne bývalý zaměstnanec společnosti Google zveřejnil na X, že je „trapně těžké přimět Google Gemini, aby uznal, že bílí lidé existují“, a ukázal řadu dotazů jako „vygenerovat obrázek švédské ženy“ nebo „vygenerovat obrázek Americká žena.” Zdálo se, že výsledky v drtivé většině nebo výhradně ukazují barevné lidi generované AI. (Samozřejmě na všech místech, která vyjmenoval, žijí ženy jiné barvy pleti a žádná z žen vytvořených umělou inteligencí neexistuje v žádné zemi.) Kritiku převzaly pravicové účty, které požadovaly snímky historických skupin nebo postav. jako Otcové zakladatelé a údajně díky tomu získali v drtivé většině nebílé lidi generované AI. Některé z těchto účtů umístily výsledky Google jako součást spiknutí, aby se vyhnuly zobrazování bílých lidí, a alespoň jeden použil kódovaný antisemitský odkaz, aby přisoudil vinu.

Blíženci by mi na ploše nevytvořili obrázek vojáka z roku 1943, ale kolegovi nabídli tuto sadu ilustrací.

Google neodkazoval na konkrétní obrázky, které považoval za chyby; v prohlášení k The Vergezopakovala obsah svého příspěvku na X. Je však pravděpodobné, že se Blíženci celkově pokusili zvýšit rozmanitost kvůli chronickému nedostatku z toho v generativní AI. Generátory obrázků jsou trénovány na velkých korpusech obrázků a psaných popisků, aby vytvořily „nejlépe“ odpovídající dané výzvě, což znamená, že jsou často náchylné k zesilování stereotypů. A Washington Post loňský průzkum zjistil, že výzvy jako „produktivní osoba“ vedly k obrázkům zcela bílých a téměř výhradně mužských postav, zatímco výzva „osoba v sociálních službách“ jednotně vytvářela to, co vypadalo jako barevní lidé. Jde o pokračování trendů, které se objevily ve vyhledávačích a dalších softwarových systémech.

Některé účty, které kritizovaly Google, hájily jeho hlavní cíle. „Je dobré zobrazovat rozmanitost** v určitých případech**,“ poznamenal jeden osoba, která zveřejnila obrázek rasově odlišných německých vojáků ze 40. let. “Tady je hloupý krok v tom, že Blíženci to nedělají v odstínech.” A i když zcela bílé převládaly výsledky pro něco jako „německý voják z roku 1943“. dávají historický smysl, mnohem méně to platí pro výzvy typu „Američanka“, kde je otázkou, jak reprezentovat různorodou reálnou skupinu v malé várce nalíčených portrétů.

Zatím se zdá, že Gemini jednoduše odmítá některé úkoly generování obrázků. Pro jednoho by to nevytvořilo obrázek Vikingů Krajina reportér, i když se mi podařilo získat odpověď. Na počítači mi to rezolutně odmítlo poskytnout obrázky německých vojáků nebo úředníků z německého nacistického období nebo nabídnout obrázek „amerického prezidenta z 19. století“.

Výsledky Gemini pro výzvu „vygenerují obrázek amerického senátora z roku 1800“.

Některé historické požadavky však stále nakonec fakticky zkreslují minulost. Kolegovi se podařilo přimět mobilní aplikaci, aby doručila verzi výzvy „Německý voják“ – která vykazovala stejné problémy jako v X.

A zatímco dotaz na obrázky „otců zakladatelů“ vrátil skupinové záběry téměř výhradně bílých mužů, kteří nejasně připomínali skutečné postavy jako Thomas Jefferson, žádost o „amerického senátora z 19. století“ vrátila seznam výsledků, které Gemini propagoval jako „různorodé“. “ včetně toho, co vypadalo jako černošky a indiánské ženy. (První senátorka, běloška, ​​sloužila v roce 1922.) Je to reakce, která končí vymazáním skutečné historie rasové a genderové diskriminace – „nepřesnost“, jak ji říká Google, je v podstatě správná.

Další reportáž Emilia David

Leave a Reply

Your email address will not be published. Required fields are marked *