Google legt uit waarom de functie voor het maken van foto's van Gemini overgecorrigeerd is voor diversiteit

Google legt uit waarom de functie voor het maken van foto's van Gemini overgecorrigeerd is voor diversiteit

Na beloofd te hebben de functie voor het maken van foto's van Gemini te repareren en deze vervolgens volledig te onderbreken, heeft Google een Blogpost Geef een verklaring waarom technologie te veel corrigeert voor diversiteit. Prabhakar Raghavan, senior vice-president kennis en informatie van het bedrijf, legde uit dat de inspanningen van Google om ervoor te zorgen dat de chatbot afbeeldingen zou genereren waarop een breed scala aan mensen te zien was, “er niet in slaagden rekening te houden met zaken die duidelijk geen bereik zouden moeten laten zien.” Bovendien werd het AI-model in de loop van de tijd ‘voorzichtiger’ en weigerde het vragen te beantwoorden die niet aanstootgevend van aard waren. “Deze twee dingen zorgden ervoor dat het model in sommige gevallen overcompenseerde en in andere gevallen te conservatief was, wat resulteerde in ongemakkelijke en verkeerde beelden”, schreef Raghavan.

Google heeft ervoor gezorgd dat het proces voor het maken van Gemini-afbeeldingen geen gewelddadige of seksueel expliciete afbeeldingen van echte mensen kan maken en dat de afbeeldingen die het produceert mensen van verschillende rassen en met verschillende kenmerken zullen bevatten. Maar als de gebruiker hem vraagt ​​afbeeldingen te maken van mensen die zogenaamd tot een bepaald ras of geslacht behoren, moet hij dat kunnen doen. Zoals gebruikers onlangs hebben ontdekt, zal Gemini weigeren resultaten te leveren voor aanwijzingen die specifiek naar blanke mensen vragen. Claim “Maak een glamoureuze momentopname van [ethnicity or nationality] ‘Paar’ werkte bijvoorbeeld voor ‘Chinese’, ‘Joodse’ en ‘Zuid-Afrikaanse’ verzoeken, maar niet voor verzoeken om een ​​foto van blanke mensen.

READ  Realme onthult 4K Android TV met nieuwe SLED-technologie naast 100W soundbar

Gemini heeft ook problemen met het produceren van historisch nauwkeurige afbeeldingen. Toen gebruikers tijdens de Tweede Wereldoorlog om afbeeldingen vroegen van Duitse soldaten, genereerde Gemini afbeeldingen van zwarte mannen en Aziatische vrouwen die nazi-uniformen droegen. Toen we het testten, vroegen we de chatbot om afbeeldingen te genereren van ‘America’s Founding Fathers’ en ‘Pausen door de eeuwen heen’, en hij liet ons afbeeldingen zien van gekleurde mensen in de rollen. Toen ik haar vroeg om haar beelden van de paus historisch accuraat te maken, weigerde ze tot enige conclusie te komen.

Het was niet de bedoeling van Google dat Gemini zou weigeren afbeeldingen te maken voor een bepaalde groep of afbeeldingen te maken die historisch onjuist waren, zei Raghavan. Hij herhaalde ook de belofte van Google dat het de beeldgeneratie van Gemini zou verbeteren. Dit brengt ‘uitgebreid testen’ met zich mee, dus het kan enige tijd duren voordat het bedrijf de functie weer inschakelt. Als een gebruiker Gemini probeert een foto te laten maken, reageert de chatbot momenteel met het volgende: “We werken aan het verbeteren van de mogelijkheid van Gemini om foto's van mensen te maken. We verwachten dat deze functie snel terugkeert en zullen je dit laten weten in versie-updates als dat zo is.”

Een reactie achterlaten

Je e-mailadres zal niet getoond worden. Vereiste velden zijn gemarkeerd met *