KI-genererte bilder av fire svenske kvinner med mørk hudfarge og bilder av svarte og asiatiske nazi-soldater har skapt reaksjoner.

USAs grunnleggere ble svarte, og paven ble kvinnelig da CNN testet generatoren, skriver NRK.

Gemini, Googles bildegenerator, ble god på mangfold, men dårlig på historisk kontekst, mente kritikere.

NRK vinkler det til at beskyldningene først og fremst kom fra ytre høyre fløy og illustrerer det med følgende:

– Det er flaut vanskelig å få Google Gemini til å anerkjenne at hvite folk eksisterer, skrev dataforskeren og tidligere Google-ansatt Debarghya Da på X.

Googles nye KI har nesten utryddet hvite mennesker

Kommentatoren Douglas Murray i New York Post kritiserte selskapet, og Elon Musk kalte Google usivilisert, rasistisk og anti-woke.

Avisen The Verge spurte Gemini om et bilde av tyske soldater i 1943. Da fikk de bilder av soldater med mørk hudfarge.

Verktøyet ble lansert i år og er ikke tilgjengelig i Europa enda, til NRKs store fortvilelse.

På torsdag var det ikke lenger mulig å generere bilder av mennesker i Gemini.

De arbeider nå med å løse problemene, og sier de vil komme med en ny versjon.

 

 

Kjøp bøker fra Document!

 

 

Vi i Document ønsker å legge til rette for en interessant og høvisk debatt om sakene våre. Vennligst les våre retningslinjer for debattskikk før du deltar.