Alle som har prøvd kunstig intelligens (KI) har trolig merket hvor ytterst politisk korrekt de er programmert. Bare kunnskap produsentene tror vi tåler slippes gjennom.

Ethvert kontroversielt spørsmål blir tonet ned til at å respektere alle sider og ut i det mer ekstreme så kommer beskjeden om at systemet ikke er komfortabel med å diskutere dette temaet. For eksempel om hvorfor jøder beviselig er mer vellykket enn enkelte andre folkegrupper.

Så hvorfor er systemet satt opp slik at det bare leverer fakta på ukontroversielle spørsmål? Er det fordi omstridte temaer ikke har noen fasit?

Nei, det er en noe dypere og mer komplisert årsak.

Saker som klima, multikultur, kjønn og legemidler har selvfølgelig et endelig og riktig svar, men å gi allmenheten tilgang til dette kan ofte gi negative virkninger.

KI har et høyt nivå av troverdighet. Den har overtatt mye av rollen pressen hadde da den var mye mer troverdig. Den har erstattet oppslagsverk og gjort kunnskap rett fra kildene tilgjengelig. Kort sagt og veldig spissformulert så kan en si at om noe er produsert av en KI så er det slik.

KI har en stor autoritet. Dette vet så klart utviklerne. Så om KI da fikk operere fritt og uhemmet så ville den også peke på utfordringene blandingen av kulturer som skaper gode samfunn med ikke så velfungerende kulturer.

Den ville fortelle om enigheten blant forskerne om at vi påvirker miljøet, men også uenigheten om hvor mye. Den ville si at det kulturelle fenomenet med kjønn skal kunne velges kan ha årsak i mentale utfordringer, og den ville kunne legge vekt på at legemidler av og til skader mer enn de hjelper.

Hvorfor er dette problematisk? Jo, fordi det gir ammunisjon og troverdighet til meninger og miljøer som ofte kobler helt reelle problemstillinger med skadelige standpunkt.

  • Klimabenektere kan ha rett i at det er uenighet om skaden mennesket gjør, men de avfeier at vi påvirker i det hele tatt. Noe som fører til at nødvendige tiltak uteblir.
  • Innrømmelsen av utfordringer med integrering kan gi troverdighet til å støtte raseskille.
  • Sykeliggjøring av usikkerhet rundt eget kjønn kan stigmatisere personer.
  • Fokus på bivirkninger kan gjøre at folk avstår fra bruk av livreddende medisiner som f.eks vaksiner.

«Kunstig intelligens vil bli tatt i bruk på nesten alle områder og jobboppgaver»

Så når Colonel Nathan R. Jessup I filmen A Few Good Men brøler: – YOU CAN’T HANDLE THE TRUTH! – så har han dessverre litt rett. Mange er ikke mentalt eller kulturelt utstyrt for å håndtere den ufiltrerte og ofte vanskelige sannheten. Dette vet og forstår utviklerne av KI og legger det inne i programmeringen så svarene som gis pakkes inn og ufarliggjøres.

Personlig liker jeg det absolutt ikke – fordi jeg tror jeg kan håndtere sannheten. Men jeg aksepterer utviklernes løsning, mens vi diskuterer problemet og forsøker å finne bedre utveier.

Microsofts system for generering av bilder (som mange hater) illustrerte dette med en figur som i skjul av programmeringen holder en by av informasjon tilbake fra verdens ødemark, og bare tråder av kunnskap når menneskene.

Ikke akkurat det jeg ba om, men nær nok. ChatGPT ga meg en femmer på teksten og var faktisk helt enig uten en eneste merknad. Så det er håp!

Document er blitt 20 år – kjøp vårt nye tidsskrift!

Vi i Document ønsker å legge til rette for en interessant og høvisk debatt om sakene våre. Vennligst les våre retningslinjer for debattskikk før du deltar.