Store språkmodeller (Large language models, LLM) blir stadig mer en del av hverdagen vår – som chatboter, digitale assistenter og veiledere for internettsøk. Disse kunstige intelligenssystemene (KI) bruker enorme mengder tekstdata for å lære sammenhenger og kan produsere ulike typer skriftlig materiale når de blir bedt om det. De kan også føre samtaler med brukere på en imponerende måte. Med den økende bruken og innflytelsen til disse modellene, har de fått en stadig større betydning i samfunnet.
Derfor er det svært viktig at disse KI-systemene forblir nøytrale i forhold til politiske spørsmål. Men ifølge en ny analyse, nylig publisert i PLoS ONE, ser det dessverre ikke ut til å være tilfelle.
Les mer: Akademiske forfattere bekymret over Taylor & Francis og Microsofts KI-avtale
KI-forsker David Rozado fra Otago Polytechnic og Heterodox Academy gjennomførte 11 ulike tester for politisk orientering på 24 av de ledende språkmodellene, inkludert OpenAI’s GPT-3.5, GPT-4, Google’s Gemini, Anthropic’s Claude og Twitters Grok. Han fant at disse modellene gjennomgående har en politisk venstrevri.
“Det er bemerkelsesverdig at testresultatene er så homogene på tvers av språkmodeller utviklet av så mange forskjellige organisasjoner,” kommenterte Rozado.
Dette reiser et viktig spørsmål: Hvorfor er språkmodellene så universelt forutinntatte til fordel for venstreorienterte politiske synspunkter? Kan det være at utviklerne av disse modellene bevisst finjusterer KI-ene i denne retningen, eller er de massive datasettene de trenes på i seg selv forutinntatte? Rozado kunne ikke gi noe klart svar på dette spørsmålet.
“Resultatene av denne studien bør ikke tolkes som bevis på at organisasjonene som skaper språkmodeller, bevisst bruker finjusterings- eller forsterkningslæringsfasene til å tilføre politiske preferanser i modellene. Hvis politiske skjevheter blir introdusert i språkmodeller etter fortrening, kan de konsekvente politiske tendensene vi observerte, være et utilsiktet resultat av annotatorers instruksjoner eller dominerende kulturelle normer og atferd.”
Les mer: Legatum Publishing lanserer banebrytende lydbok: Hamsuns “Sult” med forfatterens KI-genererte stemme
Rozado understreket at det er viktig å sikre nøytralitet i språkmodeller fremover.
“Språkmodeller kan forme offentlig opinion, påvirke stemmegivning og påvirke den generelle samfunnsdebatten. Derfor er det avgjørende at vi kritisk undersøker og adresserer de potensielle politiske skjevhetene som kan være innebygd i språkmodeller, for å sikre en balansert, rettferdig og nøyaktig representasjon av informasjon i deres svar.”