Googles AI pekade ut pappan som brottsling
Alla riskerar att smutskastas
Jag har en vän vars pappa på 90-talet satt som domare under ett mycket uppmärksammat rättsfall. När hon för några veckor sen sökte på fallet och sin fars namn fick hon – som alla får i dag – först upp Googles AI-sammanfattning. Där stod det att det var hennes pappa som begått brottet, att han genomgått rättspsykiatrisk undersökning och dessutom att han hade ”grava alkoholproblem”, lögn det också.
Det fanns en länk att klicka på för att anmäla eventuella fel men när min vän försökte kom hon till ”Sorry, this page can’t be found”. Hon har också på andra sätt försökt nå fram till Google men utan att ens få kontakt.
Du undrar förstås vilket fall det handlar om men av två skäl vill jag inte skriva ut det. Dels för att även om min väns far nu är död så finns det andra anhöriga som inte känner till denna AI-genererade smutskastning, och så vill både min vän och jag att det ska förbli. Dels vill jag inte att denna text ska generera ytterligare lögner och missuppfattningar – vem vet, kanske pekar AI:n ut mig som gärningsman, eller för all del som domare.
Att några få techbolag försöker köpa vår verklighetsuppfattning är vid det här laget väl känt. På X har Elon Musk byggt sin egen sanningskvarn, chat-boten Grok, som har påstått att Donald Trump vann valet 2020, att vita sydafrikaner varit offer för ett folkmord och att Elon Musk är i bättre form än LeBron James. Frågar du i dag så svarar den nog inte så, Musk skruvar ständigt på sin robot vilket gör att ”sanningen” varierar. Så är det även med Googles AI, när min vän sökte några dagar senare inleddes sammanfattningen med ”[Hennes fars namn] var varken offer eller gärningsman” i fallet. Det är förstås sant men är också en utsaga som väcker frågor.
Så länge händelser ligger nära i tid är det lätt att vara källkritisk och snabbt hitta andra, mer korrekta källor. Men säg ett mord för 50 år sen? Du får en AI-sammanfattning som namnger offer, gärningsman, utredningsledare, åklagare, advokat och domare – men vem är vem? Alla tror sig vara bra på källkritik men här är det lätt att gå bet.
Dessutom, har Vetenskapsradion rapporterat, finns det forskning som visar att ju mer man använder AI, desto mer litar man på den. Detta gäller trots att man vet att roboten ibland har fel, ibland hallucinerar – och även om man innerst inne vet att svaret den ger dig inte stämmer så tenderar man att vika ner sig.
Utvecklingen går snabbt nu, och den leds av bolag som gör allt för att undgå regleringar och demokratisk kontroll. Det kan tyckas futtigt i sammanhanget att påpeka att någon felaktigt pekas ut som kriminell i en viss sökning. Men zoomar man ut så handlar det om vår gemensamma historia och hur kommer att berättas.
Konstpodd: I själva verket

Café Bambino: Epstein var en iPadbaby med Sverigekopplingar
