”Mata in rasism, och ut kommer rasism”

Brottsbekämpning med hjälp av AI är en metod fylld av problem

De som deltar i Black Lives Matter-protesterna är massivt övervakade och registrerade. ”Polis över hela världen har börjat se insamlingen av bilder, identiteter, relationer som en av sina viktigaste strategiska uppgifter. Datan är sedan underlag till AI-understödd ansiktsigenkänning och så kallad ’predictive policing’”, skriver Mattias Beijmo.

En obemannad drönare cirklar högt över demonstranterna i Minneapolis. Det är en ”Predator B” men den kallas även ”Reaper” där den används mest: Afghanistan, Irak och Yemen. Men drönaren ovanför Minneapolis har inga missiler. Den är utrustad med militärklassade kameror som zoomar in på ansiktena i Black Lives Matter-protesten där nere.

På marken är det poliser överallt – kravallsköldar, pepparsprej, gummikulor. En bit bakom frontlinjen sitter federal polis framför laptopskärmar. De är uppkopplade mot utrustning som fångar upp demonstranternas mobiltrafik. Enheterna som fångar dataströmmarna är ”IMSI-catchers” – genom att låtsas vara en vanlig mobilmast fångar de mobiltrafiken från och till de som går i demonstrationståget. Informationen slås samman med i förväg inmatad data från privata företag, och ut kommer svar på för polisen intressanta frågor: Vilka är demonstranterna? Var bor de? Vem har kontakt med vem? Vart är de på väg?

Allt är helt lagligt. I USA är protesterna ett hot mot ordningen och legitimerar därför åsiktsregistrering och massiv övervakning.


Polis över hela världen har börjat se insamlingen av bilder, identiteter, relationer som en av sina viktigaste strategiska uppgifter. Datan är sedan underlag till AI-understödd ansiktsigenkänning och så kallad ”predictive policing”. Baserat på mängder av data pekar systemen ut vilka områden nästa BLM-manifestation nog kommer äga rum i, hur den troligen kommer att röra sig, vilka som antagligen kommer delta i den. Individer som matchar de profiler programmen spottar ur sig blir så kallade ”persons of interest”. De sparas i databaser och prioriteras särskilt i polisens spanings- och förhörsarbete.

Problematiken med allt som är datadrivet kan sammanfattas med konceptet ”skit in, skit ut”: Mata in rasism, och ut kommer rasism

Redan på 1700-talet fanns så kallade ”lantern laws” i New York. Svarta som rörde sig utan sina vita herrar var tvungna att hela tiden bära med sig ett stearinljus, som en lanterna, för att få röra sig i samhället. Övervakningen av minoriteter i USA sedan fortsatt genom århundradena, och efter 11 september-attackerna har ingen president haft den politiska viljan att bromsa övervakningsinnovationen riktade mot muslimer, svarta och invandrare.

I boken Dark Matters – On the Surveillance of Blackness drar Simone Browne med kirurgisk precision trådarna mellan det systematiska förtrycket av minoriteter i USA och de metoder som använts för att övervaka dem. Den selektiva övervakningen av svarta har blivit norm för digitaliseringen av polisens våldsmonopol, den strukturella rasismen smyger sig in i koden som styr kamerorna och maskinerna.


George Orwell hade både rätt och fel när han förutspådde att statens maskinella övervakning skulle bli en integrerad del av moderniteten: alla rum och kroppar är inte, som Orwell trodde, lika utlämnande inför det allseende ögat.

Över hela världen, också i Sverige, använder sig polismyndigheter data och programvaror för att försöka förutse och utreda brottslighet. Problematiken med allt som är datadrivet kan sammanfattas med konceptet ”skit in, skit ut”: Mata in rasism, och ut kommer rasism. Om du matar in gigabyte efter gigabyte från resultatet av fördomsfullt spaningsarbete, så kommer algoritmerna peka ut fel personer som skyldiga, vilket är precis vad som nu hänt i USA. Svarta pekas ut som brottslingar på grund av att algoritmerna fått för sig fel saker vilket i sin tur beror på den data polisens drönare, avlyssning och spaning försett dem med.

Som en konsekvens har ett antal amerikanska städer förbjudit AI-stöd i polisarbetet, och i senaten förbereds lagförslag. De marknadsledande företagen IBM, Microsoft och Amazon har sedan någon månad tillbaka slutat sälja mjukvara för ansiktsigenkänning till polismyndigheter.


Här finns dock ett litet aber. Dessa företags programvaror och algoritmer hjälper också dagligen polisen att hitta dem som sprider barnporr och driver människohandel. Maskinerna är ovärderliga, de kan avslöja samband och kopplingar en utredare inte ser. Omöjliga brottsutredningar blir plötsligt lösbara. Medborgarna står alltså inför ett dilemma: litar vi på polisens kompetens att välja när det är lämpligt att använda ett system vi vare sig förstår eller har insyn i?

Samtidigt exploderar forskareliten inom artificiell intelligens på ett osedvanligt eldfängt sätt. Jonathan W Korn, en New York-polis med examen i datavetenskap, och ett team lyftes fram av det ansedda vetenskapsförlaget Springer Nature. De hade för avsikt att publicera en avhandling av Korn och hans gäng som hävdade att de skapat ett program som med hjälp av enbart en ansiktsbild kunde avgöra om någon var kriminell.

Det fick 700 forskare, många ledande inom AI-fältet, att gemensamt massakrera såväl publiceringen (som stoppades) och själva konceptet. Forskarnas huvudpoäng? Data från ett rasistiskt rättssystem ger rasistiskt bränsle till algoritmerna. Så länge det är fallet, borde polisen förbjudas att använda den här typen av programvaror.


Polisen kämpar emot, de har vant sig vid att ”predictive policing”-programmet pekar ut intressanta mobilnummer och sociala medier-konton. De markeras med en särskild färg och symbol i övervakningsprogrammen. Som lanternor.
När nu i stort sett alla aspekter av statens legitima maktutövande blir alltmer digitalt även i Sverige och Europa, uppkommer ett annat, stort problem. Den amerikanska dominansen över vår europeiska ekonomi, kultur och militär är total. Europa får sin geopolitik och kultur, antingen vi vill det eller inte, i ett amerikanskt Nato-GoldmanSachs-Facebook-Kardashians-prisma.

Även om allt fler nu lägger pannan i djupa veck över detta så har vi inget att sätta emot. Den artificiella intelligens vi implementerar i vårt samhälle är amerikansk. De algoritmer som ska vägleda polisers agerande vid demonstrationer på våra gator är upplärda med värderingar från Trumps USA.

Det hade varit välkommet om vi själva programmerade vår egen framtida värdestruktur istället för att outsourca uppgiften till politiserade riskkapitalister i Kalifornien.

<div data-tipser-pid="5ee23ae6afe79a00014e7ef8" data-tipser-view="compact"></div>

Kultur

Prenumerera på Kulturens nyhetsbrev

Aftonbladets kulturchef Karin Petterson guidar till veckans viktigaste kulturhändelser och mest intressanta idédebatt.