Mest læste
[Sagprosaanmeldelse]

1 - Sagprosaanmeldelse
En morders bekendelser
2 - Sagprosaanmeldelse
Under tvang - minerydningen ved den jyske vestkyst 1945
3 - Sagprosaanmeldelse
De udvalgte – på flugt for livet
4 - Sagprosaanmeldelse
Kønsballade
5 - Sagprosaanmeldelse
Elevcentreret skoleledelse
6 - Sagprosaanmeldelse
Den store Storm P.-bog
7 - Sagprosaanmeldelse
Drengen der voksede op som hund
8 - Sagprosaanmeldelse
InterView – Introduktion til et håndværk
9 - Sagprosaanmeldelse
Fortrængt grusomhed – Danske SS-vagter 1941-45
10 - Sagprosaanmeldelse
Bourdieu for begyndere

AI Snake Oil. What Artificial Intelligence Can Do, What It Can’t and How to Tell the Difference / Arvind Narayanan & Sayash Kapoor / 348 sider
Princeton UP. ISBN 9780691249131
Anmeldt 22/11 2024, 18:16 af Ove Christensen

Overlad ikke fremtiden for AI til teknologivirksomhederne


Overlad ikke fremtiden for AI til teknologivirksomhederne

« Tilbage venstrestil icon lige marginer icon - icon + icon print icon

Cover

[Denne anmeldelse er skrevet i samarbejde med ChatGPT 4o Canvas, som er en kunstig intelligent skriveassistent. Jeg har uploadet mine noter fra læsningen af bogen til chatbotten. På baggrund af noterne har jeg fået genereret forslag til min egen tekst, som jeg har bedt om konkrete ændringer til for at ændre formuleringer. Jeg har også uploadet en tidligere anmeldelse, som har fungeret som modeltekst for chatbottens forslag. Canvas gør det muligt, at man skriver direkte i outputtet, så jeg har løbende selv skrevet noget, fået genereret tekst og fået ændret tekst på baggrund af min feedback på output. Til sidst har jeg gennemskrevet hele anmeldelsen. Jeg har gjort dette for at afprøve teknologien. Samlet set har det ikke sparet tid.]

(efterfølgende er anmeldelsen blevet korrekturlæst af en virkelig redaktør - red.)

I de seneste år har AI vundet indpas i stort set alle hjørner af vores liv, fra smarte assistenter i hjemmet til komplekse beslutningssystemer på arbejdspladsen. Medier og tech-giganter har genereret en massiv hype, som fremstiller AI som løsningen på enhver tænkelig udfordring.

Fremstillingen af AI som løsningen på alverdens udfordringer er i høj grad en del af en strategisk markedsføring, hvor AI sælges som potent teknologi, der kan løse problemer hurtigere og bedre end mennesker. Teknologibegejstrede konsulenter og udviklere kritiserer ovenikøbet organisationer og uddannelser for at halte bagefter de teknologiske muligheder, teknologien giver, og som dybest set handler om at erstatte menneskeligt arbejde til automatiserede processer uden blik for, hvad der i samme ombæring mistes. Når menneskelig omtanke erstattes af kunstigt generede output fra en robot, så mistes lige præcis den omtanke, der tidligere var en del af arbejdet.

Arvind Narayanan og Sayash Kapoor behandler dette spørgsmål i deres bog AI Snake Oil. Med et skarpt blik på forskellen mellem salgstale og virkelighed tager de fat på at skelne mellem de typer af AI, der faktisk kan skabe værdi, og de typer, som blot er 'snake oil'—teknologier, der ikke lever op til deres løfter. Gennem en dybdegående analyse af ”predictive AI, generative AI, and content moderation” (s.32) udfordrer forfatterne nogle af de mest udbredte misforståelser og falske forhåbninger, som præger den offentlige diskussion.

Med inddragelse af mange eksempler og empiriske analyser gør forfatterne op med mange af de forhåbninger til teknologien, som andre har fremført. Bogen fungerer både som en advarsel og en guide—en opfordring til at se kritisk på, hvad AI egentlig kan, og til at forstå forskellen mellem hype og realistisk anvendelighed.

AI Snake Oil leverer en særdeles grundig kritik af predictive AI—den type kunstig intelligens, der har til formål at forudsige fremtidige hændelser eller menneskelig adfærd baseret på tidligere data. Det er en sådan AI, der ligger bag Netflix’ forslag til, hvad du skal se, fordi du har set Far til fire i sneen (en film der i øvrigt i skrivende stund ikke er at finde på Netflix - red.). Forfatterne viser, hvorfor disse systemer ofte fejler, og hvad der gør dem særligt problematiske. Predictive AI er baseret på en grundlæggende antagelse om, at mennesker vil opføre sig i fremtiden, som de har gjort i fortiden, og at mønstre i store datasæt kan bruges til at lave nøjagtige forudsigelser.

For det første er sociale datasæt sjældent repræsentative, og de indeholder ofte støj og bias, som gør det vanskeligt at lave pålidelige forudsigelser. Når predictive AI modeller trænes på disse datasæt, vil deres resultater være præget af de samme skævheder og fejl, hvilket kan føre til dybt problematiske konsekvenser, især når teknologien bruges til at træffe beslutninger om mennesker. Et eksempel, som forfatterne fremhæver, er brugen af AI til ansættelsesprocesser, hvor algoritmer forstærker eksisterende diskrimination og fejlagtigt fravælger kvalificerede kandidater på baggrund af køn, etnicitet eller lignende.

Narayanan og Kapoor understreger også, at predictive AI ofte forsimpler komplekse sociale situationer. Menneskelig adfærd påvirkes af utallige faktorer, og mange af dem kan hverken kvantificeres eller indfanges i et datasæt. Desuden kan uforudsigelige hændelser, som at vinde i lotteriet eller blive ramt af en ulykke, ikke forudsiges af nogen model, uanset hvor mange data man måtte have til rådighed. Denne teknologi har også det problem, at statistik aldrig rammer den enkelte, men altid et gennemsnit.

En af grundende til udbredelsen og populariteten af predictive AI er vores kulturelle og samfundsmæssige ubehag ved tilfældighed og usikkerhed. Det er en særlig logik, der driver interessen for at forudsige menneskelige handlinger, som dybest set handler om, at reducere konsekvenserne af menneskers frie vilje. Der kan være et ønske om forudsigelighed og kontrol, men i jagten på forudsigelighed risikerer man at misforstå, hvad teknologien faktisk kan levere. Narayanan og Kapoor argumenterer for, at vi i stedet burde arbejde mod at bygge institutioner, der er åbne over for tilfældigheder og mangfoldighed, snarere end at forsøge at forudsige og kontrollere fremtiden gennem fejlbarlige algoritmer.

Predictive AI præsenteres ofte som et uundværligt værktøj, der kan optimere og effektivisere beslutninger. Men som AI Snake Oil illustrerer, kan teknologien have store omkostninger, når den anvendes uden forståelse for dens begrænsninger. Bogen giver et billede af, hvordan brugen af predictive AI uden kritisk refleksion kan føre til uretfærdigheder og utilsigtede konsekvenser, som i sidste ende rammer dem, der har mindst kontrol over teknologien. Der henvises til en række eksempler fra Holland, hvor uskyldige mennesker har fået frataget sociale ydelser på baggrund af automatiserede forudsigelser om social bedrageri.

Denne del af bogen fungerer som en kraftig påmindelse om, at det ikke er nok at stole på de store løfter fra virksomhederne, der udvikler disse værktøjer. Hvis vi skal bruge predictive AI på en ansvarlig måde, er det nødvendigt at forstå dens begrænsninger og konsekvenser i stedet for at omfavne den som en løsning på komplekse problemer. Dette problem har også vist sig helt aktuelt i Danmark, hvor man taler om, hvordan AI skal bidrage til beslutninger foretaget af offentlige myndigheder som eksempelvis SKAT.

Narayanan og Kapoor tager også fat på generativ kunstig intelligens—en teknologi, der har skabt en sand guldfeber i teknologiverdenen, og som denne anmeldelse også benytter sig af i et vist omfang. GenAI, som fx de populære værktøjer til at genere tekst eller billeder, præsenteres ofte som revolutionerende værktøjer, der kan udvide menneskelig kreativitet og hjælpe med at skabe indhold i hidtil uset omfang. Men forfatterne peger også på de etiske og praktiske udfordringer, som denne type teknologi medfører.

Generative AI er trænet på store datasæt fra internettet, hvilket betyder, at den kan spejle og forstærke de biases, der findes i det materiale. “Since they are trained using data from the internet, they inherit the toxicity of the internet” som de skriver (s. 143). At skrive med GenAI fratager skribenten en del af hans (i denne anmeldelsers tilfælde) egen stemme og særlige tone. Jeg har ganske vist forsøgt at præge output fra den kunstige intelligens, men det slår slet ikke igennem som min stemme, men snarere som noget, der er mere generisk.

Derudover påpeger forfatterne, at generative AI ikke er designet til at forstå kontekst eller sandhed. Modeller som ChatGPT genererer tekst baseret på statistiske sandsynligheder for, hvilke ord der følger efter en række af andre ord, ikke ud fra en dybere forståelse af det, teksten angiveligt handler om. Selvom disse modeller kan producere overbevisende og sammenhængende tekst, så sker dette ikke på baggrund af viden; en tekst producerer ikke mening, men kun ord. Den måde, GenAI fungerer på, understreger behovet for, at man skal være kritisk i sin anvendelse af den, især i sammenhænge hvor præcision og sandfærdighed er afgørende.

Indholdsmoderation, som man kender fra facebook, X eller andre fora, hvor folk kan ytre sig om hvad som helst - og gør det - er det tredje område, som forfatterne udforsker. Her handler det om at identificere og fjerne skadeligt eller upassende indhold, og denne proces overlades ofte delvist til AI-værktøjer. Men AI-modeller til moderation fungerer rigtig dårligt, fordi en vigtig del af moderationen består i at forstå nuancerne i menneskelig kommunikation, hvor der kan indgå sarkasme, kulturelle forskelle og kontekstuelle betydninger, hvilket er helt fraværende for AI.

Narayanan og Kapoor påpeger, at selv de bedste AI-systemer ikke er i stand til konsekvent at skelne mellem skadeligt indhold og legitimt udtryk. Dette problem forværres af de økonomiske incitamenter hos de store platforme, der ofte prioriterer engagement over sikkerhed og præcision i moderation. Den hyppige fejlklassifikation—hvor enten for meget eller for lidt indhold fjernes—fører til en situation, hvor brugernes rettigheder enten krænkes, eller hvor platformene bliver arenaer for skadeligt indhold.

Problemer med AI-moderation handler også om institutionelle udfordringer. Når platformene tjener mere på at lade tvivlsomt men engagerende indhold passere, så er der intet incitament til at moderere ud fra, hvad der er til gavn for offentligheden, men udelukkende hvad der er til gavn for forretningen. Dette er noget, der ligger i selve den logik, der ligger bag platformene, og derfor er problemet dybest set ikke moderationen, men forretningsmodellen. Dette taler for en kraftig regulering på dette område, der ikke kan overlades til de såkaldt frie markedskræfter.

AI Snake Oil er en tankevækkende og nødvendig bog i en tid, hvor kunstig intelligens ofte fremstilles som en magisk løsning på komplekse problemer. Narayanan og Kapoor udfordrer den overdrevne tillid til AI og forklarer fint, forståeligt og overbevisende, hvorfor vi skal forholde os kritisk til de teknologier, der præsenteres som universalmidler. Deres analyser af predictive AI, GenAI og indholdsmoderation baseret på AI afslører, hvor langt de store løfter om effektiviteten af kunstig intelligens er fra virkeligheden. Der er store begrænsninger ved brug af mange af disse teknologier, og brugen kan have store konsekvenser for virkelige menneskers liv og muligheder.

En central pointe i bogen er, at mange af de problemer, vi ser med anvendelsen af AI, ikke kun handler om teknologiens tekniske begrænsninger, men også om de økonomiske strukturer, der understøtter dens udvikling. De store teknologivirksomheder er drevet af økonomiske incitamenter, som prioriterer profit over menneskelig velfærd. Denne forretningslogik former, hvordan AI udvikles, markedsføres og implementeres, hvilket betyder, at teknologien i høj grad bliver en refleksion af de økonomiske interesser, der ligger bag. Dette er problematisk, fordi det skaber en skævvridning, hvor værdier som profitoptimering og markedsdominans vejer tungere end overvejelser om etik, retfærdighed og samfundsmæssig værdi.

Narayanan og Kapoor understreger, at vi ikke blot kan overlade fremtiden for AI til teknologivirksomhederne, der har et snævert fokus på profitmaksimering. Som de skriver: "We are not okay with leaving the future of AI up to the people currently in charge" (s. 289). Udviklingen af AI er ikke primært et teknologisk spørgsmål, men også et politisk og værdibaseret valg, som vi som samfund skal tage stilling til.

Det er afgørende, at vi som borgere tager kontrol over, hvordan AI skal udvikles og integreres i vores liv og institutioner, og at vi sikrer, at teknologien tjener menneskers behov frem for blot at maksimere økonomisk gevinst for få.

AI Snake Oil giver en nuanceret forståelse af AI, hvor de ikke blot advarer mod farerne ved ureflekteret brug af AI, men som også opfordrer til en mere ansvarlig og etisk tilgang til teknologien. Bogen udfordrer os til at tænke kritisk over, hvordan vi vil forme AI's fremtid, og den påpeger, at vi ikke kan overlade disse beslutninger til en branche, der primært er drevet af økonomisk profit. Dette er et valg, der skal foretages af os alle som borgere i et demokratisk samfund.

Forrige anmeldelse
« Foto: Susanne Mertz «
Næste anmeldelse
» The Unposed (EoAT) »