The AI Mirror. How to Reclaim Our Humanity in an Age of Machine Thinking / Shannon Vallor / 226 sider
Oxford University Press. ISBN 9780197759066
Anmeldt 3/7 2024, 08:16 af Ove Christensen
AI er skabt til bullshit
AI er skabt til bullshit
« Tilbage“I’ll be your mirror. Reflect what you are, in case you don’t know”. Sådan synger Nico på The Velvet Underground And Nico fra 1967. Linjen citeres på side 1 af Shannon Vallor i bogen The AI Mirror. How to reclaim our humanity in an age of machine thinking, der er en analyse af, hvordan generativ kunstig intelligens (GKI) aktuelt kan forstås i forhold til den menneskelige civilisation og dens udvikling.
Mange har trukket GKI frem som et eksempel på et revolutionerende nybrud og en teknologisk landvinding, forholder Vallor sig mere skeptisk. Hun mener nok, at GKI kan anvendes på mange frugtbare måder, som kan forstærke menneskers tænkning og være med til at løse udfordringer. Men ellers fokuserer hun mere på den konservative og bevarende kraft i GKI, der forlænger nogle problematiske forhold ved den måde, de udviklede samfund har udviklet sig på. Dybest set, er kunstig intelligens et spejl af den måde, mennesker har tænkt på, hvilket netop er en måde at tænke på, som har ført til de globale problemer, som vi aktuelt står overfor. “[Today’s] most advanced AI systems are constructed as immense mirrors of human intelligence” (s. 2).
Så hvor andre har set bias som et problem med GKI, ser Vallor det omvendt. Problemet med bias og andre uhensigtsmæssige sider af de svar, man kan få genereret ved hjælp af GKI, udspringer af den måde, den menneskelige intelligens har fungeret på. De værdier og logikker, de industrialiserede, vestlige samfund bygger på ligger til grund for den måde, den generative kunstige intelligens fungerer på. De store sprogmodeller, der er hjertet i GKI, er trænet på data, der afspejler den måde, mennesker har formuleret sig og tænkt på. “AI isn’t developing in harmful ways today because it’s misaligned with our current values. It’s already expressing those values all too well. AI tools reflect the values of the wealthy postindustrial societies that build them” (s. 9).
Vallor siger, at hun har to hovedformål med bogen. Ved siden af at vise, hvordan GKI er et spejl af eksisterende menneskelig tænkning og værdier, vil hun også forklare, hvordan GKI i dens nuværende og kommercielle form er en trussel mod vores humanitet ved at promovere det, hun kalder maskintænkning. For at redde humaniteten skal man ikke bruge kunstig intelligens som et spejl, men snarere prøve at bryde med teknologiens spejleffekt og i stedet bruge den som en forstærkning af egen refleksionsevne. Dette ville alt andet lige være nemmere, hvis teknologien også i højere grad blev udviklet til dette i stedet for at være designet til at modarbejde det.
Bogen falder i syv kapitler, der bearbejder forskellige temaer om, hvordan GKI virker, og hvilke konsekvenser der eventuelt kan udledes af anvendelse.
I første kapitel beskriver Vallor et problem omkring begrebet intelligens. Hvad er det overhovedet, vi mener, når vi beskriver en maskine som intelligent? Intelligens er ikke så nem at definere, da der indgår rigtig mange aspekter i intelligens. Intelligens er andet og mere end logik. I forhold til kunstig intelligens behøver man måske heller ikke vide, hvad det er for at designe en teknologi, der er kunstig intelligens, hvis man kan få den til at gøre noget, som mennesker også gør som eksempelvis at anvende sproget nogenlunde grammatisk korrekt.
Men når vi kommer til det, man kalder kunstig generel intelligens (AGI), så er det en anden sag. Det er et varmt emne, om den nuværende generative kunstige intelligens er et skridt i retningen af en kunstig generel intelligens, som derved vil ligne en (menneskelig) bevidsthed. Og her tilhører Vallor klart den fløj, der ikke mener, at der er en lige vej fra kunstig intelligens til generel intelligens, fordi en sådan kræver levede erfaringer og en mental model over verden.
Dette argument bygger på en fænomenologisk tilgang til verden, som hun udvikler yderligere i andet kapitel. Generel intelligens kræver en fortolkende og kontekstafhængig forståelse af den verden, man er en del af, hvilket ikke kan reduceres til neurale forbindelser i hjernen. Vallor skriver at den menneskelige tænkning er forbundet til menneskets kropslige væren i verden. “[Minds] almost certainly come into existence through the body and its physical operations… Our minds are embodied rather than simply connected to or contained by our bodies” (s. 39-40).
Hvor GKI er endnu et skridt i den udvikling, der har udviklet sig med en tilstræbt værdifri teknisk rationalitet, så er den også endnu et skridt væk fra den humanitet, der også har været et vigtigt element i den moderne menneskelige udvikling.
Afstanden mellem det tekniske og det moralske domæne, som (muligvis) hang sammen i antikken og genfindes i såvel renæssancen som i oplysningstiden er blevet så stor, at det truer menneskeheden. Vallor taler her om problemet med “The gap between our lived humanity and the AI mirror” (s.63). Den sidste er uden for almindelig moralsk kontrol, da den primært udvikles med en afhængighed af store økonomiske investeringer, der mere eller mindre unddrager kontrol, da den er multinational.
I de to efterfølgende kapitler trækker Vallor dels på Aristoteles begreb om ´fronesis´ og et begreb om det offentlige ræsonnement. Fronesis tilsiger, at man skal inddrage den viden, man besidder, og samtidig tage hensyn til de kontekstuelle faktorer. Moral er således ikke et regelsæt, men en måde at ræsonnere på ifølge Aristoteles, der peger på den pragmatiske overvejelse og forhandler (dialog), som den del af det repertoire, man må benytte. I modsætning til spejlmetaforen, hvor man altid anvender den samme model eller skabelon, så lægger fronesis op til, at der er et dynamisk element i den moralske afvejning af forskellige hensyn. Hvis humaniteten er en væsentlig del af denne overvejelse, så kan man også sige noget om, hvordan teknologi bør udvikles, hvilket vil være en anderledes tilgang end at spørge til effektivitet og forretningsmodeller.
Ideen om det offentlige ræsonnement kan tilskrives Immanuel Kant, der taler om at bruge fornuften offentligt, så den kan gøres til genstand for argumentation og kritik. Vallor henviser dog til den canadisk-amerikanske filosof Wilfried Sellars og hans begreb om at viden udvikles i “a “logical space of reasons, of justifying and being able to justify what one says” (s. 106). Dette lægger op til en pragmatisk forståelse af viden.
Dette logiske rum vil Vallor også have til at gælde for det moralske område “a space of moral reasons” (s. 108). Selvom Vallor ikke direkte henviser til offentlighedsteori, så ligner hendes ræsonnement den måde, hvorpå Jürgen Habermas fremstiller det moralske i diskursetikken.
Udfordringen for det moralske rum er nu, at når man anvender kunstig intelligens til vurderinger og beslutningstagning, så slappes menneskers moralske muskel. “Today, AI poses a new threat to our moral capacity. Its offer to take the hard work of thinking off our shaky human hands appears deceptively helpful, neutral, and apolitical - even ‘intelligent’. This only makes the offer more dangerous” (s. 109).
Der bliver her tale om en “moral deskilling”, på samme måde, som man mister evnen til at huske telefonnumre eller finde vej med et kort. Men hvor de to sidste er tekniske færdigheder, er den første moralsk og en grundpille i humaniteten. Hvis vi som mennesker taber evnen til at ræsonnere moralsk, så er der ikke nogen humanitet.
Generativ kunstig intelligens er designet til at skabe bullshit i den forstand, at den ud fra algoritmer kan producere sætninger og tekstmæssige sammenhænge, der tilsyneladende bygger på overvejelser og viden, men som i virkeligheden bygger på mønstergenkendelse af sprog. GKI har ingen forestilling om, hvad der er sandt og moralsk godt, men kun mønstre af ord, der tilsyneladende forholder sig til noget i omverden.
Bullshit er et begreb for en ligegyldighed i forhold til sandt og rigtigt. I dag er det ikke den offentlig anvendelse af løgn, der er en udfordring, men ligegyldigheden i forhold til om det, der bliver sagt, er sandt eller ej; alternative facts. “What should worry us most about today’s AI mirrors, particularly generative large language models, is that they are hard-wired for bullshit… They are simply built to generate fact-like patterns of language - plausible statements that sound like what a person might say to a given prompt” (s. 120)
Vi har derfor brug for “to reclaim our humanity”, som undertitlen siger. Vi har brug for at insistere på, at det moralske og det tekniske skal gå hånd i hånd i stedet for at være adskilt.
Vallor insisterer på institutioner skal udvikle en teknomoralsk ekspertise, hvor man kigger fremad. Hvis man skal gøre noget vi de store globale problemer, som truer den menneskelige eksistens, så er den nuværende form for kunstig intelligens det værste, man kan gribe til, fordi det blot gentager mønstre, som har ført til problemerne. Den overdrevne tiltro til teknisk og økonomisk fremskridt - eller det Ellul har kaldt: “the rule of efficiency” (s. 186) - er hovedårsagen, og den vil derfor ikke føre til løsningen.
Løsningen er “pretechnical” og skal findes i den måde, vi vil være samfund på - og den måde som vi vil udvikle teknologi på. Her drejer det sig om at tage udgangspunkt i den fælles samtale med det behov, vi har som mennesker, hvilket også indbefatter jordens helbred og bæredygtighed.
Vallor mener ikke, at denne tilgang kan afskrives som naiv idealisme. Når verden er ved at gå under, så kan man ikke kalde den, der påpeger den eneste mulige løsning på problemet.
The AI Mirror er en interessant og tankevækkende bog. Den bygger på præmissen om, at generativ kunstig intelligens er et kæmpemæssigt spejl, hvilket teknisk set nok er rigtigt, ligesom hendes kritik af den økonomiske rationalitet bag megen teknologisk udvikling er dybt problematisk både demokratisk og moralsk. Men teknologi determinerer jo ikke dens brug, hvilket Vallor også gør opmærksom på, men nok kunne udfolde noget mere. Spejlmetaforen kommer til tider til at stå i vejen for flere nuancer og refleksioner - og den betyder også ret mange gentagelser af de samme pointer.
Desuden forholder forfatteren sig slet ikke til begrebet ´emergens´ i træningen af de store sprogmodeller. Det havde været interessant, hvis hun inddrog disse forestillinger i sin behandling, da emergens her måske betyder, at de store sprogmodeller er mindre spejlagtige og udvikler noget nyt ud fra eksisterende mønstre.