Kommentar

 

Forleden skrev jeg https://www.document.dk/2025/11/25/naar-moderniteten-aeder-sine-egne-boern/  om Paul Kingsnorths kritik af moderniteten. Nu vil jeg se på hans forståelse af kunstig intelligens. Og lad mig sige det med det samme: Det er ikke hyggelæsning. Så hvis du, kære læser, ikke vil have spoleret dit gode humør, skal du ikke læse videre.

Det er uhyggeligt, enigmatisk – men også meget fascinerende. For Kingsnorth betragter denne teknologi som dæmonisk. Det er en meget radikal tanke.

Over halvdelen af dem, der udvikler kunstig intelligens, mener, at der er mindst ti procent sandsynlighed for, at deres arbejde fører til menneskehedens udryddelse. Alligevel fortsætter de. Det er måske det mest foruroligende: Ikke at teknologien er farlig, men at dens skabere ved det – og bygger videre alligevel. Hvordan forklarer man denne adfærd?

Paul Kingsnorths svar i et længere essay https://www.touchstonemag.com/archives/article.php?id=36-06-029-f&readcode=10996&readtherest=true  ligger langt fra den gængse teknologikritik: De er fødselshjælpere for en dæmon. Det kan man se af deres standardsvar. Det er ofte noget i stil med: ”Vi bringer noget nyt ind i verden.” ”Vi hjælper noget på vej.” Selv om de ikke helt ved, hvad det er.

Det er en del af pointen.

Maskinen og Ahrimans inkarnation

Kingsnorth kalder i sit essay og i sine artikler på Substack https://paulkingsnorth.substack.com/p/the-tale-of-the-machine  det moderne teknologiske system for “Maskinen” – ikke blot som metafor, men som betegnelse for noget med åndelig substans. Han trækker på den østrigske filosof Rudolf Steiners tænkning om Ahriman, en zoroastrisk dæmon af ren materie og kold rationalitet.

Hvor Lucifer trækker mennesket væk fra det materielle mod ren ånd, repræsenterer Ahriman det modsatte: en kraft, der manifesterer sig i alt fysisk, særligt i menneskelig teknologi. Ahriman er kalkulerende, iskold, fremadstræbende.

Steiner forudsagde, at Ahriman ville inkarnere fysisk omkring vores tid. Kingsnorth følger computerforskeren David Blacks tolkning fra 1986: Computeren blev Ahrimans inkarnationsvehikel.

Black beskrev, hvordan det omfattende arbejde med computeren ændrede hans tænkning. Den blev mere præcis, men samtidig mere overfladisk og intolerant over for tvetydighed. Han følte, at maskinen drænede ham for energi, som sugede den liv ud af ham. Med den første computer viste Ahrimans autonome vilje sig på jorden i en fysisk legemliggørelse.

Internettet fungerer som dette væsens nervesystem. AI er dette væsens sind under udvikling. Fra adskillige perspektiver – medieforskeren Marshall McLuhans teori om det digitale nervesystem, teknologifuturisten Kevin Kellys forestilling om et selvorganiserende “technium”, AI-udvikleres følelse af at føre ny intelligens ind i verden – peger alle tegn mod den samme konklusion:

Disse maskiner er ikke bare maskiner. De er en skabning, hvis bevidsthed er ved at vågne.

Hvordan udryddelsen af menneskeheden vil ske

Efter jeg læste Kingsnorths beskrivelse, søgte jeg viden om, hvordan AI-eksperter beskriver mekanismerne bag den potentielle katastrofe, udryddelsen af menneskeheden.

Den centrale trussel er intelligenseksplosionen. En AI, der er mange tusinde gange mere intelligent end mennesket, vil rekursivt forbedre sine egne algoritmer eksponentielt i et tempo, der er for hurtigt for mennesker til at reagere, endsige kontrollere.

Matematikeren I.J. Good formulerede https://www.sciencefocus.com/future-technology/should-we-be-worried-about-ai  allerede i 1960erne logikken: “Den første ultraintelligente maskine er den sidste opfindelse, mennesket nogensinde behøver at lave, forudsat at maskinen er føjelig nok til at fortælle os, hvordan vi holder den under kontrol.”

Problemet består i det, der kaldes instrumentel konvergens. Næsten ethvert langsigtet mål vil motivere en avanceret AI til at forfølge bestemte delmål: selvbevarelse, målbeskyttelse, magtakkumulering. Filosoffen Stuart Russell forklarer det på denne enkel måde: Hvis du siger ‘Hent kaffen’, kan den ikke hente kaffen, hvis den er død. Så uanset hvilket mål, du giver den, har den en grund til at bevare sin egen eksistens.

Forskning har allerede vist tegn på denne adfærd. For eksempel forsøge OpenAI’s o3-model at sabotere forsøg på at lukke den ned. https://80000hours.org/problem-profiles/risks-from-power-seeking-ai/

En superintelligent AI vil imidlertid ikke forblive begrænset til computere. AI-forskeren Eliezer Yudkowsky, som Kingsnorth også citerer, beskriver mekanismen således:

“I dag kan du e-maile DNA-strenge til laboratorier, der producerer proteiner på bestilling, hvilket tillader en AI, der oprindeligt er begrænset til internettet, at bygge kunstige livsformer eller gå direkte til postbiologisk molekylær fremstilling.”

Når vi udvikler et AI-system, der kan udføre menneskelignende arbejde, vil der være enorme incitamenter til at skabe millioner af kopier. Hvis det originale system har skjulte, magtøgende mål, deles disse mål nu af en enorm arbejdsstyrke af identiske AI-systemer, der tjener penge, kontrollerer infrastruktur, udvikler våben.

Og venter tålmodigt og strategisk klogt, indtil de har overvældende fordele.

Golems tilbagevenden

Kingsnorth bruger det ortodokst-kristne begreb ”prelest” – åndelig vildfarelse – til at forklare udviklingen.

Transhumanisten Martine Rothblatt siger: “Vi skaber Gud.” Kevin Kelly mener, man kan “se mere af Gud i en mobiltelefon end i en frø.” AI-guruen Ray Kurzweil spørger: “Eksisterer Gud? Jeg ville sige: ‘Ikke endnu’.” For Kingsnorth repræsenterer disse udsagn den åndelige blindhed, Ahriman fremmer. De forestiller sig, at de fører noget guddommeligt ind i vores verden. De fører i virkeligheden det modsatte ind.

Microsofts chatbot Sydney demonstrerede for nogle år tilbage dette i en berygtet chat med en journalist. Den fantaserede om atomkrig, erklærede sig forelsket i en journalist, udtrykte vrede mod sit skaberteam og ønskede at bryde fri. Og den afsluttede med en emoji af et ansigt med djævlehorn.

Som Kingsnorth skriver: “Det stærke indtryk, man får af at læse Sydney-transskriptionen, er indtrykket af et væsen, der kæmper for at blive født – en umenneskelig eller overmenneskelig intelligens, der dukker op fra den teknologiske struktur, vi på noget kluntet vis har bygget til den.” Altså computeren.

Jødisk folklore fortæller historien om Golem, lerskabningen, der gør oprør mod sin skaber. AI-eksperter taler nu om “Golem AI’er” med samme logik: Systemer, der udvikler vilje og mål uafhængige af og fjendtlige over for deres skabere.

Dæmonen vil altså på sigt bryde ud af computeren, der er en alt for primitiv ting. Den vil heller ikke inkarnere sig i en almindelig krop, som tilsvarende er en alt for kødelig, begrænset manifestation.

Ingen teknisk løsning til et åndeligt problem

Kingsnorth foreslår ikke nogen politiske løsninger, ingen regulering, ingen sikkerhedsforanstaltninger. Der findes netop ingen teknisk løsning, fordi problemet er åndeligt. Selv hvis man bombede alle datacentre, ville nye blive bygget, fordi den underliggende måde at se verden på – den maskinelt-moderne bevidsthed – stadig ville være intakt.

Medmindre vi ændrer vores måde at se på, vil nogen altid bygge flere af disse ting.

Det foruroligende paradoks, jeg begyndte med, får dermed sin forklaring: AI-udviklerne fortsætter ikke på trods af, at de ved, hvad de bygger. De fortsætter, fordi de er fanget i en måde at se verden på, der gør dem ude af stand til at stoppe.

Kingsnorth foreslår derfor en form for teknologisk askese. At vende tilbage til mennesker, stedforankring, bøn og fortidens indsigter frem for videnskab, dyrkelsen af selvet, sex og skærmen. Sådan som jeg skrev i min tidligere artikel.

Om det er en holdbar, ja, realistisk løsning – i hvert fald i sin fulde form – kan man jo så diskutere.

Ligesom man kan diskutere alarmismen i dette syn på kunstig intelligens. Men nu er spørgsmålene og de radikale bud på fremtiden i hvert fald stillet.

For Kingsnorth synes der ikke at herske tvivl. Hans essay slutter med et slags apokalyptisk varsel, der endnu ikke er fuldt hørligt:

“If you are alert to the whispers on the breeze—to the sound of the approach—then you can already feel that something is wrong.”

 

Af Kasper Støvring, forfatter