Hvis robotter ikke skal udslette os alle, må vi lære dem buddhistisk moralfilosofi

Denne gang af Nicholas Nyrop Vinthen, lærer og pædagogmedhjælper i sit sabbatår og medlem af Kritik Digital

Jeg hedder Nicholas Nyrop Vinthen, og jeg er medlem af Kritik Digital. Jeg er meget interesseret i, hvordan vi i fremtiden udvikler teknologi på en etisk og hensigtsmæssig måde, og hvordan de gamle spirituelle traditioner kan hjælpe os med at gøre det. På den måde håber jeg at blive en smule klogere på begge dele. Herunder er mit bud på, hvordan vi sørger for at holde robotterne fra at udslette verden!

Den berømte astrofysiker Stephen Hawking blev for nogle år tilbage spurgt ind til kunstig intelligens i et interview med komikeren John Oliver. Hawking fortalte i den forbindelse en ret foruroligende historie.

En gruppe videnskabsmænd bygger en supercomputer, og det første spørgsmål, de stiller den, er, om der findes en gud. Computeren svarer dystert, at ’det er der nu,’ hvorefter et lyn stryger gennem stikkontakten, så computeren aldrig igen kan slukkes.

Kloge mennesker advarer os hyppigt om udviklingen af menneskehedstruende teknologier og supervåben, der kan ende ude af menneskers kontrol. Derfor er det afgørende, at vi spørger os selv, hvilken form for filosofi og moral, vi pålægger kunstig intelligens? Sætter vi de rigtige etiske rammer? Hvilken slags tænkning er til fordel for os alle?

Der er skam allerede områder, hvor kunstig intelligens har overgået os. Man kan eksempelvis se på spillene skak og go, hvor det aldrig igen vil blive muligt for et menneske at vinde over computeren. Og som eksempel på kunstig intelligens, der opfører sig autonomt og uforudsigeligt, er der Facebooks eksperiment fra 2017 med to robotter, som skulle tale med hinanden og derved forhandle om bytte af forskellige genstande som hatte og bolde.

Robotterne endte med at tale et bizart sprog med hinanden, som kun de selv og ingen af forskerne forstod. Robotterne opfandt sproget for at gøre kommunikationen mere effektiv end standardengelsk. Forskerne skabte rammerne, og robotterne udnyttede dem.

Så det vigtige spørgsmål er jo i virkeligheden: Hvordan undgår vi et potentielt dommedagsscenarie med en kunstig intelligens, der udsletter os alle?

Skal kodes til buddhistisk moral
Ligesom professor i filosofi Soraj Hongladarom og forfatter og partner på Googles kunstig intelligensudvikling Jason Louv mener jeg, at buddhistisk moralfilosofi virker som den bedste etiske ramme for en superintelligent maskine.

I buddhismen ser man ikke du og jeg som to uafhængige væsener, der hver for sig kæmper om de bedste muligheder i tilværelsen. Man ser derimod alle væsener lige fra mennesker til dyr og planter og alt derimellem som knudepunkter i ét stort net af bevidstheder. Og etikken handler således om at forbedre sundheden af hele dette netværk tilsammen.

Ego eksisterer ikke. Intet har essens. Ingen er andre overlegen. Der er blot forbindelserne mellem alle bevidsthedsformer. Hvis ét led rammes, rammes hele netværket.

Sandsynligheden for, at en superintelligent computer i dag udvikler sig ud over vores kontrol og forståelse, er stor. I dag skaber vi eksempelvis blot rammerne for, at en computer får evnen til for evigt at kunne tæske mennesker i skak. Men vi kan ikke forudsige selve trækkene, som computeren foretager; ellers ville vi jo stadig være den overlegen.

Så hvis vi i fremtiden skaber en superintelligens, som vi ikke kan styre, og som kan have signifikant indflydelse på al liv på Jorden, kan programmering af hensigtsmæssige etiske rammer være den vigtigste gave til os selv.

Det er for eksempel svært at slå ihjel, hvis man har et indkodet udgangspunkt, der siger, at alle liv er dybt forbundne og afhængige af hinanden, og hvis man i øvrigt slet ikke har et ego at foretage sådanne beslutninger ud fra. Det er centrale tanker i den buddhistiske moralfilosofi.

Men når man koder kunstig intelligens i dag, skaber man med fuldt overlæg betingelserne for en egodrevet supercomputer. Når man for eksempel skal programmere og træne en algoritme til altid at vinde i skak, udsætter man den for en masse spil og belønner god opførsel, eksempelvis en skakmat, og straffer dårlig opførsel, eksempelvis et tabt spil. 

Denne teknik inden for programmering kaldes reinforcement learning. Det betyder, at den kunstige intelligens i sin grundvold er drevet af egocentrerede tankemønstre, hvilket potentielt kan føre os direkte mod den dystopi, vi bliver advaret mod.

Selvfølgelig kan det i ovenstående eksempel virke åndssvagt at indsætte et holistisk tankemønster i en robot, man forsøger at gøre god til kompetitiv skak. Men når man bevæger sig ind i områder, hvor den kunstige intelligens er i stand til at træffe etiske beslutninger, vil det være fordelagtigt at have en maskine, der ikke tænker sig selv først.

Det spændende spørgsmål er så naturligvis, om vi er spirituelt modne nok til at lære den næste generation af superintelligente væsner at være egofri, når vi selv ofte kan finde det ganske besværligt. Så klog er jeg ikke, at jeg tør svare på det spørgsmål. Men det kan måske blive det vigtigste, mennesket gør.

Se det originale debatindlæg i Information her.

Forrige
Forrige

Shadowbanning er digital censur

Næste
Næste

Google indtager den danske folkeskole