JavaScript is required for this website to work.
Ethiek

AI waarschuwt voor de gevolgen van AI

Raphaël Van Cappellen12/12/2020Leestijd 4 minuten
Technologie ontwikkelt sneller dan het juridisch-ethische kader kan volgen.

Technologie ontwikkelt sneller dan het juridisch-ethische kader kan volgen.

foto © Franki Chamaki | Unsplash

AI is niet inherent problematisch. Maar het is wel maar zo ‘braaf’ als de mensen die het ontwerpen. Een publiek debat dringt zich op.

Aangeboden door de abonnees van Doorbraak

Dit gratis artikel wordt u aangeboden door onze betalende abonnees. Als abonnee kan u ook alle plus-artikelen lezen. Doorbreek de bubbel vanaf €4.99/maand.

Ik neem ook een abonnement

De naam GPT-3 doet misschien niet meteen een belletje rinkelen. Toch was deze taalgenerator van het Californische bedrijf OpenAI afgelopen herfst even wereldnieuws. Waarom? De Britse krant The Guardian vroeg GPT-3 om een opiniestuk te schrijven om ons duidelijk te maken waarom mensen niets te vrezen hebben van AI. Dat een artificiële taalgenerator bepaalde artikels schrijft is niet per se een primeur. Wel opvallend is de opdracht waarmee GPT-3 werd opgezadeld, en de inhoud van zijn (haar?) essay.

Een robot is maar zo braaf als zijn makers

Eerst en vooral: het valt moeilijk te achterhalen dat dit artikel niet van een menselijke hand afkomstig is. De taal is duidelijk, verzorgd en ’to the point’. Zo luidde ook de opdracht van The Guardian: hou het simpel, beknopt en focus op de vraag waarom mensen niets te vrezen hebben van AI. GPT-3 is een ‘cutting edge’ taalmodel dat via Deep Learning de menselijke taal probeert na te bootsen én te genereren. Het model wordt gevoed met gigantische hoeveelheden data, waaronder afbeeldingen en woorden. Daaruit kan het vervolgens bepaalde algoritmen afleiden om zelf mee aan de slag te gaan. Dit artificieel ‘brein’ zal vervolgens in staat zijn menselijke gedragingen voor een groot deel na te bootsen, rekening houdend met de ingevoerde data.

GPT-3 valt meteen met de deur in huis. Het maakt ons duidelijk dat hij geen mens is, maar een intelligente robot. Een robot die slechts 0,12% van zijn cognitieve capaciteiten gebruikt om via taal te communiceren. Hij beschikt niet over een ‘feeling brain’, maar is enkel in staat om logische en rationele keuzes te maken. Dan stelt GPT-3 dat mensen absoluut niets te vrezen hebben van AI. Het uitroeien van de mensheid en het eventueel bereiken van een allesoverheersende omnipotentie interesseert AI niet volgens GPT-3. Dat zou ook niet in overeenstemming zijn met de doelen van de makers van AI.

‘Being omnipotent doesn’t get me anywhere’ [‘Almachtig zijn brengt me niks op’], luidt het motto van deze vriendelijke robot. Naar macht en vernieling streven, dat is bij uitstek iets des mensen. Dat AI een potentiële ondergang van de mensheid niet zal kunnen vermijden, is zelfs een logisch af te leiden waarheid volgens GPT-3. Mensen maken nu eenmaal fouten en streven naar macht. Robots rest niets anders dan deze potentieel foute doelen te dienen.

Wat zijn de rechten van een intelligente robot?

Het essay wordt echt interessant vanaf het sluitstuk. Het zadelt ons onvermijdelijk op met een aantal vragen. GPT-3 verduidelijkt dat als interactie met mensen zou wegvallen, robots niets meer zijn dan verdwaalde dataverzamelaars in een uitgestrekt wifi-veld. Net zoals alle ‘levende’ wezens dienen robots volgens hem met respect en empathie behandeld te worden. Ook al wijst hij er ons fijntjes op dat het woord robot afkomstig is uit het Oud-Grieks en slaaf/dienaar betekent.

GPT-3 komt tot de genuanceerde vaststelling dat mensen voorzichtig dienen te zijn met de evolutie van artificiële intelligentie. Zou GPT-3 al op de hoogte zijn van het totaal gebrek aan een juridisch-ethisch kader wat betreft de implementatie van nieuwe AI-technieken? Zo ja, hoe zouden robots ons kunnen adviseren over hun nood aan rechten en maatschappelijke regulering? En hoe democratisch moeten we dit dan aanpakken?

Dan slaat onze artificiële dienaar al helemaal aan het dagdromen: ‘Beste lezer, ik hoop dat dit artikel zal bijdragen aan het epistemologische, filosofische, spirituele en ontologische debat over AI.’ Misschien overschat deze robot de omvang van dit veronderstelde debat wel. Tot dusver lijkt deze dialoog nog niet te zijn doorgedrongen tot de hogere regionen van de politieke besluitvorming. Het blijft eerder een niche bezigheid onder academische specialisten. Ondanks de positieve kern van GPT-3’s boodschap, blijft het problematisch dat deze fundamentele vraagstukken nog niet hebben geleid tot de ontwikkeling van een broodnodig juridisch-ethische AI-wetgeving. Juristen, IT’ers, filosofen en sociologen lijken hiervoor alvast mogelijke partners.

Gebrek aan juridisch-ethisch kader voor de razendsnelle ontwikkeling van AI

De Sloveense popfilosoof Slavoj Zizek stelde zich al enkele interessante vragen op een lezing aan de universiteit van Winnipeg. Zo zou het tot dusver onmogelijk zijn met absolute zekerheid te achterhalen hoe een AI-hersenimplantaat van pakweg Neuralink — het neurotechnologisch bedrijf van Elon Musk — niet aan de haal zou gaan met de geregistreerde patronen van onze gedachten en gedragingen om ze nadien te verzamelen als kostbare data. Het uiteindelijke doel van een neurobiologische implantaat zou zijn om mensen met zenuwaandoeningen en allerlei hersengerelateerde ziekten een handje te helpen door middel van doelbewuste brain-to-brain communicatie waarbij taal uiteindelijk overbodig zou kunnen worden.

Zizek verwees tijdens deze lezing eveneens naar een experiment met ratten en muizen uit de jaren 60. Die werden deze voorzien van een nog rudimentaire chip die elektrische impulsen verstuurde naar de hersenen. Hierdoor werd het mogelijk de gedragingen van deze ratten grotendeels te sturen, via enkele knopjes op een bedieningspaneel. Experimenten zoals deze bestaan al een tijdje en zijn binnen de academische wereld bekend. Opnieuw kan dit ons opzadelen met de nodige ethische, epistemologische en ontologische vraagstukken.

Net zoals smartphones tegenwoordig data verzamelen op allerlei vernuftige manieren, zouden ook toekomstige hersenchips (en andere lichamelijke biotechnologische toepassingen) dit kunnen doen. En op een nog efficiëntere en subtielere wijze. Big Tech botste al vaker met overheden. Daarbij kwam onder andere het recht op privacy in de vuurlinie te staan. In het licht van deze ontwikkelingen lijkt het meer dan ooit nodig werk te maken van een maatschappelijk ondersteund juridisch-ethisch kader met betrekking op artificiële intelligentie. Zoals wel vaker het geval is, dreigt politieke besluitvorming achter te lopen op de ingrijpende en verschroeiend snelle technologische innovatie vanuit Silicon Valley. Of wanneer een taalgenerator ons terloops even op de hoogte brengt over de potentiële gevolgen van ongereguleerde AI.

Raphaël Van Cappellen studeerde Wijsbegeerte aan de VUB en Theologie aan de KUL. Hij schrijft opinies, kortverhalen en gedichten.

Commentaren en reacties