Eerder gepubliceerd op 10 november 2023 in Trouw:
In het Filosofisch elftal legt Trouw een actuele vraag voor aan twee filosofen uit een poule van elf. Vandaag: hoe moet de politiek zich verhouden tot artificiële intelligentie?
Eind deze maand is het een jaar geleden dat ChatGPT werd gelanceerd. Dankzij de slimme chatbot is artificiële intelligentie (AI) voor een breed publiek geen abstractie meer, maar een nieuw werktuig in de virtuele gereedschapskist. Naast enthousiasme over alle nieuwe mogelijkheden klinken er ook zorgen over mogelijke rampzalige effecten van de technologie: massale werkloosheid door robotisering, verspreiding van desinformatie, de onbekende dreiging van zelfdenkende superrobots.
Na een jaar ChatGPT komt de politieke reactie knarsend en piepend op gang. De Amerikaanse president Biden vaardigde een decreet uit om onder andere veiligheidstesten voor AI te verplichten, en de Britse premier Sunak agendeerde AI-regulering tijdens een speciale veiligheidsconferentie. Ook is er Europese wetgeving in de maak.
In de partijprogramma’s voor de Tweede Kamerverkiezingen is de kwestie van AI slechts matig vertegenwoordigd, zo constateerde Trouw afgelopen week. Wat zou de rol van de politiek in deze kwestie moeten zijn, een actieve of een terughoudende?
“Wat de regulering van AI betreft kunnen we vooral leren van het menselijk-genoomproject”, stelt Bas Haring, filosoof en bijzonder hoogleraar publiek begrip van de wetenschap aan de Universiteit Leiden. “Dat initiatief wordt door de overheid gefinancierd, omdat anders alleen particulieren profiteren van de kennis van menselijk genmateriaal. Bij AI zie ik dat nog veel te weinig: overheden stellen beperkende regels op, maar nemen niet het initiatief om de technologie binnen het publieke domein te krijgen.
“Daardoor ontstaat er een ongelooflijke machts- en kennisconcentratie binnen een handjevol, met name Amerikaanse, techbedrijven. Een nieuwe technologie die iedereen raakt moet je niet toevertrouwen aan bedrijven die er louter commerciële bedoelingen mee hebben. Als overheid moet je dat dus reguleren. Een lastige zaak, want die techbedrijven werken met machtige lobbygroepen. Voor je het weet laat de Nederlandse overheid zich in de luren leggen, zoals de lobby voor online gokken is gelukt.”
“De mogelijkheid om AI te trainen is momenteel oneerlijk verdeeld, dat klopt”, zegt politiek filosoof Ivana Ivkovic. “Doordat ze het internet monopoliseerden konden techbedrijven oppermachtig worden, en het risico is dat die machtsconcentratie zich voortzet naar AI, want die technologie komt deels uit dezelfde bedrijven voort. Dan is het moeilijk voor de politiek om die macht nog te spreiden en de technologie een publiek karakter te geven. Bij internet en sociale media hebben overheden dat eerder te weinig gedaan.”
Haring: “Sociale media bestaan pas een jaar of vijftien. Dat is relatief kort, dus zo vreemd is dat tempo nou ook weer niet. Of je nu wil of niet, een ontwikkeling zal zich eerst moeten uitkristalliseren in de samenleving en het schrijven van een wet moet vervolgens zeer zorgvuldig gebeuren. Daardoor heeft de overheid inherent een zekere traagheid.”
Ivkovic: “Maar dan nog zie ik een verschil tussen ‘traag’ en ‘bijzonder traag’. Bij internet en sociale media zou ik de wetgeving ‘bijzonder traag’ willen noemen, en ik hoop dat het bij AI vlotter zal gaan.
“Er zijn veel analyses geschreven over de rol van sociale media bij de opkomst van Donald Trump. Omdat in de Verenigde Staten kleine lokale media waren wegbezuinigd ontbrak er stabiele berichtgeving, en sociale media sprongen in het ontstane gat. Volgens mij is het dan effectiever voor overheden om die lokale media weer op te bouwen op een manier die ze slagvaardig maakt in het internettijdperk, dan dat je Trumpisten van digitale platforms gaat bannen. Ook bij AI moet er meer gekeken worden naar de kansen die de technologie biedt in de publieke sfeer, niet alleen naar de gevaren.”
Haring: “Daar ben ik het mee eens, zo lang er oog blijft voor urgente problemen zoals de bias in de systemen. Wanneer een bedrijf een zelflerende AI voedt met achternamen en geslachten van mensen, en het systeem gaat op basis daarvan klanten weigeren voor bijvoorbeeld kredietverstrekking, dan is dat discriminerend en dus immoreel. Bedrijven moeten transparant zijn over de data die ze verwerken, en het is een overheidstaak om dat af te dwingen.”
Ivkovic: “Het probleem van de discriminerende algoritmen is wezenlijk, maar waarom denkt de overheid niet ook na over het omgekeerde, namelijk hoe je AI kan inzetten om emanciperend beleid te voeren? Met AI kan je snel en goedkoop teksten op maat genereren om burgers te informeren, coachen, voorlichten. Burgers kunnen AI bijvoorbeeld gebruiken om in andere talen met overheidsinstanties te communiceren, of om zelf Nederlands te leren. Dat werkt drempelverlagend.”
“Het beste zou zijn als er in Nederland een AI-ministerie wordt opgericht, dat actief onderzoek doet naar mogelijke toepassingen voor publieke dienstverlening. Goede wetgeving corrigeert niet alleen, die schept randvoorwaarden.”
Volgens Ivkovic is AI een ‘grensoverschrijdende nieuwe technologie’, en dat veroorzaakt altijd onbehagen. “Techniekfilosoof Martijntje Smits vergelijkt de maatschappelijke reacties op nieuwe technologieën met rituele dansen om monsters te bezweren, zoals ze die tegenkwam in etnologisch onderzoek. Sommige angsten mogen dan terecht zijn, andere zijn niet helemaal rationeel. Die zijn ingegeven door onze projecties van het nog onbekende monster.”
Haring: “Dan moet ik denken aan het paperclip-argument van AI-filosoof Nick Bostrom. Natuurlijk zullen wij mensen nooit expres een robot bouwen die ons uitroeit, zegt Bostrom, maar misschien doen we dat wel per ongeluk. Stel dat je een autonome robot opdracht geeft om zoveel mogelijk paperclips te maken, wat gebeurt er dan? Op een gegeven moment is het ijzer op, en dan gaat die robot mensen doodmaken, want mensen hebben ijzer in hun bloed. Die robot doet gewoon waarvoor ie geprogrammeerd is, namelijk tot in het oneindige paperclips maken.
“Maar goed, als ik dat soort monsterverhalen hoor denk ik vooral: wees gewoon een beetje voorzichtig bij het ontwikkelen.”
Ivkovic: “Het probleem van die monsters is dat we daardoor de écht essentiële vragen over het hoofd zien. Mensen zijn bijvoorbeeld bang dat een AI fouten kan maken als je die vertrouwt met belangrijke medische of juridische beslissingen, maar de onderliggende vraag is veel verontrustender: wat als blijkt dat een AI béter is in het nemen van zulke beslissingen dan een mens? Wat willen we dan zelf in de hand houden, en wat niet?
“Tegelijkertijd ontnemen de monsters ons ook het zicht op de kansen die AI biedt. In het onderwijs wordt de AI-discussie gedomineerd door angst voor plagiaat en luie studenten, maar als je bedenkt dat ChatGPT over vijf jaar waarschijnlijk net zo normaal is als Google, hoe zou je het dan creatief in kunnen zetten, bijvoorbeeld als wiskunde-coach? Niets zo geduldig als een chatbot tenslotte! Wat dat betreft mis ik visie in Nederland. We hollen achter de ontwikkelingen aan en je hoort bijna alleen maar zorgen, zorgen, zorgen.”
Monsters bezweren
In haar proefschrift Monsterbezwering (2002) schreef wetenschaps- en techniekfilosoof Martijntje Smits dat nieuwe technologieën altijd onbehagen veroorzaken, omdat ze onbekende risico’s met zich meebrengen. Die risico’s kunnen we niet goed voorspellen, en daarom is het ook moeilijk om erop te anticiperen.
Nieuwe technologieën brengen altijd reële gevaren met zich mee: toen de elektriciteitscentrale werd uitgevonden, liepen mensen een wezenlijk risico om geëlektrocuteerd te worden. Toch worden die reële gevaren vaak overschaduwd door denkbeeldige gevaren, vertegenwoordigd door de onkenbare, ‘monsterlijke’ kant van een nieuwe technologie.
Vergelijk het met Frankensteins monster, een wezen dat de grenzen overschrijdt tussen mens en ding, tussen leven en dood. Ook nieuwe technologieën zijn ‘monsterlijk’ omdat ze de gangbare culturele categorieën in de war gooien.
De vraag is hoe je met die ambiguïteit moet omgaan. En dat is ook een politieke kwestie.