Nut en noodzaak van regelgeving voor kunstmatige intelligentie. Deel 8 van de serie ‘Perspectieven op Kunstmatige Intelligentie’.

 

Van alle technologische ontwikkelingen van dit moment is kunstmatige intelligentie het meest ingrijpend en het minst begrepen. We zien indrukwekkende nieuwe toepassingen, maar kunnen de impact op mensen, organisaties en maatschappij nog nauwelijks overzien. In deze serie blogs, Perspectieven op Kunstmatige Intelligentie, onderzoeken we niet alleen de mogelijkheden, maar ook de bedoelde en onbedoelde consequenties.

Regelgeving moet, maar is niet eenvoudig te formuleren

In de 4e Industriële Revolutie, waar we nu middenin zitten, zijn het vooral robotisering en de ontwikkeling van kunstmatige intelligentie die tot nieuwe welvaart zullen leiden. We hebben eerder in deze serie blogs voorbeelden gezien van nieuwe producten, diensten en verdienmodellen.

Daarnaast hebben we steeds gewezen op de gevaren en mogelijke negatieve gevolgen. Omdat kunstmatige intelligentie ook op onwenselijke manieren kan worden ingezet, concludeerden we aan het einde van het vorige blog (deel 7) dat regelgeving noodzakelijk is.

Wat mij betreft is het doel van regelgeving niet om de ontwikkeling van kunstmatige intelligentie terug te draaien of te stoppen en ook niet om de vervanging van banen door robots te verbieden. We moeten de technologische vooruitgang niet willen tegenhouden, als dat al zou kunnen. Het doel van regelgeving moet zijn om de ontwikkeling in goede banen te leiden.

In dit blog bespreken we op welke gebieden regelgeving voor kunstmatige intelligentie wenselijk is. We zullen zien dat het formuleren van regelgeving alles behalve eenvoudig is. Dit zijn de issues.

Aansprakelijkheid en moraliteit

Als je een product hebt gekocht dat niet goed werkt of dat schade veroorzaakt, kun je de fabrikant aansprakelijk stellen. Het onderscheid tussen een fout in het product en een fout van de gebruiker is in principe duidelijk. Als een auto-ongeluk wordt veroorzaakt doordat de bestuurder vergeet te remmen, is de bestuurder aansprakelijk. Als de oorzaak een technisch falen is (en de auto nieuw is en volgens de instructies is onderhouden en gebruikt, et cetera), dan is de fabrikant aansprakelijk.

Een zelfrijdende auto is zijn eigen bestuurder en dan ligt het voor de hand dat de fabrikant aansprakelijk is voor het falen van de algoritmes die de auto besturen. Ingewikkelder wordt het als het algoritme in een zelfrijdende auto moet kiezen uit alleen maar slechte opties. Als er plotseling een spookrijder op jouw weghelft verschijnt, mag de auto dan een fietser aanrijden om de berm in te kunnen rijden en een frontale aanrijding te voorkomen? Gaat de veiligheid van de één boven die van een ander?

Hoe leer een algoritme om een morele beslissing te nemen? Op MIT is de Moral Machine ontwikkeld met als doel om door middel van crowd-sourcing de morele beslissingen die mensen nemen in kaart te brengen. Wat doe je als je moet kiezen tussen het doden van 2 inzittenden of 4 voetgangers die oversteken terwijl het verkeerslicht op rood staat?

 

 

Bij zelflerende AI systemen is de aansprakelijkheid nog moeilijker vast te stellen. Neem een AI systeem dat medische diagnoses stelt. Kan de maker van het systeem aansprakelijk worden gehouden voor een onjuiste medische diagnose als de oorspronkelijke algoritmes zijn geüpdatet door machine learning? Overigens benadrukt IBM Watson dat het uitsluitend adviseert en dat de arts de finale beslissing neemt en verantwoordelijk blijft.

Existentiële bedreigingen

Het Europees Economisch en Sociaal Comité (EESC) heeft in 2017 advies uitgebracht aan de Europese Commissie, waarin wordt gepleit voor een “human-in-command” benadering. Uitganspunt is dat mensen altijd de controle over de machines moeten behouden. De vraag is echter of dit haalbaar is. Als auto’s zelfrijdend zijn, verliezen mensen de vaardigheid om een auto te besturen.

Bovendien hebben wedstrijden zoals die tussen de wereldkampioen Go en AlphaGo van Google Deepmind aangetoond dat kunstmatige intelligentie menselijke intelligentie kan overstijgen. Hoe gaan mensen de zelflerende algoritmes controleren? Hoe voorkomen we dat algoritmes een black box vormen, die door mensen niet meer te begrijpen is? We kunnen hooguit de uitkomsten proberen te verifiëren.

Van alle autonome systemen, zijn de autonome wapensystemen verreweg het meest controversieel. Drones die zijn uitgerust met een machinegeweer en op afstand worden bestuurd, bestaan al langer. Het is technisch haalbaar om deze drones autonoom te maken, dat wil zeggen dat zij zonder menselijke interventie beslissen over leven en dood. Voeg software toe die gezichten kan herkennen en je bent een heel eind. De “Campaign to Stop Killer Robots” heeft een video gemaakt die illustreert wat er zou kunnen gebeuren.

 

 

Nepnieuws en filterbubbels

Zoekmachines (zoals Google) en sociale media (zoals Facebook) maken gebruik van algoritmes die selecteren welke informatie je te zien krijgt, bijvoorbeeld op basis van je locatie en je online surfgedrag. Zo kan het gebeuren dat je alleen informatie te zien krijgt die je eigen mening bevestigt en tegenargumenten worden uitgefilterd. Als onafhankelijke en objectieve journalistiek het aflegt tegen propagandistisch nepnieuws, kan dat de democratie ondermijnen.

Dit onderwerp staat hoog op de agenda van de Europese Commissie, die in april 2018 met een plan wil komen. De vraag is hoe je effectief kunt optreden tegen nepnieuws zonder de vrijheid van meningsuiting te beperken. Als de overheid nieuwsorganisaties of nieuwsberichten gaat beoordelen, zou dat een vorm van censuur zijn. En zelfcensuur om boetes te voorkomen, is al niet veel beter. Moeten we de democratie beschermen met ondemocratische maatregelen?

Datamonopolies en geopolitieke verhoudingen

AI systemen zijn slechts zo goed als de data waarover zij kunnen beschikken. De grote technologiebedrijven snappen dat data de ‘nieuwe olie’ is en doen er alles aan om zoveel mogelijk data te verzamelen. In de digitale economie leiden netwerkeffecten tot een ‘winner-takes-all’ dynamiek. De grootste vijf technologiebedrijven Apple, Alphabet, Microsoft, Amazon en Facebook zijn machtige datamonopolies geworden.

China heeft zijn data effectief beschermd door deze Amerikaanse bedrijven geen toegang te geven tot de Chinese markt, waarop Tencent en Alibaba grootmachten zijn. Europese bedrijven van een vergelijkbare omvang en reikwijdte zijn er niet. Europese data staan vooral op servers van Amerikaanse ondernemingen. De General Data Protection Regulation (GDPR) die in mei 2018 van kracht wordt, geeft Europese burgers meer zeggenschap over hun data, maar het is twijfelachtig of dit voldoende is. Zoals Standard Oil aan het eind van de 19e eeuw werd opgedeeld omdat het 90% van de markt beheerste, zouden we nu ook de datamonopolies moeten opknippen op zo’n manier dat Europese data in Europese handen komen.

Maatschappelijke discussie over ethische principes als voorloper op regelgeving

Sommige overheden willen de digitalisering extra bevorderen door robots burgerrechten te geven. Saudi-Arabië heeft de robot Sophia, die er uit ziet als een vrouw, in oktober 2017 staatsburger gemaakt. Ik ben hier geen voorstander van. Er is inmiddels voldoende bekend over de gevaren van kunstmatige intelligentie dat we weten dat het humanisme en de macht van de mens over de machine actief moeten worden beschermd.

Verschillende internationale organisaties, zoals Future of Life Institute en AI For Good Foundation, alsmede universiteiten, zoals TU Delft en Stanford, hebben manifesten met ethische principes voor kunstmatige intelligentie gepubliceerd. Terugkerende thema’s daarin zijn dat AI systemen moeten worden ontworpen ten behoeve van mensen, dat de systemen transparant en controleerbaar moeten zijn en dat de beslissingen op basis van algoritmes omkeerbaar en vrij van vooroordelen moeten zijn. Het zijn ethische principes die de komende jaren hun weg zullen vinden in nieuwe regelgeving.

Comments are closed.