Een existentiële vraag is hoe we de menselijke autonomie handhaven te midden van machines die ons brein hacken en autonoom beslissingen nemen. Om te voorkomen dat AI, bedoeld of onbedoeld, op onwenselijke manieren wordt ingezet, is regulering noodzakelijk. Dat is alles behalve eenvoudig. Een drietal issues.
Aansprakelijkheid en moraliteit. Wie is aansprakelijk voor een ongeval door een zelfrijdende auto? Als die auto zijn eigen bestuurder is, ligt het voor de hand dat de fabrikant aansprakelijk is voor het falen van de algoritmes die de auto besturen. Maar wat als de zelfrijdende auto moet kiezen uit alleen maar slechte opties? Als er plotseling een spookrijder op jouw weghelft verschijnt, mag de auto dan een fietser aanrijden om de berm in te kunnen rijden en een frontale aanrijding te voorkomen? Gaat de veiligheid van de één boven die van een ander?
Als onafhankelijke en objectieve journalistiek het aflegt tegen propagandistisch nepnieuws, kan dat de democratie ondermijnen.
Machine versus mens. Wedstrijden zoals die tussen de wereldkampioen Go en AlphaGo van Google Deepmind hebben aangetoond dat AI menselijke intelligentie kan overstijgen. Hoe voorkomen we dat algoritmes een black box vormen, die door mensen niet meer te begrijpen is? Van alle autonome systemen, zijn autonome wapensystemen verreweg het meest controversieel. Drones die zijn uitgerust met een machinegeweer en op afstand worden bestuurd, bestaan al langer. Het is technisch haalbaar om deze drones autonoom te maken, dat wil zeggen dat zij zonder menselijke interventie beslissen over leven en dood.
Nepnieuws en filterbubbels. Zoekmachines en sociale media maken gebruik van algoritmes die selecteren welke informatie je te zien krijgt, bijvoorbeeld op basis van je locatie en je online surfgedrag. Zo kan het gebeuren dat je alleen informatie te zien krijgt die je eigen mening bevestigt en tegenargumenten worden uitgefilterd. Als onafhankelijke en objectieve journalistiek het aflegt tegen propagandistisch nepnieuws, kan dat de democratie ondermijnen. De vraag is hoe je effectief kunt optreden tegen nepnieuws zonder de vrijheid van meningsuiting te beperken.
Verschillende internationale organisaties, zoals Future of Life Institute en AI For Good Foundation, alsmede universiteiten, zoals TU Delft en Stanford, hebben manifesten met ethische principes voor AI gepubliceerd. Terugkerende thema’s daarin zijn dat AI-systemen moeten worden ontworpen ten behoeve van mensen, dat de systemen transparant en controleerbaar moeten zijn en dat beslissingen op basis van algoritmes omkeerbaar en vrij van vooroordelen moeten zijn. Het zijn ethische principes die de komende jaren hun weg zullen moeten vinden in nieuwe regelgeving.
Deze blog is geschreven op persoonlijke titel.