Of je je nu druk maakt over de invloed van Artificial inteligence (AI) op ons werk of ChatGPT en andere bots omarmt, AI is op korte termijn niet meer weg te denken uit ons leven. Dat betekent dat we ook de gevaren van AI moeten onderkennen en (ethische) regels voor het gebruik moeten vastleggen. In dit opiniestuk wijs ik op de gevaren van AI en hoe we die aan de bron kunnen voorkomen. Want een machine mag nooit het laatste woord hebben.
Enkele jaren geleden heb ik de boeken van de Foundation serie van Isaac Asimov gelezen. Wat zeg ik, verslonden. Want alhoewel zijn boeken in eerste instantie in “pulp fiction”-tijdschriften verschenen, werden zijn kwaliteiten als schrijver van epische en visionaire science fiction al snel herkend door een groter publiek. Het zijn ondanks hun ouderdom, goed te lezen boeken die gedragen worden door een spannende verhaallijn.
Waar Asimov vooral bij het grote publiek bekend van is, zijn de I, Robot-verhalen waarin de drie wetten van de robotica voorschreef.
Eerste Wet: Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt.
Tweede Wet: Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als die opdrachten in strijd zijn met de Eerste Wet.
Derde Wet: Een robot moet zijn eigen bestaan beschermen, voor zover die bescherming niet in strijd is met de Eerste of Tweede Wet.
Deze wetten hebben als onderliggende aanname dat robots (of elke vorm van kunstmatige intelligentie) niet noodzakelijk de empathische vermogens kunnen ontwikkelen die mensen wel bezitten. Ethiek lijkt tot nu een zuiver menselijke waarde. Daarom moeten deze wetten als het ware ingebakken worden in het systeem van een kunstmatige intelligentie. Hoe dat precies in zijn werk gaat is nog niet duidelijk. Wel kun je ter discussie stellen wat de definitie van een mens is (die blijkt rekbaar in de boeken), wat “letsel toebrengen” nu eigenlijk inhoudt, en wanneer die wetten botsen (zoals de robot die een mens opereert in The Bi-Centennial Man).
Garbage in, garbage out
De dilemma’s besproken in de verhalenreeks over robots zijn verrassend actueel, 75 jaar na het verschijnen van de boeken. De wetten van de robotica zijn naadloos toe te passen op het meest-besproken techonderwerp van dit moment: AI of Artificial intelligence (kunstmatige intelligentie). Want juist dit onderwerp gaat over een entiteit die in staat is om beslissingen te nemen op basis van (een grote hoeveelheid) gegevens. Waar ethiek nog geen integraal onderdeel is van het ongrijpbare proces tussen ontvangen van de relevante informatie en het ontstaan van een beslissing. AI heeft geen boodschap aan de aaibaarheid van kuikentjes. Laat staan dat kunstmatige intelligentie – bij het creëeren van nieuwe regelgeving – het intrinsiek iets uitmaakt of er mensen worden vermalen tussen de molenstenen van kafkaëske regels. Ik zeg intrinsiek, want er is een belangrijke kanttekening: AI wordt getraind op bestaande datasets en gebruikt die informatie om nieuwe input te verwerken. Wat AI namelijk onderscheidt van andere algoritmes en softwaresystemen is dat de wijze waarop een uitkomst tot stand komt niet te achterhalen is. Het is letterlijk een black box. Microsoft is er achtergekomen dat als je de ongefilterde informatie van het open web gebruikt om je chatbot te trainen, je antwoorden krijgt die wellicht sterke overeenkomsten vertonen met discussies gevoerd op open riolen, zoals Twitter en Reddit, suïcidale blogposts of gewoon simpelweg fictie (https://www.theverge.com/2023/2/15/23599072/microsoft-ai-bing-personality-conversations-spy-employees-webcams). Ook hier geldt nog steeds, garbage in, garbage out. De voorzichtige conclusie die we alvast kunnen trekken is dat de drie wetten van de AI wellicht ook aan de basis van de training data en de opvoeding van de AI moeten staan.
‘Hier staat dat het zo is’
Eigenlijk schrijf ik dit artikel omdat ik iets veel belangrijkers aan de kaak wil stellen. Niet alleen is er een terechte fascinatie voor de enorme kansen en mogelijkheden van de AI tools die we de komende tijd gaan zien. Ook wordt er stevig gewaarschuwd voor de risico’s. De angst dat “de robots” alles gaan overnemen is groter dan ooit. We moeten er toch niet aan denken dat een AI zichzelf toegang tot een virus of Trojan weet te verschaffen en de op internet beschikbare kennis gebruikt om gladjes door alle beveiligingslagen van onze IT infrastructuur te glippen en wereldwijd ravage aan te richten? Of erger nog, dat de AI gaat beslissen wat het beste voor ons, de mensheid, is. Is dit een horrorscenario? Zeker, maar het wordt nog erger. En het bestaat helaas al.
Terwijl onze wereld complexer wordt, met globalisering en steeds ingewikkeldere regelgeving, is het een logisch gevolg dat onze huidige softwaresystemen daaraan gelijke tred houden. Achter ogenschijnlijk triviale processen, zoals je pensioen, de aanvraag van een lening of de belastingaangifte, gaan steeds complexere softwareprocessen schuil die door almaar minder mensen worden begrepen. Dat lees je goed. Veel kritieke processen zijn gevat in software die maar door een handjevol mensen begrepen wordt, en vaak ook maar ten dele.
Die software zou in theorie een te begrijpen algoritme moeten zijn met een uitkomst die prima te voorspellen is op basis van de input. De praktijk is echter weerbarstiger. Als er bugs in de software zitten (en reken maar dat elke paar regels willekeurige code er minstens één bevat) of wanneer er een situatie voorkomt die afwijkt van de in het verleden uitgewerkte scenario’s, zijn de resultaten wel degelijk onvoorspelbaar. En daar is waar het nu al heel vaak misgaat met alle consequenties van dien.
Als de medewerker van de Belastingdienst zegt: u heeft gelijk meneer, maar de computer zegt nu eenmaal dat u nog moet betalen … dan ga je betalen. Of als de software van de verzekeraar heeft besloten dat je gefraudeerd hebt en dat je daarom op de zwarte lijst komt. Er is nu eenmaal geen proces ingericht om je te rehabiliteren, dus dat gebeurt ook niet.
Dit is nu al de realiteit. Terwijl er gediscussieerd wordt over de risico’s van AI, zijn er nu al levens van mensen definitief verwoest, omdat de persoon achter het toetsenbord ‘hier staat dat het zo is’ boven zijn eigen beoordelingsvermogen stelt.
Eindoordeel door de mens
Of het nu een rekenmachine is, de robots van Asimov of de systemen van de Belastingdienst, een machine mag nooit het laatste woord hebben. Dat is volgens mij de onderliggende boodschap van de wetten van de robotica en een bijna filosofische les voor de mensheid. Welke informatie we onze kunstmatige intelligentie ook voeren, wat voor resultaat daar ook uitkomt, er zal altijd een mens moeten beoordelen of het antwoord acceptabel is. Als we dat bij iets vernuftigs als AI al vinden, waarom dan niet bij de paar miljoen regels onleesbare code die ooit door een paar junior programmeurs met een te strakke deadline en onduidelijke requirements zijn geschreven?
Ik ben niet bang dat AI, of welke andere techniek die wij gaan ontwikkelen, een gevaar op zichzelf gaat vormen. Wij bouwen de machine, dus wij zijn verantwoordelijk voor het gedrag van die machine. Dat betekent ook dat we die machines nooit de kans mogen geven Asimovs wetten te breken. Mensen zullen altijd de laatste line of defense moeten zijn wanneer we robots, AI of welke technologie dan ook inzetten. Ook nu al. Om de geschetste dystopische scenario’s te voorkomen is het van groot belang dat we dat als uitgangspunt nemen.
Geef een reactie