Google besluit: we gaan rechtdoor!

Recentelijk las ik een interessant artikel van Dimitri Dokmetzis  en Anne van der Veen in de Correspondent. Het artikel begint met de beschrijving hoe Google de zelfrijdende auto ontwikkelt, vervolgens beschrijft het ongewenste privacy-vraagstukken ervan. In deze post van mij ga ik een net iets andere kant op: namelijk wat nu als de methoden en technieken niet beperkt blijven tot het autorijden of kaartmateriaal? Wat als Artificial Intelligence (AI) ook wordt ingezet als besluitnemer van andere complexe vraagstukken? Zijn we op weg naar een ‘heerlijke nieuwe wereld‘?

Het is een interessante gedachte dat het blijkbaar lukt om zoiets gecompliceerd als autorijden in datamodellen te stoppen. De auto’s van Google rijden meer kilometers zonder ongelukken dan mensen. Dat is heel knap: een computermodel kan blijkbaar de werkelijke wereld beter voorspellen dan mensen. In het artikel staat beschreven dat Google het autonoom rijden anders aanpakt dan andere autofabrikanten: namelijk in plaats van het langzaam opbouwen van de autonomie van een auto, neemt Google autonomie als uitgangspunt. In plaats van het toevoegen van eigenschappen aan een bestaande auto bouwt Google dus een auto rondom noodzakelijke functies om autonoom te rijden.

 

 

Het model als besluitnemer

Veel mensen gebruiken computermodellen al als ondersteuning bij besluitvorming, maar wat nu als we beginnen met het idee dat de computer gewoon de beste beslissing neemt?

Hoe uitgebreider de modellen en hoe meer logaritmen worden ingevoerd, hoe meer complexere vragen Google kan beantwoorden. Vragen als: Op welke locaties kunnen we het best een weg of woningen aanleggen? Wanneer moeten de onderhoudswerkzaamheden aan een kernreactor plaats vinden? Welke subsidie of overheidsinvestering levert te weinig op? Hoeveel belasting moeten we betalen? Moet er wel of niet meer in defensie worden geïnvesteerd? Is dit kind beter af in bij een pleeggezin? Moeten we parkeergeld Self-image-of-selfdrivingcargaan vragen bij natuurgebieden? Google geeft het antwoord en mensen (or robots?) voeren het uit.

Dit zijn op zich allemaal rationele zakelijke vragen, maar wel met maatschappelijke / sociale impact. Wie vinden we dat die vragen mag beantwoorden?  Wie heeft in het geval van een besluit nemend computermodel de verantwoordelijkheid? Het team, het hoofd van het team, de CEO, de aandeelhouder, de klant zelf, de overheid, de verzekeraar? Past dit wel in het huidige rechtssysteem?

 

Stoppen met controleren

Op dit moment kunnen we die antwoorden zelf nog enigszins controleren, zoals we bij niet al te ingewikkelde sommetjes een rekenmachine nog wel kunnen controleren. Maar op een gegeven moment, als Google 99% van de vragen ‘goed’ heeft beantwoord, stappen we mogelijk langzaam over naar het gewoon vertrouwen van Google. Ik ga nu namelijk ook controleren of mijn rekenmachine de uitkomst van (134*72)*1,087623^12 goed heeft uitgerekend. Dat geloof ik wel. Op een gegeven moment ga ik Google ook blind geloven bij complexe vragen. Een simpele zoekopdracht is nu al gekleurd, maar meestal best goed. Kan ik Google (of Wikipedia, of …)  echter wel vertrouwen of moet ik toch altijd blijven controleren? Als een computermodel een auto twee miljoen kilometer zonder ongeluk laat rijden, dan doet hij dat beter dan als ik zelf rijd. Ik ben dus beter af als ik mij laat rijden dan dat ik zelf rijd. (Hoewel, de Google-auto schijnt nog niet alles te kunnen.)

Wanneer gaan mensen geen rijbewijs meer halen? Die is immers niet meer nodig. Kan ik deze vraag verder uitbreiden met: ‘Wanneer stop ik met kritisch nadenken?’ Er zullen natuurlijk altijd mensen zijn die wel kritisch blijven nadenken. Soms zal dat goed zijn, maar  ik kan me even goed voorstellen dat we ‘te’  kritische mensen toch zullen beschouwen als rare wezens. Die mensen nemen immers rare besluiten: ze maken een grotere kans om ‘te verongelukken’.

 

Hoe hard mag je rijden?

Pas geleden kon je lezen dat Google aangaf dat hun auto’s soms harder dan toegestaan mogen rijden, omdat dat veiliger is. Allerlei mensen verontwaardigd want het model laat blijkbaar wetsovertredingen toe… Wat is belangrijker: die maximumsnelheid of de veiligheid? Het antwoord hangt dus af van wat ingevoerd wordt en dus ook wat het wereldbeeld van de modelmaker is. Complexe vragen kunnen politieke of maatschappelijke doelen hebben. In hoeverre is de vragensteller zich hiervan bewust?

Het model bepaalt dus steeds meer de oplossing, de handeling of het antwoord. Het wereldbeeld van de modelmaker heeft invloed heeft op het model.  Het wereldbeeld van de modelmaker heeft dus invloed op het antwoord.

 

Neem verantwoordelijkheid

In de praktijk is het natuurlijk zo dat mensen het niet per definitie beter zullen doen dan computers. Ik maak zelf voldoende irrationele beslissingen om dat te weten. Maar het punt is dat ik me dat vaak nog wel realiseer. De illusie is dat in de toekomst dergelijke beslissingen zullen worden gepresenteerd als ‘rationeel’, maar dat niet zijn.

Het is naar mijn idee een illusie om te denken dat we de hele wereld in een allesomvattend model te vervatten is, er is altijd ‘ruis’, waardoor het model al per definitie niet perfect kan zijn, omdat de wereld dat niet is. Belangrijke vraag is daarom om te bedenken wat te doen als het antwoord achteraf niet correct is. Bij wie kunnen we protesteren? Hoeveel verantwoordelijkheid heeft / neemt Google? Of heb ik die zelf omdat ik besluit om op Google te vertrouwen? Voor wie zijn de gevolgen als het mis gaat? Wist diegene dat? Wat nu als 99,9% van de beslissingen van de rekenmodellen beter zijn dan als mensen die maken? De financiële wereld heeft ook ‘alles’ in modellen gestopt. Er wordt momenteel meer automatisch dan menselijk in aandelen en opties gehandeld. Voor wie zijn de gevolgen van verkeerde computerbeslissingen? De gemiddelde burger betaalt momenteel (door lage spaarrentes en gemiste pensioeninkomsten) voor de foute investeringen vanuit de financiële wereld.

 

Brave new world

Ik ben benieuwd. Gaan we ons langzaam maar zeker ‘overgeven’ aan de Google-wereld? Zijn we dan elkaar beter af zijn dan als we het zelf doen? Willen we dat ook? Waarom eigenlijk niet? Tot waar laten we ons besturen? Door wie laten we ons besturen? Interessante vragen waar ik ook de antwoorden niet op heb, maar die we in de komende decennia wel samen zullen bepalen. Gaan we naar een heerlijke nieuwe wereld, een Brave New World, of blijven we op een mooie middenweg?

 

 

Reageer hier op dit artikel!