Tim Brys: ‘Straks zijn we overgeleverd aan de genade van AI’

Vorige week werd in deze krant meermaals gewezen op de groeiende en soms kwalijke rol die AI speelt in moderne oorlogsvoering, eerst in Oekraïne, dan Gaza en nu Iran. Een van de grote ethische vraagstukken daarbij is wie of wat welke beslissingen neemt en daar de eindverantwoordelijkheid voor draagt. Is dat AI of de mens? Generaals en defensiebedrijven beweren dat er altijd menselijke inbreng is: de ‘kill chain’ zou niet volledig algoritmisch gestuurd worden.

Dat is twijfelachtig. Kijk maar naar de massale vernietiging die Israël veroorzaakte in Gaza, waarbij AI tienduizenden doelen voorstelde en Israëlische soldaten maar 20 seconden per doel kregen om dat voorstel goed te keuren, met alle nevenschade van dien. Volautomatische wapensystemen lijken onvermijdelijk in de huidige militaire wedloop, vanwege de voorsprong die ze geven dankzij hun snelheid. Of het wenselijk is om menselijke beslissingen en morele verantwoordelijkheid op die manier uit te besteden, klinkt dan als een vervelend filosofisch vraagstuk dat je beter pragmatisch aan de kant kunt schuiven.

Dat vraagstuk blijft niet beperkt tot oorlogsvoering. Overal waar beslissingen worden overgelaten aan AI of andere machines, krijgen we ermee te maken. Neem nu zelfrijdende auto’s. De belofte is dat die veiliger zullen zijn dan wagens die door een mens bestuurd worden: AI kan veel sneller reageren, haar aandacht verslapt nooit en ze kan niet dronken achter het stuur kruipen. De recentste autonome automodellen lijken inderdaad in de meeste omstandigheden veiliger te zijn. Bij dageraad, schemering of mist hebben ze het soms moeilijk, dus vereisen ze nog steeds menselijke controle. De ‘bestuurder’ moet te allen tijde klaarstaan om in te grijpen (al rijd ik in dat geval liever zelf, eerlijk gezegd).

Fietser of voetganger?

Maar wat als de mens niet langer alert hoeft te zijn en rustig zijn krant mag lezen tijdens de autorit? Wat met onze verantwoordelijkheid als de auto zelf moeilijke ethische keuzes moet maken? Een fietser steekt onverwacht over en de auto kan niet op tijd remmen: moet hij dan de fietser omverrijden, uitwijken en inrijden op tegenliggers, of de stoep oprijden en daar voetgangers in gevaar brengen? Hoe moet de auto beslissen en wie draagt de verantwoordelijkheid voor de gevolgen?

Hetzelfde dilemma dient zich aan in de platformeconomie. Daar verbinden algoritmes vraag en aanbod in digitale marktplaatsen. Denk aan Uber of Deliveroo, maar ook aan bedrijven in de zorg- of schoonmaaksector. Die werken met flexibele freelancers, wier werktempo, taken en verloning bepaald worden door een machine.

Steeds meer bedrijven zetten bovendien AI in om hun werknemers te surveilleren, om meer productiviteit uit hen te wringen. Amazon is daar het extreemste voorbeeld van. De keuzes die dergelijke algoritmes maken, hebben een reële impact op het welzijn en de waardigheid van het werk van tienduizenden werknemers. Van menselijke inbreng is geen sprake meer, toch niet bij individuele beslissingen.

Nevenschade

Als de controle overgelaten wordt aan AI, denkt men alleen nog in de ontwikkelingsfase na over de ethische keuzes die gemaakt zullen worden. In welke omstandigheden mag een drone kiezen om de trekker over te halen? Welke levens zijn meer waard dan andere in een gevaarlijke verkeerssituatie? Hoeveel werk kan een Uberchauffeur aan, hoe weinig mag hij verdienen? Zulke beslissingen worden van een afstand genomen, in het abstracte, niet geconfronteerd met de mensen op wie ze impact zullen hebben.

In het beste geval leidt dat tot een rationeler en eerlijker systeem, waarbij de menselijke vooroordelen worden uitgevlakt die het leven soms onrechtvaardig maken. In het slechtste geval leiden afstandelijke beslissingen tot genadeloze systemen die de voorkeuren en vooroordelen van een selecte groep mensen versterken. Van een afstand is het veel makkelijker te beslissen dat de nevenschade van een bombardement aanvaardbaar is als je een Iraanse leider wilt uitschakelen, dan wanneer je oog in oog staat met de mensen die mee zullen sterven. Uit studies blijkt dat als zelfrijdende auto’s moeten kiezen, mensen liever hebben dat ouderen, daklozen, criminelen en zwaarlijvige mensen overreden worden dan kinderen, hoogopgeleiden en slanke mensen. Vanuit het verre hoofdkwartier is het ook makkelijker om de werkdruk van Uberchauffeurs te verhogen en hun lonen te verlagen, dan als je hen persoonlijk kent en op de hoogte bent van hun gezinssituatie.

Utilitair filosoof William MacAskill, die veel invloed heeft in Silicon Valley, stelde in een gedachte-experiment dat het beter zou zijn een Picasso te redden uit een brandend huis dan een kind, omdat je met het geld dat de Picasso kan opleveren meer kinderen zou kunnen redden. Kan zijn, maar als de robots van de toekomst zo geprogrammeerd worden, dan hoeft het voor mij niet.

Utilitaire moraliteit

Een dosis afstandelijkheid is nuttig bij morele beslissingen, zoals ook John Rawls argumenteerde met zijn gedachte-experiment ‘sluier van onwetendheid’: als we niet weten wie de ander is, kunnen we vooroordelen overstijgen en rechtvaardige principes formuleren. Maar we wéten of we generaals of bedrijfsleiders zijn die kunnen bepalen wiens belangen AI dient. Daarom is ook nabijheid essentieel: ze helpt ons om empathische principes te formuleren in het belang van iedereen, en om de genade op te brengen om de vele uitzonderingen op onze regels te herkennen. Mensen in de ogen kijken is nodig om de machinale en dus onmenselijke utilitaire moraliteit te overstijgen. Niet alles kan gemeten worden, niet alle gevolgen kunnen worden voorzien.

Tenzij we AI-systemen kunnen bouwen die empathie en genade ontwikkelen, stevenen we af op een steeds hardere en onrechtvaardigere wereld. Maar zelfs als we “machines of loving grace” zouden kunnen bouwen, zoals Dario Amodei, de ceo van Anthropic, ze noemt, blijft de vraag: willen we echt van de genade van machines afhangen?

Bron: De Standaard

Laat een reactie achter