donderdag 11 januari 2018

IoT, kunstmatige intelligentie en bias


Als intelligente computers en platformen binnen IoT technologie het denkwerk van mensen overnemen kan dat vraagtekens oproepen. Vertrouwen wij de computer blindelings of is enige controle op zijn plaats? Misschien is het een kwestie van tijd, iedereen vertrouwt blindelings op navigatiesystemen, op buienradar of op verkeersinformatie, dat heeft ook de nodige tijd gekost. De angst voor kunstmatige intelligentie is logisch, de impact is immers groot en zal veel dingen in ons leven veranderen. Elon Musk, één van de grootste technologiepioniers van deze tijd, wil met zijn bedrijf Neuralink computers verbinden met ons brein. Facebook investeert in de breincomputer interface die gedachten omzet in tekst of acties. Natuurlijk is dit knappe technologie die veel mensen behulpzaam zal zijn. Toch hoor je vaak spreken over angstgevoelens. Hoe betrouwbaar is deze technologie en is de informatie die we krijgen eerlijk?


Nieuwe technologie moet vaak even zijn plek verwerven, maar als de acceptatie dan zover is gaat het als een sneltrein. De robot die ons welkom heet en verder helpt aan de incheckbalie van een hotel is nu nog niet algemeen geaccepteerd, maar zal zeker zijn plekje verwerven in onze hotels. Maar, wat is de ware aard van de software? Zelflerende systemen hebben immers basisinformatie meegekregen van hun ontwikkelaar. Het bekende voorbeeld van de zelfrijdende auto die keuzes moet maken in onverwachte situaties waarin een crash onvermijdelijk is spreekt hierin boekdelen. Dit zijn moeilijke vraagstukken, wie moet en kan hier de regels vaststellen?

Wie bepaalt de regels?
De discussie over kunstmatige intelligentie en allerlei enge gevolgen is al redelijk lang gaande. De wetenschapper Stephan Hawking en toppionier Elon Musk hebben met ondersteuning van vele deskundigen jaren geleden al uitgebreid gewaarschuwd in een open brief aan de Verenigde Naties. Ook Barack Obama sprak al in 2016 over de gevaren en de regelgeving die hiervoor moet komen. De discussie blijft terugkomen en is ook belangrijk, het gaat immers over de neutraliteit van een techniek die heel veel invloed krijgt op onze wereld en ons doen en laten. Als het gaat om neutraliteit van voorspellingen door techniek hoor je vaak spreken over bias. Letterlijk betekent bias vooringenomenheid en het op basis hiervan sturen in een bepaalde richting. Ook bij kunstmatige intelligentie is er wel degelijk sprake van bias die onvermijdelijk zorgt voor onzuivere resultaten en afwijkingen van de werkelijkheid.

Hoe betrouwbaar zijn onze slimme systemen?
Omdat kunstmatige intelligentie grotendeels gebaseerd is op logica, wordt vaak aangenomen dat systemen een zuivere en onpartijdige beslissing zullen nemen. Mensen handelen in tegenstelling tot computers snel vanuit allerlei vooroordelen. Maar, bedenk wel dat systemen getraind zijn met data die voor een groot deel door mensen is verzameld. Google en Facebook weten exact waar jouw interesses liggen en voorzien je ruimschoots van informatie hierover. Bovendien lees je alleen maar wat je “vrienden” ook lezen, hoe gekleurd kan het zijn in de digitale wereld. Veel websites zijn gedreven door een verdienmodel van waaruit ook hun zelflerende systemen worden gestuurd. De websites vertonen dus een bias gericht op het zelfbeeld van de ontwerper en onthouden hun informatie aan mensen die niet aan bepaalde profielen voldoen. Het is eigenlijk heel eenvoudig, als je gekleurde informatie in een systeem stopt of het probleem verkeerd formuleert dan zal het antwoord niet betrouwbaar zijn.

Bias van kunstmatige intelligentie
Het kan dus wel degelijk zo zijn dat systemen gebaseerd op kunstmatige intelligentie een ingebouwde bias hebben. De wereld zit immers vol oneerlijkheid die onvermijdelijk terugkomt in de data. De technologiereuzen Microsoft, Amazon, Facebook en Apple zijn redelijk leidend in deze ontwikkelingen waarmee het voordehand liggend is dat onze dagelijkse technologie de waarden van deze bedrijven heeft. Over de ingebouwde bias is het laatste woord nog niet gevallen, het wordt steeds meer duidelijk dat de vooruitziende waarschuwingen van Hawking, Musk en Obama geen onzin zijn. De open brief stelt dat de verdere ontwikkeling van kunstmatige intelligentie de mensheid veel voordeel kan bieden, mits tegelijkertijd mogelijke nadelen worden voorkomen.

Hoe staat het met wetgeving?
Op dit gebied is het niet anders dan met andere ontwikkelingen, wetgeving loopt altijd achter. Een verplichting tot het testen van software of algoritmes bestaat niet. Gelukkig is het niet zo dat nog nergens over is nagedacht. De Wet Persoonsbescherming schrijft voor dat bij algoritmische besluitvorming altijd mensen betrokken moeten zijn. De Algemene Verordening Gegevensbescherming verplicht organisaties die werken met algoritmische besluitvorming om de logica hiervan te kunnen verklaren. Het begin is er en ook is duidelijk dat we dit nooit volledig onder controle zullen krijgen. Duidelijk is dat er hard gewerkt moet worden aan goede afspraken op internationaal niveau.

Zie ook
Een overzicht van mijn blogs of bezoek mijn blogspot pagina

Geen opmerkingen:

Een reactie posten