10 december 2019 Innovatie
Door Jelle Minnema
10 december 2019 Innovatie

De gevolgen van kunstmatige intelligentie op de maatschappij De menselijke maat van een robot

Er is de laatste tijd veel aandacht voor kunstmatige intelligentie en de gevolgen daarvan op de maatschappij. Dit is logisch, want we krijgen allemaal steeds meer te maken met 'slimme' apparaten en toepassingen om ons heen.

Slimme apparaten

Hoogstwaarschijnlijk maak ook jij – wellicht zelfs onbewust – gebruik van een slim apparaat. Denk maar eens aan de vele assistenten (Google, Amazon, Apple) die verkrijgbaar zijn. Als los apparaat hebben ze al in menig huishouden hun intrede gedaan. Dezelfde assistent zit ook in iedere telefoon ‘ingebakken’. Bovendien zijn er de slimme energiemeter, de intelligente thermostaat, zelfdenkende fitnessapparaten, zelfrijdende auto’s, slimme wasmachines en zo kunnen we nog wel even doorgaan. Maar ook aan meer en meer applicaties (programma’s) worden slimme algoritmes toegevoegd. Denk maar aan de recente berichten over SyRI, een systeem om fraudeurs met uitkeringen en toeslagen op te sporen.

Persoonsgegevens

Door de grote opmars van al deze ‘slimmigheid’ ontstaat er discussie over de privacy van gegevens, het nut en de noodzaak van deze technologie en over de ethische aspecten als apparaten of applicaties zelf beslissingen gaan nemen op basis van hun intelligentie.

Want hoe autonoom zijn we nog in het nemen van beslissingen? Hoe betrouwbaar is het nieuws als we alleen maar berichten voorgeschoteld krijgen die passen bij ons ‘profiel’? Worden in de toekomst de prijzen in de winkel en in het openbaar vervoer bepaald door de (verwachte) drukte? Of nog verder doorgedacht: zou een zelflerende robot geen moreel kompas moeten hebben om ons te behoeden voor ongewenste effecten?

Braver dan de mens

Dit alles is precies wat een econometrist aan de TU Delft beoogt met de door hem ontwikkelde methode om kunstmatige intelligentie ‘braver te maken dan de mens’. Normaliter leren de algoritmes (die wij kunstmatige intelligentie noemen) van data van gebeurtenissen die in het verleden hebben plaatsgevonden. Bij deze beslissingen spelen ook de (onbewuste) vooroordelen van de beslissers een rol. In ons eerdere artikel over de ‘vooringenomenheid’ bij het toepassen van kunstmatige intelligentie schreven wij daar al over.

In de nieuwe methode vraagt de onderzoeker experts om een serie lastige beslissingen te nemen. Zij weten dat zij dit doen om uiteindelijk een ‘moreel bewust’ algoritme te maken. Daardoor doen zij zich ‘braver’ voor dan in werkelijkheid, maar dat is niet erg. Het algoritme wordt daarmee ook ‘braver’. Nadeel is echter dat het algoritme maatwerk is en dus voor elk type experiment apart bepaald moet worden en dat deze ook geregeld moet worden vernieuwd, omdat ook de ethische keuzes van mensen door de tijd heen veranderen.

Mijn conclusie?

Het is goed dat er naast het nadenken over de technologie ook mensen zijn die het ethische en morele aspect van deze nieuwe technologie onderzoeken en daar antwoorden op proberen te vinden. Maar eigenlijk zou iedereen die met data en technologie werkt zich daar bewust van moeten zijn. De professionals van Incore Solutions kunnen je helpen bij alle uitdagingen op het gebied van data en analytics. Daarbij denken wij graag mee om gezamenlijk tot innovatieve oplossingen te komen.

Neem gerust contact op om hierover met ons in gesprek te gaan.

Jelle Minnema Sales manager