Opinie&Analyse

AI heeft boerenverstand nodig

Vivianne Bendermacher |
Robotica & AI

Wat hebben Google Home, criminelen en koeien met elkaar gemeen? Het antwoord: kunstmatige intelligentie. In het geval van Google Home moge dat duidelijk zijn: de spraakassistent die erin ‘woont’ kan je alleen maar goed te woord staan, dankzij AI. Er zit tenslotte niet stiekem een mens in het kastje verborgen, dat heel snel een antwoord op jouw plotselinge vraag probeert te componeren. Boeventronies worden met politiecamera’s vastgelegd om ze op te kunnen nemen in een database, opdat we met gezichtsherkenningssystemen sneller bij daders of verdachten uit kunnen komen. Dankzij… jawel: kunstmatige intelligentie.

Wat hebben koeien dan met AI te maken? Ook die ontkomen er niet aan. Berta draagt tegenwoordig een slimme halsband die via een knap staaltje AI aan de boer moet laat weten wanneer ze tochtig (vruchtbaar dus) is. Tot zover vertel ik je waarschijnlijk niet veel nieuws: ja ja, AI is overal.

Maar daarmee is het grootste probleem van AI ook overal… en dat zijn: vooroordelen. Zo’n ‘bias’ zit in de data die aan een kunstmatige intelligentie gevoed wordt. Soms - maar niet altijd - komt zo’n bias vervolgens aan het licht en spreken we er de schande van, maar kunnen we het ook oplossen. Voorbeeldje: onlangs bleek dat Google Translate leed aan wat genderstereotyperingen. In het Turks kan ‘o bir doktor’ bijvoorbeeld zowel ‘Hij is dokter’ als ‘Zij is dokter’ betekenen. En toch liet Google Translate tot voor kort alleen de mannelijke vertaling zien. Terwijl er bij ‘verpleger’ voor de vrouwelijke vertaling werd gekozen. Pijnlijk natuurlijk en inmiddels is dat rechtgezet.

Criminelen zouden volgens een woordvoerder van politie die ik laatst sprak misschien wel baat hebben bij vooroordelen. Althans: criminelen uit minderheidsgroeperingen, of vrouwelijke boeven: want die worden nog altijd minder goed herkend door gezichtsherkenningssoftware dan de plain old witte, mannelijke schurk. Ik dacht dan ook dat er achter biases ethische dilemma’s schuilgaan. Maar soms kan een bias ook van heel andere orde zijn. Zoals in het geval van Berta.

Toen ik onlangs een AI-bedrijf voor melkveehouders interviewde en vroeg naar de grootste uitdaging, kwam hetzelfde probleem op de proppen: biases. De ene koe is de andere niet. Geloof ik meteen, maar laten we eerlijk zijn: Clara of Berta, een koe is een koe. Toch? En toch is het probleem aanzienlijk. Want als de AI gevoed wordt met data van koeien uit Amerika, zou bijvoorbeeld het klimaat daar ervoor kunnen zorgen dat de Amerikaanse Clara net even anders reageert als ze tochtig is, dan haar Oostenrijkse of Nederlandse conculega. Een boer zou dat zomaar kunnen verwarren met ziekte en in een extreem geval misschien wel terugvallen op medicatie, in plaats van op een stier.

Precies daarom is het van belang dat we beslissingen van AI kunnen blijven herleiden. Dat we kunnen begrijpen hoe een beslissing tot stand kwam en waarop het gebaseerd is. Dat wij mensen vroeger vonden dat doktoren mannen moesten zijn. Dat witte ontwikkelaars vooral witte kiekjes aan hun algoritme hebben getoond en dat Amerikaanse koeien nou eenmaal geen Nederlandse koeien zijn. En daar hebben we mensen voor nodig. Met boerenverstand.

Deel deze pagina
Abonnement

Bestel nu GRATIS 2 proefnummers TW


Wilt u lid worden, een los nummer aanvragen of een adreswijziging doorgeven? Neem dan contact op met MijnTijdschrift (088-2266622). 

Of bekijk ons aanbod van abonnementen.

Ontvang de nieuwsbrief, binnenkort 2 keer per week!

Meld je nu aan!

Naar boven