Tech

Microsoft: AI kan onze reputatie beschadigen

Maarten Reijnders • 06 februari 2019 11:19 @rohy

Beeld © Getty Images

Problemen met kunstmatige intelligentie (AI) kunnen een bedreiging vormen voor Microsoft, waarschuwt het bedrijf in een document voor beleggers.

“Als we AI-oplossingen aanbieden die controversieel zijn vanwege hun impact op mensenrechten, privacy of werkgelegenheid, kan dat ons merk en onze reputatie beschadigen”, schrijft Microsoft in een document dat het bedrijf heeft ingediend bij de Securities and Exchange Commission (SEC), de Amerikaanse toezichthouder op beursgenoteerde bedrijven.

In het document, dat deze week werd opgeduikeld door Quartz, zet Microsoft verscheidene risico’s van kunstmatige intelligentie op een rij. “AI-algoritmes kunnen gebrekkig zijn. Datasets kunnen tekortschieten of vooroordelen bevatten. Ongepast of controversieel datagebruik door Microsoft of andere partijen kan de acceptatie van AI-oplossingen ondermijnen.”

Racistisch en seksistisch

Microsoft kreeg zelf begin vorig jaar te maken met negatieve publiciteit, toen uit onderzoek bleek dat het gezichtsherkenningsalgoritme van Microsoft moeite had om vrouwen en mensen met een kleurtje te herkennen. Het bedrijf besloot daarop zijn software aan te passen.

Twee jaar eerder moest Microsoft nog de Twitter-chatbot Tay offline halen, omdat de bot – die werd gevoerd door andere Twitter-gebruikers – in no-time racistische en seksistische taal begon uit te slaan.

Schaduwzijden

Topmensen bij Microsoft waarschuwen sindsdien regelmatig voor de schaduwzijden van kunstmatige intelligentie. Zo riep Microsoft-topman Satya Nadella overheden vorige maand nog op om regels op te stellen voor gezichtsherkenning.

Eind vorig jaar waarschuwde Brad Smith, topman bij Microsoft op gebied van juridische zaken, voor Big Brother-achtige scenario’s. “Als je een winkel binnenloopt kan de winkelier straks dankzij gezichtsherkenning zien wanneer je er voor het laatst was, wat je toen hebt vastgehouden en wat je hebt gekocht. En dat is nog maar kinderspel in vergelijking met wat de technologie kan betekenen voor de verhouding tussen burgers en de staat.”

Politie

Burgerrechtenorganisaties en activisten trekken eveneens aan de bel over de mogelijke gevaren van kunstmatige intelligentie. Zo bestaan er in de VS zorgen over het gebruik van de gezichtsherkenningssoftware Rekognition van Amazon door de politie.

Deze week nog presenteerde de Britse mensenrechtenorganisatie Liberty een onderzoek naar het gebruik van algoritmes door de Britse politie. Verscheidene korpsen zetten AI in om te voorspellen waar de kans op misdaad het grootst is.

Deze vorm van ‘predictive policing’ is volgens Liberty niet zonder gevaar. “Mensen denken dat computerprogramma’s neutraal zijn, maar in feite bevestigen ze de bestaande vooroordelen van de politie.”

Kijk ook: worden robots slimmer dan mensen?

Volg Bright op YouTube voor meer tech-video's