Bezorgd over de gevaren van kunstmatige intelligentie? Ze zijn er al.

Op 16 mei hield de subcommissie voor privacy, technologie en recht van de Amerikaanse senaat een hoorzitting over de regulering van algoritmen voor kunstmatige intelligentie (AI). De voorzitter van de commissie, senator Richard Blumenthal (D-Conn.), Hij zei dat “kunstmatige intelligentie dringend regels en waarborgen nodig heeft om zijn enorme beloften en valkuilen aan te pakken.” Tijdens de hoorzitting verklaarde Sam Altman, CEO van OpenAI: “Als deze technologie fout gaat, kan het mooi gaan fout.”

Naarmate de mogelijkheden van algoritmen voor kunstmatige intelligentie geavanceerder zijn geworden, waarschuwen sommige stemmen in Silicon Valley en daarbuiten voor de hypothetische dreiging van “bovenmenselijke” kunstmatige intelligentie die zou kunnen menselijke beschaving vernietigen. Denk aan Skynet. Maar deze vage zorgen hebben een buitensporige hoeveelheid zendtijd gekregen, terwijl de zeer reële, concrete, maar minder “sci-fi” gevaren van AI-bias grotendeels worden genegeerd. Deze gevaren zijn niet hypothetisch en liggen niet in de toekomst: ze zijn er nu.

Ik ben een AI-wetenschapper en arts die mijn carrière heeft gericht op het begrijpen hoe AI-algoritmen vooroordelen in het medische systeem kunnen bestendigen. In een recente publicatie, liet ik zien hoe eerder ontwikkelde kunstmatige intelligentie-algoritmen voor de herkenning van huidkanker slechter presteerden op afbeeldingen van huidkanker op een bruine en zwarte huid, wat zou kunnen leiden tot verkeerde diagnoses bij gekleurde patiënten. Deze dermatologische algoritmen zijn nog niet in de klinische praktijk, maar veel bedrijven wel werkt aan het verkrijgen van wettelijke goedkeuring voor AI-in toepassingen in de dermatologie. Toen ik als onderzoeker en consultant met bedrijven op dit gebied sprak, ontdekte ik dat velen verschillende huidtinten ondervertegenwoordigd bleven bij het bouwen van hun algoritmen, ondanks onderzoek dat aantoonde hoe dit tot vertekende prestaties kon leiden.

Buiten de dermatologie kunnen reeds toegepaste medische algoritmen aanzienlijke schade aanrichten. Paper uit 2019 gepubliceerd in Wetenschap ze analyseerden de voorspellingen van een eigen algoritme dat al op miljoenen patiënten is toegepast. Dit algoritme was bedoeld om te helpen voorspellen welke patiënten complexe behoeften hebben en extra ondersteuning zouden moeten krijgen, door elke patiënt een risicoscore toe te kennen. Maar uit de studie bleek dat voor elke gegeven risicoscore zwarte patiënten eigenlijk veel zieker waren dan blanke patiënten. Het algoritme was bevooroordeeld en als het werd gevolgd, werd er minder geld toegewezen aan zwarte patiënten die in aanmerking hadden moeten komen voor aanvullende zorg.

De risico’s van vooringenomenheid op het gebied van kunstmatige intelligentie reiken verder dan de geneeskunde. In het strafrecht zijn algoritmen gebruikt om te voorspellen welke personen die eerder een misdrijf hebben gepleegd het grootste risico lopen om binnen de komende twee jaar opnieuw in de fout te gaan. Hoewel de innerlijke werking van dit algoritme onbekend is, studeert ze ontdekten dat er sprake was van raciale vooroordelen: zwarte beklaagden die niet recidiveren, hadden twee keer zoveel onjuiste voorspellingen als blanke beklaagden die niet recidiveren. Het is bekend dat op AI gebaseerde gezichtsherkenningstechnologieën slechter presteren bij gekleurde mensen, maar ze worden al gebruikt en hebben geleid tot arrestaties en gevangenisstraffen voor onschuldige mensen. Voor Michael Olivervan een van de mannen die ten onrechte was gearresteerd voor op AI gebaseerde gezichtsherkenning, zorgde de valse beschuldiging ervoor dat hij zijn baan verloor en zijn leven ontwrichtte.

Sommigen zeggen dat mensen zelf bevooroordeeld zijn en dat algoritmen meer “objectieve” besluitvorming mogelijk maken. Maar wanneer deze algoritmen worden getraind op bevooroordeelde gegevens, bestendigen ze op zijn best dezelfde bevooroordeelde resultaten als menselijke besluitvormers, en kunnen ze in het slechtste geval vooroordelen versterken. Ja, de samenleving is al bevooroordeeld, maar willen we onze technologie niet bouwen om beter te zijn dan de huidige gebroken realiteit?

Nu kunstmatige intelligentie steeds meer doordringt in de samenleving, hoeven we ons geen zorgen te maken over de Terminator. Wij zijn ook de modellen die de meest onrechtvaardige aspecten van onze samenleving weerspiegelen en versterken. We hebben wet- en regelgeving nodig die doelbewuste en doordachte ontwikkeling en testen van modellen bevordert om ervoor te zorgen dat technologie leidt tot een betere wereld, niet een onrechtvaardigere wereld. Terwijl de subcommissie van de Senaat de regulering van kunstmatige intelligentie blijft overwegen, hoop ik dat ze zich realiseren dat de gevaren van kunstmatige intelligentie er al zijn. Deze vooroordelen zijn al geïmplementeerd en toekomstige algoritmen moeten nu worden aangepakt.

Roxana Daneshjou, MD, Ph.D., is een board-gecertificeerde dermatoloog en postdoctoraal fellow in biomedische datawetenschap aan de Stanford University School of Medicine. Ze is een Paul en Daisy Soros Fellow en een Public Voices OpEd Project Fellow. Volg haar op Twitter @RoxanaDaneshjou.

Copyright 2023 Nexstar Media Inc. Alle rechten voorbehouden. Dit materiaal mag niet worden gepubliceerd, uitgezonden, gekopieerd of herverdeeld.

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top