Blog

AI als middel voor eerlijk en verantwoord ondernemen

 
Als we beter weten welke informatie wordt gebruikt om AI te voeden en hoe het beslissingen neemt, biedt het kansen voor verantwoorde, transparante en eerlijke toepassingen. Shutterstock
Shutterstock
 
Geschreven door:
Leestijd 4 minuten

Kunstmatige intelligentie (AI) is vaak bevooroordeeld en ondoorzichtig door het zelflerende karakter. Een beter begrip van de informatie die wordt gebruikt om AI-modellen te voeden en hoe AI tot beslissingen komt, biedt kansen voor verantwoorde, transparante en eerlijke toepassingen. Expert Job van den Berg legt uit.

Lees verder onder de advertentie

Job van den Berg

Data- en AI-expert en Co-founder van ai.nl en The Automation Group

Job van den Berg is data- en AI-expert en co-founder van de bedrijven ai.nl (keynotes, trainingen en workshops over AI) en The Automation Group waarmee hij bedrijven helpt om efficiënter te werken en meer impact te maken door het bouwen van AI softwarerobots. Hij is expert-blogger bij De Ondernemer en deelt geregeld zijn inzichten. Altijd pragmatisch, met focus op kansen voor ondernemers.

Dat AI-modellen bevooroordeeld - ook wel biased - kunnen zijn, met alle nadelige gevolgen van dien, lezen we regelmatig. De grote, bekende taalmodellen van OpenAI (ChatGPT) en Google (Gemini) zijn getraind op data afkomstig van internet. Deze foundation models leren van alle content op internet en maken op basis daarvan teksten en afbeeldingen. De AI-gegenereerde output is een spiegel van hoe wij tegen de wereld aankijken. En die wereld is niet altijd fraai.

Lees ook: Wat we kunnen leren van Nederlandse AI-ondernemers in Silicon Valley

Lees verder onder de advertentie

Data als ‘spiegel’

AI is als een papegaai die reproduceert wat het heeft aangeleerd. Maar die papegaai wil ook steeds beter worden. Het risico bestaat op ‘hallucinaties’ waarbij het model een eigen werkelijkheid creëert en met onrealistische aannames gaat komen. Dat is niet opzettelijk en - in essentie - zonder kwade bedoelingen: het model doet dat vanuit zijn statische aard om bevestiging te zoeken van hetgeen het model voorspelt. Dat neemt overigens niet weg dat deze eigenschap juist voor kwade bedoelingen uitgenut kan worden. Het risico dat een AI-model een verkeerde afslag neemt en daarmee biased wordt, is groot en daarmee kan het onwenselijke uitkomsten genereren.

In dit verband wordt al jaren het wereldberoemde voorbeeld aangehaald van het door Amazon ontwikkelde AI-model om sollicitanten te selecteren, getraind met data van aangenomen kandidaten in de afgelopen tien jaar. In die periode werden vooral mannen aangenomen. Dat leidde ertoe dat het algoritme vrouwen als minder geschikt zag en dus discrimineerde. Niet het AI-model is ‘biased’ maar de data die het als ‘spiegel’ gebruikt. Met dit voorbeeld wordt de discussie over het potentieel van de inzet van AI binnen recruitment vaak gesloten.

Taalmodel opvoeden

Waar in Nederland bedrijven experimenteren met ChatGPT zijn bedrijven in Silicon Valley bezig om de taalmodellen achter deze chats toe te passen op hun eigen bedrijfsdata en deze te integreren in hun bedrijfsprocessen. Deze ontwikkeling opent een deur om AI-modellen te ontwikkelen die juist inclusief zijn en volgens eerlijke, verantwoorde richtlijnen beslissingen nemen.

Lees verder onder de advertentie

Het zit zo: taalmodellen achter tools als ChatGPT hebben geen bewustzijn of begrip, maar kunnen menselijke taal tot in de detail doorgronden. Het kan leren om op een menselijke manier te redeneren en kan grote hoeveelheden data analyseren en interpreteren. Sinds een half jaar is het mogelijk om via een API (een technische verbinding) gebruik te maken van deze ‘intelligentie’ van een taalmodel maar deze zelf op maat te maken door het taalmodel ‘op te voeden’ naar jouw standaarden. Dus niet naar het wereldbeeld dat terug te vinden is op internet.

AI leren beslissingen te nemen

Dit doe je door zelf de beslisregels van dit taalmodel te bepalen en door specifieke informatie te delen met het model. Vergelijk het met een stagiair die nog weinig weet maar gaandeweg leert hoe het bedrijf werkt en keuzes maakt. Een ongetraind taalmodel is als een onbeschreven blad die wel ‘intelligent’ is maar nog moet leren hoe het beslissingen neemt.

Lees ook: Maak je bedrijf ‘slimmer’: integreer AI in je bedrijfsprocessen

Lees verder onder de advertentie

Deze op maat gemaakte taalmodellen worden nu door bedrijven ingezet om bijvoorbeeld op basis van bedrijfsrichtlijnen contracten te controleren, of op de juiste manier aanbestedingen te schrijven of geautomatiseerd marketing- en productteksten te schrijven. Generatieve AI en specifiek taalmodellen kunnen dus op een menselijke manier verantwoorde beslissingen nemen, maar dan moet je deze wel op een juiste manier ‘opvoeden’.

AI als krachtig middel voor verantwoord ondernemen

Dit biedt kansen om AI in te zetten om verantwoorde en eerlijke keuzes te maken. Zoals je een AI-model kunt leren hoe je complexe documenten moet controleren, kun je AI-modellen leren hoe het eerlijke output genereert. Enerzijds door het model te trainen met data die een afspiegeling zijn van de wereld die jij voor je ziet. Anderzijds door zelf de regels te bepalen waarop het AI-model handelt. Zo transformeren we AI van een potentieel probleem in een krachtig middel voor verantwoord ondernemen

AI kan - mits op de juiste manier getraind - een krachtig middel zijn om verantwoord te ondernemen. Maar dan wel door AI-modellen zelf te leren hoe het eerlijke keuzes maakt en door geen gebruik te maken van chatbots zoals ChatGPT.

Lees verder onder de advertentie