zoeken Nieuwsbrief
      Linkedin    Twitter   
  
nieuws
 

Hoe gaan we op een verstandige manier om met kunstmatige intelligentie?

AI versus ethiek

15 januari 2020 - Nu we er zonder verder bij na te denken meer en meer vertrouwen op machinaal gestuurde beslissingen – wie kan er immers nog zonder Google Maps? – ontstaan er ook in toenemende mate vragen omtrent de ethiek van deze kunstmatige intelligentie (AI). Sommigen vrezen dat het hart – de ziel – van het bedrijfsleven eronder lijdt, daarom worden er steeds vaker richtlijnen opgesteld om op een ethische manier om te gaan met AI.

Maar zowel de overheid als burgers hebben ook zo hun eigen ideeën over hoe AI en de mens het beste samengaan. Zo zijn de Asilomar AI Principles opgesteld door het Future of Life Institute, gesteund door onder andere Elon Musk, Facebook- en Google-directeuren en wijlen Stephen Hawking. Cyrill Tiwon, Director Presales Benelux & Nordics bij OpenText, is de auteur van dit artikel.


Naarmate de hoeveelheid en verscheidenheid aan data blijft groeien, zal AI alleen maar meer een centrale rol gaan spelen bij het filteren van wat werkelijk onze aandacht verdient, zowel in ons persoonlijke leven als op het werk. Hierbij moeten we wel eerst een aantal vragen over de ethiek van AI beantwoorden.
 
Hoe kunnen we vertrouwen op de aanbevelingen van AI?
Traditionele computers houden de enorme hoeveelheid data die bedrijven verzamelen niet bij. Daarom maken we steeds meer gebruik van AI voor advies bij de betekenis van datasets, zowel in gestructureerde als ongestructureerde vorm. Dankzij machines kunnen taken worden geautomatiseerd waardoor werknemers zich meer kunnen richten op het creatieve aspect van hun vak. En het mooie van machinaal leren is dat het naarmate het meer wordt gebruikt steeds intelligenter wordt. De algoritmische voorspellingen worden in de loop der tijd steeds nauwkeuriger. De vraag of deze voorspellingen al dan niet te vertrouwen zijn, geldt hier net zozeer als in het geval bij de aanbevelingen van een andere adviseur – zij het een machine, zij het van vlees en bloed. Er zal altijd een menselijk element achter AI-gedreven besluitvorming moeten zitten. Dat betekent voor de dagelijkse praktijk dat bedrijven moeten overwegen om een HR- of ethiekspecialist te laten samenwerken met datawetenschappers. Zo kunnen AI-aanbevelingen langs de culturele waardenlat van een onderneming worden gelegd. Dit gaat hand in hand met het achtste Asilomar AI-principe: "Elke betrokkenheid van een autonoom systeem bij de juridische besluitvorming moet een correcte verklaring bieden die door een bevoegde menselijke autoriteit kan worden gecontroleerd".

Hoe kunnen we menselijke waarden integreren in machinaal gestuurde AI-kwesties?
Mensen moeten dus de waarden van een bedrijf waarborgen – zoveel is duidelijk. Maar wanneer machines verantwoordelijk zijn voor het nemen van beslissingen is de vraag: hoe laten we deze beslissingen zo goed mogelijk aansluiten bij de set waarden en principes die we zelf zouden toepassen? In veel opzichten is AI al begonnen met het verbeteren van de mensheid in het algemeen. Zo dragen AI-gedreven oplossingen zoals asset performance optimization bij aan de vermindering van treinongelukken en houdt het vliegtuigen minder lang aan de grond, dankzij preventief onderhoud. Hierdoor wordt het personeel op tijd geattendeerd op benodigd onderhoud, en wordt zowel tijd als geld bespaard. Door de doelstellingen voor machine-beslissingen van begin af aan af te stemmen op je normen en waarden, kun je AI-praktijken laten aansluiten op menselijke waarden. Idealiter moet elk bedrijf een set AI-principes opstellen om zo, telkens wanneer er een nieuwe AI-oplossing wordt geïmplementeerd, deze hierop af te stemmen. Uiteindelijk wordt zo ook steeds minder menselijk handelen vereist.

Hoe kunnen vooroordelen in AI-data worden voorkomen? 
Data die door AI wordt gegenereerd zal niet altijd volledig vrij zijn van enige subjectiviteit, deze gevaarlijke misvatting heeft menig bedrijf al in de problemen gebracht.  Wanneer er met een bestaande set data wordt gewerkt, bestaat de kans dat deze data gekleurd is. Wanneer hier niet alert op wordt gehandeld, worden eerder gemaakte aannames en vooroordelen meegenomen in het algoritme – met alle risico’s van dien. De gekleurdheid van data is dus een reële zorg die proactief moet worden aangepakt door AI-organisaties en bedrijven. Want hoewel algoritmes van nature objectief zijn kunnen door gekleurde datasets de vooroordelen zelfs worden versterkt. Zo ontdekten onderzoekers enkele jaren geleden dat het veelgebruikte door Google ontwikkelde algoritme word2vec stereotypes in teksten vergrootte, omdat het algoritme homemakernursereceptionist enzovoort als typisch vrouwelijke beroepen beschouwde en captainarchitectboss enzovoort als typisch mannelijke beroepen.

Wie is verantwoordelijk voor algoritmische beslissingen?
Dit lijkt misschien niet relevant, maar dat is het zeker wel. Als een klant of zakenpartner zich gediscrimineerd voelt, bijvoorbeeld op basis van lokale wetgeving of gemeenschappelijke richtlijnen van de Europese Commissie, heeft hij of zij uiteraard het recht om die beslissing in de rechtbank te toetsen. Als het besluit in kwestie is genomen door middel van een algoritme, via mogelijk bevooroordeelde gegevens uit verschillende bronnen, zoals hierboven beschreven, dan blijft het bedrijf dat de diensten aanbiedt (bijvoorbeeld een bank of een verzekering) verantwoordelijk voor de volledige omvang van de wet. Transparantie is hier van essentieel belang: welk platform werd gebruikt en hoe toegankelijk is het platform? Deze juridische en ethische verantwoordelijkheid mag niet zomaar worden genomen.
 Het is dus essentieel om een goede dataset te hebben. Een datasteekproefset moet groot genoeg zijn om betrouwbare bevindingen op te leveren en subjectiviteit te minimaliseren. Dit vraagt om een robuust systeem dat de meest rijke en complexe informatie kan verzamelen en verwerken, van zowel gestructureerde als ongestructureerde data en tekst, om de beste conclusies te trekken. Daarbij moet er bij het verzamelen van de data toezicht zijn van teams met een verschillende kijk op achtergronden en andere onderscheidende factoren. Het is nog beter om personeel van verschillende afdelingen, niveaus en teams erbij te betrekken, wat ook weer de intellectuele diversiteit bevordert. Natuurlijk kan zelfs een dergelijke preventieve aanpak geen garantie bieden tegen vooroordelen. Resultaten moeten daarom ook altijd achteraf worden onderzocht op zulke signalen. Alle opvallende verbanden tussen ras, seksualiteit, leeftijd, geslacht, religie en soortgelijke factoren moeten worden bekeken. Wanneer er een vooroordeel wordt gespot, kunnen aanpassingen in de set worden toegepast. Net als bij het verzamelen van data moeten ook deze aanpassingen weer vanuit verschillende invalshoeken correct worden doorgelicht.
Met zoveel potentiële toepassingen voor AI is het onmogelijk om waterdichte antwoorden te geven op bovenstaande vragen. Maar elke positieve verandering die kan worden bereikt door gebruikers aan te sporen om na te denken over wat deze vragen voor hen betekenen in dit computertijdperk, is welkom. Wanneer wordt begonnen met een duidelijk doel dat aansluit bij de organisatiewaarden en dat regelmatig wordt gemonitord, bent u goed op weg in het optimaal benutten van AI.
 

 
 Doorsturen   Reageer  

 

Laatste nieuws

 Een op de vier bedrijven niet bezig met klimaat en duurzaamheid
 Gen-Z’ers en Millennials zouden van baan veranderen voor bedrijf dat beter aansluit bij waarden
 Duurzaamheidsmanagement steeds belangrijker voor moderne bedrijven
 

Gerelateerde nieuwsitems

 70 procent financiële professionals is al bezig met blockchain en kunstmatige intelligentie
 Kunstmatige intelligentie breed ingezet bij klantenservice‐afdelingen
 Van kunstmatige intelligentie naar emotionele intelligentie
 Enthousiasme over robotisering: verschil tussen mannen en vrouwen groeit
 
 
reacties
 
Er zijn nog geen reacties.

REAGEREN

Naam:
Emailadres:
URL: (niet verplicht) http:// 
 
Reactie/Opmerking:
Ik wil bericht per e-mail ontvangen als er meer reacties op dit artikel verschijnen.
 
Als extra controle, om er zeker van te zijn dat dit een handmatige reactie is, typ onderstaande code over in het tekstveld ernaast. Is het niet te lezen? Klik hier om de code te wijzigen.
Human Design op de werkvloer voor teameffectiviteit en bedrijfsgroei
reacties
Top tien arbeidsmarktontwikkelingen 2022 (1) 
‘Ben jij een workaholic?’ (1) 
Een op de vier bedrijven niet bezig met klimaat en duurzaamheid (3) 
Eén op zeven Nederlanders staat niet achter aanbod van hun organisatie  (1) 
Drie manieren om te reageren op onterechte kritiek (1) 
Een cyber-survivalgids voor managers: hoe ga je om met cyberaanvallen?  (1) 
Mind your data (1) 
top10