data algoritme AI machine learning Ethiek

Big data worden vaak omschreven met de vier v’s: volume, velocity, variety en veracity. Met andere woorden: veel, snel, gevarieerd en betrouwbaar.

Maar big data-algoritmes worden steeds meer gebruikt: verzekeraars gebruiken algoritmes om jouw premie te berekenen. Via data algoritme laat booking.com je sneller een hotelkamer laat boeken.

Netflix heeft het over zijn  personalisatie-mechanismes die het aanbod ‘perfect’ op jouw smaak afstelt. Dat is begrijpelijk: hoe meer je vertrouwt op de keuze die Netflix voor je maakt, des te kleiner de kans dat je zelf op zoek gaat naar iets anders en erachter komt dat het Netflix-aanbod vrij beperkt is.


Cijfermania, algoritmes en Machine learning


“Alles wat meetbaar is wordt gemeten. Alles wat niet echt meetbaar is wordt voorbereid om meetbaar gemaakt te worden… cijfermania”

Cijfers over ons leven laten beslissen is echter gevaarlijk en steunt op een groot misverstand: “data geven altijd de werkelijkheid weer”.  Maar cijfers zijn zoals woorden, zonder context zeggen ze niets.

We hebben steeds cijfers gebruikt, objectief niet? Denk maar eens aan de gemiddelden, grafieken en draaitabellen, die we ook nu nog gebruiken om informatie te begrijpen. Met statistiek kan je alles zeggen en bewijzen, wordt weleens gezegd.

De methodes die nu worden gebruikt, zoals big data, kunnen enkel nog veel meer informatie aan. Die technieken  die men gebruikt – algoritmes – beslissen oa welke post je ziet op Facebook en welke zoekresultaten je krijgt op Google.


Wat is dat nu een algoritme?

Je kan het vergelijken met stappenplan om een bepaald doel te bereiken. De instructies worden door de software ontwikkelaar in een computertaal geschreven en bestaat uit een reeks logische commando’s. Om het doel te bereiken volstaat een eenvoudig algoritme niet, door opeenvolgende instructies wordt het algoritme steeds complexer.

Op het moment dat het algoritme weet hoe de instructies verlopen, kan het verzamelen van data beginnen. Indien je alles in cijfers kan uitdrukken en je voldoende data hebt verzamelt, kan het algoritme zijn gedrag, instructies aanpassen. Het algoritme suggereert op basis van de doelstellingen nieuwe informatie. Men spreekt van kunstmatige intelligentie.

Via machine learning gaat het algoritme nog een stap verder en herkent zelf patronen in big data. Zo leert de computer een nieuwe taak zonder dat deze stap voor stap werd voorgeprogrammeerd.

Machine learning … als je maar voldoende voorbeelden voorziet om een algoritme mee te voeden – dit is een kat en dat niet – kan dat heel snel worden geleerd en kan een algoritme zelfs slimmer worden dan mensen. Die werkwijze vereist weliswaar vooruitstrevende computing-infrastructuur met voldoende verwerkingscapaciteit, maar dat is dankzij de cloud met zijn oneindige dataopslagmogelijkheden geen enkel probleem meer”, zegt Kraft.

Hoe worden big data en kunstmatige intelligentie gebruikt?

Kunstmatige intelligentie wordt gebruikt in bedrijven om processen te verbeteren of te automatiseren. Voor de consument kan men kunstmatige intelligentie inzetten om zoekfuncties te verbeteren of gepersonaliseerde diensten aan te bieden.

Is het echt zo eenvoudig?


Binnen de health care gaat men in China een stap verder dan de gepersonaliseerde dienstverlening. CarbonX is een data bedrijf, ze combineren metingen van de volgende data:

  • interne moleculaire biologie (DNA, proteïnes, …);
  • externe omgevingsfactoren (via smart domotica bv temperatuur en vochtigheid in huis,…);
  • fysieke data van vitale lichaamsopmetingen ( bloed, suikerspiegel,….);
  • gedrag en levensstijl ( wearbales);
  • sociale data.

Deze data base is ruimer dan de traditionele medische en gezondheidsdata. Aan de hand van deze data krijgen ze een holistische en diep ingebed contextuele inzicht in de gezondheid. iCarbonX zal veel verschillende metingen moeten doen bij een zeer grote groep mensen om zo de onderliggende correlaties en patronen te zien. 

Enkele bemerkingen en vragen:

  • Wat met privacy? Zullen genoeg mensen hieraan willen deelnemen?
  • Wat als slechts een categorie van mensen wil deelnemen gaat dit dan op voor al die andere categorieën?
  • Hoe komt men aan deze data?
  • Vergeet men niet enkele belangrijke impact elementen binnen de data?

Garbage in, garbage out

Big data-algoritmes proberen soms abstracte concepten te meten. Hoe kunnen we dit betrouwbaar omzetten in cijfers?

Een ander gevaar is de herkomst van big data bij dataverzameling. Bijna iedereen zit op internet en verschillende apparaten die we gebruiken (wearables, smartphones, thermostaten, etc …) houden data bij, hierdoor is steekproefgrootte geen probleem meer.

Jouw machine learning-algoritme kan nog zo goed zijn, de inputgegevens moeten deugen anders ben je de peanut.  Big data- algoritmes kijken niet alleen naar wat jij hebt gedaan, maar naar wat mensen “zoals jij hebben gedaan”. Ze zoeken naar verbanden – correlaties – in de data. Zo voorspellen ze wat jij zal gaan doen.

Eigenlijk wordt je in een hokje gegooid en beoordeeld aan de hand van de groep waartoe je behoort. Deze groepen zijn de “Koopjesjagers”, de “dierenvrienden”, … Waar je winkelt zegt iets over je inkomen, je linkedinprofiel wordt gecorreleerd met het hebben van een job….

Je vindt correlaties genoeg met big data, door de vele datapunten heb je verschillende verbanden waarvan er waarschijnlijk een groot deel significant zijn.


AI Ethics


“cijfers zijn zowel gevolg als oorzaak van hoe de wereld eruitziet”

Algoritmes zijn niet ‘goed’ of ‘slecht’. De manier waarop wij ze gebruiken kan dat wel zijn. Het is belangrijk om na te denken over de ethische vraag: waar willen we de algoritmes voor gebruiken?

Algoritmes zullen nooit objectief zijn. Hoe betrouwbaar de data ook mogen worden en hoe geavanceerd kunstmatige intelligentie ook zal zijn. De mens achter het algoritme heeft ook een vooringenomenheid, bias en is dus niet objectief. Dit wordt weerspiegeld in de toepassingen.

Een bijsluiter voor AI toepassingen

Mieke Geertrui De Ketelaere, Ethical AI Evangelist bij SAS, pleit dan ook voor een bijsluiter bij de AI toepassingen waarin alle relevante details van het algoritme staan:

  • Waar werd het algoritme aangemaakt?
  • Welke data werd gebruikt om het algoritme te trainen?
  • Hoe werd het algoritme gebruikt?
  • Welke risico’s schuilen in de beslissingen, gebaseerd op het algoritme?

Ze was geraakt te zien dat Amazon niets ondernam toen het bedrijf ontdekte dat het gebruikte algoritme voor hun rekrutering een bias vertoonde tegen vrouwen. Amazone stopte het gebruik van de tool maar onderzocht niet verder wat de oorzaak van de bias was. Het was net of het leek niemand te kunnen schelen.

Naar mening van Mieke Geertrui De Ketelaere zou men juist verder moeten gaan onderzoeken hoe deze bias kon ontstaan. Zo kan men leren uit de gemaakte fouten en deze leerpunten meenemen in de toekomstige ontwikkelingen binnen AI. Zo kan men voorkomen dat deze bias opnieuw binnenglipt in andere AI toepassingen. Deze kennis en leerpunten kunnen best gedeeld worden met de hele AI community.

Volgens Mieke Geertui De Ketelaere wordt de analyse en onderzoek naar de mogelijke bias een nieuwe expertise domein binnen AI en automatische beslissingssystemen. Ze wil niet wachten tot de officiële geboorte van dit expertise domein en vraagt de verantwoordelijkheid vanaf nu op te nemen.


We moeten beseffen dat machine learning krachtige toepassingen zijn, die inderdaad sneller en nauwkeuriger werken dan mensen wanneer het over het dedecteren van patronen in een groot aantal gegevens gaat. Maar, we mogen ook niet vergeten dat menselijke intelligentie nog steeds wint wanneer in bepaalde beslissingen ook een vorm van creativiteit of empathie nodig is.”

Ze roept dan ook op, aan alle betrokken partijen binnen AI, om op de sterktes en zwaktes van beide vormen van intelligentie te begrijpen en te beseffen dat menselijke betrokkenheid nog steeds nodig is bij het algemene beslissingsproces bij verschillende AI oplossingen. De hoeveelheid menselijke betrokkenheid die nodig is kan volgens Mieke berekend worden op basis van variabelen zoals de context, de impact, de termijn en het doel van de AI oplossing.

… en de toekomst?

Wat is de invloed van artificiële intelligentie en machine learning op de toekomst? Hier vind je extra meningen van tech experts over artificiële intelligentie en machine learning op hun domein. Zeker eens het lezen waard! 

4 antwoorden

Trackbacks & Pingbacks

  1. […] this up through data exchange and achieving or not achieving results. You know, that which is measurable… Another important form of trust is this in the sense of relational, affective trust. Work on the […]

  2. […] Imec hired a Program Director AI: Mieke Geertrui De Ketelaere, a Ethical AI evangelist. […]

  3. […] A Belgian example is Allthingstalk. You can Connect your devices to the network of your choice. In the blink of an eye, you’ll be able to extract, visualize and use the collected data. A mass of information will be given to you, ready to get some of the new gold? […]

  4. […] the field of technological innovation we need more women, who are concerned by the development of tools and applications so biases and ethics will less become a […]

Plaats een Reactie

Meepraten?
Draag gerust bij!

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.