Maak kennis met Nava Tintarev, professor in Explainable Artificial Intelligence

Prof. Nava Tintarev voegde zich in oktober vorig jaar bij de Universiteit Maastricht. Haar onderzoek richt zich op Explainable Artificial Intelligence, oftewel het verklaren van de besluiten en acties van kunstmatige intelligentie. Daar kleeft een belangrijke maatschappelijke component aan. “Ik bekijk dingen meer vanuit de gebruiker dan bij de meeste informatica-onderzoeksgroepen gebruikelijk is.”

Een aanbevelingssysteem? Je weet misschien niet wat het is, maar je bent er vrijwel zeker een tegengekomen. “Het is het soort automatische systemen dat bedrijven als Amazon en Spotify gebruiken. De systemen kijken naar je gedrag in het verleden en proberen dan iets aan te raden voor de toekomst”, legt Prof. Tintarev uit.

Als recent aangestelde professor in Explainable Artificial Intelligence is Nava Tintarev een toonaangevende expert op het gebied van de interactie tussen mens en computer. Haar onderzoek richt zich op kunstmatig intelligente systemen die advies geven. ‘Advies’ mag je breed opvatten: naast systemen die voorspellen wat je zou moeten kopen, bekijken of luisteren, gaat het bijvoorbeeld ook om hoe zoekmachines resultaten voor individuele gebruikers weergeven.

Niet uit te leggen? Leg dat maar eens uit

Explainable Artificial Intelligence

De meeste kunstmatig intelligente systemen zijn berucht vanwege hun weinig transparante werking. De systemen doen voorspellingen op basis van eerder verzamelde data, maar onthullen niet hoe ze tot hun conclusies komen. Terwijl een mens kan zeggen: ‘ik raad aan dat je naar verzorgingsspulletjes voor katten kijkt, want je zoekt het internet al de hele week af naar dierenasiels en kattenplaatjes’, kan de redenering van een algoritme veel complexer zijn – en volledig ondoorzichtig.

We betalen een prijs voor dat gebrek aan transparantie. Wat als een algoritme bevooroordeeld is, maar wordt ingezet voor belangrijke dingen zoals jouw nieuwsconsumptie? Wat als je op basis daarvan een mening vormt over heftig bediscussieerde onderwerpen, zoals mondkapjes en vaccinaties? En wat als de vooroordelen in het algoritme jouw eigen vooroordelen versterken, zonder dat je daar weet van hebt?

Het onderzoeksveld Explainable Artificial Intelligence ontwikkelt methoden die inzichtelijk maken waarom kunstmatige intelligentie bepaalde dingen doet of aanbeveelt. Dat kan bijvoorbeeld via taal of met een interactieve, intelligente gebruikersomgeving. Zulke verklaringen worden gezien als belangrijke voorwaarde voor het maatschappelijk verantwoord inzetten van kunstmatige intelligentie.

Aanbevelingssystemen

Terug naar die aanbevelingssystemen. Omdat je die op allerlei plekken tegenkomt, kent ook het onderzoek ernaar vele contexten. “Ik werk veel aan aanbevelingssystemen”, aldus Prof. Tintarev, “bijvoorbeeld op muziekgebied. Misschien verandert het soort muziek dat je graag hoort aan de hand van dingen als het weer, je stemming en hoe actief je bent. Het aantal interacties en de verklaringen die je nodig hebt, kunnen in dat geval ook veranderen. Je kan het aanbevelingssysteem en de verklaringen die het geeft op dat soort dingen aanpassen.”

“Momenteel werkt mijn team aan automatische aanbevelingen voor groepen mensen. Zo’n aanbeveling is vaak een compromis. Hoe kunnen we verklaringen gebruiken om de groep blij te houden en de scherpe randjes er vanaf te halen, als iemand z’n eerste keuze niet krijgt?”

Van muzieksmaak tot filterbubbel

Explainable Artificial Intelligence

Hoewel Prof. Tintarev in eerste instantie muziek en groepen toeristen als voorbeelden geeft, kan het inzetten van verklaringen ook belangrijke maatschappelijke doelen dienen. Aanbevelingssystemen liggen onder vuur vanwege het risico op ‘filterbubbels’: online plekken waar gebruikers inhoud voorgeschoteld krijgen die aansluit bij hun bestaande opvattingen. Dat kan op YouTube, Facebook of een ander platform zijn.

Prof. Tintarev: “Ik vind het zorgwekkend dat we steeds meer gepolariseerd raken. Dat we niet worden blootgesteld aan meningen die anders zijn dan de onze – zelfs al zouden we dat willen."

"Het gaat er niet om dat je het eens wordt, maar dat je weet dat die andere meningen bestaan. Hoe creëren we interactie op een manier die mensen helpt om geïnformeerde beslissingen te nemen? Veel van mijn huidige projecten – trouwens ook in samenwerking met het bedrijfsleven – onderzoeken online informatie en de verscheidenheid aan standpunten. IBM co-financiert bijvoorbeeld een project waarbij we kijken naar resultaten van zoekmachines. Maakt het uit welke resultaten in de lijst komen, of hoe ze worden geordend en getoond? Hoe beïnvloedt dat het gedrag en de houding van een gebruiker?” Het uiteindelijke doel is bewustwording van de manier waarop we informatie tot ons nemen, zo benadrukt ze.

Net even anders dan de gemiddelde computerwetenschapper

“Mijn visie op Explainable Artificial Intelligence is er één waarbij mensen de uitleg ook echt kunnen begrijpen en gebruiken”, concludeert Prof. Tintarev. “We moeten niet alleen automatische verklaringen kunnen genereren, maar we moeten ook begrijpen wanneer dat mensen helpt bij het maken van beter geïnformeerde beslissingen. Daarvoor is empirisch werk nodig, zoals het evalueren met eindgebruikers. We moeten ook de omstandigheden begrijpen: wanneer zijn verklaringen nodig en nuttig? Wat moeten we veranderen en hoe moeten we de verklaringen dan aanpassen?”

“Ik bekijk dingen veel meer vanuit de eindgebruiker dan je bij de meeste informatica-onderzoeksgroepen ziet. Het is half psychologie, half computerwetenschappen.” Het spreekt voor zich dat we blij zijn dat Prof. Tintarev zich bij de UM gevoegd heeft.

Lees ook

  • Gerco Onderwater onderzoekt hij de smaak van het heelal en bewaakt hij de smaak van het Maastricht Science Programme. Tijdens zijn oratie, 31 mei, gaf hij een voorproefje van zijn werk voor beiden. 

  • Vaatchirurg en bijzonder hoogleraar Clinical Engineering Lee Bouwman houdt zich bezig met de implementatie van baanbrekende technieken in de gezondheidszorg. Hiervoor is samenwerking tussen technische en klinische deskundigen onontbeerlijk. Met inmiddels een waaier aan gezamenlijke innovaties als...

  • Onderzoekers wereldwijd brengen de genetische afstamming van de meerderheid van alle bloeiende plantengeslachten in kaart. Ook de Universiteit Maastricht draagt bij aan deze monsterklus die de stamboom van planten completer maakt dan ooit tevoren. Hun onderzoek staat deze week in het gerenommeerde...