Innovatie & Strategie

Artificial Intelligence
dino's

Onwenselijke groei AI-modellen kan afgeremd met kennisbanken

AI-model hoeft niet alles te weten als het kennis maar weet te vinden.

© Shutterstock Orla
2 maart 2022

AI-model hoeft niet alles te weten als het kennis maar weet te vinden.

De exponentiële groei in de omvang van AI-modellen is een groot probleem voor de verdere ontwikkeling van toepassingen. Taalmodellen worden bijvoorbeeld wel steeds beter, maar nemen ze elk jaar tien keer in omvang toe. Een mogelijke oplossing ligt in 'cognitive computing', een vorm van AI die in staat is te redeneren en daarom menselijk gedrag beter kan begrijpen en simuleren.

Cognitive computing staat nog in de kinderschoenen. "Het bevindt zich in een stadium waar neurale netwerken zich tien jaar geleden bevonden", zegt Gadi Singer, een van de topwetenschappers die bij Intel verantwoordelijk is voor het werk aan deze vorm van kunstmatige intelligentie. "Maar als je die vergelijking met neurale netwerken doortrekt, zie ik de komende twee, drie jaar al early adopter-toepassingen die echt iets toevoegen komen en gebruiken we de technologieën over tien jaar zoals neurale netwerken nu."

Externe bronnen raadplegen

Singer noemt een paar voorbeelden van wat we kunnen verwachten. Als een dokter een bekende patiënt een herhaalrecept moet geven, is dat een simpele taak. Moet de patiënt twee bekende medicijnen combineren, moet de dokter al meer nadenken en nagaan of er geen extra bijwerkingen optreden. Maar als de patiënt een heel nieuw en dus onbekend middel moet hebben, zal de dokter de literatuur in moeten duiken. "Zelfs de professional in zijn vak weet niet alles en moet externe bronnen raadplegen voor kennis die niet paraat is. Zo moet ook worden gekeken naar de ontwikkeling van kunstmatige intelligentie."

Tot nog toe worden deep-learningnetwerken getraind op steeds grotere sets met trainingsdata om te zorgen dat het systeem op zo veel mogelijk vragen een antwoord kan geven. Maar dat is niet houdbaar. Een van de nieuwe aspecten van cognitive learning is dat het AI-systeem een combinatie is van een neuraal netwerk dat slim kan omgaan met gegevens die in verschillende databases beschikbaar zijn. Dat helpt niet alleen de efficiëntie te verbeteren, stelt Singer, maar daardoor kan ook nog eens beter de privacy geregeld worden. "Het systeem dat jou ter beschikking staat, heeft alleen toegang tot de gegevens waar jij de toegangsrechten op hebt", legt Singer uit op een vraag van AG Connect naar aanleiding van een ander voorbeeld dat hij gaf: "Stel aan een AI-systeem nu de vraag wie vorig jaar de meeste doelpunten heeft gescoord en je krijgt een antwoord. Maar vraag je: 'hoe is het met oma?', blijft het stil."

Hoe is het met oma?

Om die vraag te kunnen beantwoorden heeft het systeem heel veel variabelen nodig, die ook nog eens privacygevoelig zijn. "Welke oma wordt bedoeld, wat is haar status, wat was de laatst bekende status, wat betekent het als de status verandert?" AI-systemen kunnen nu nog slecht met dat soort vragen overweg, maar als ze dat kunnen, wil je dat de gegevens over oma alleen beschikbaar zijn voor jou en niet in een algemeen AI-systeem zoals Alexa, Siri of Google Home.

Singer vergelijkt de status van AI met de twee fasen die de Amerikaanse psycholoog en Nobelprijswinnaar Daniel Kahneman heeft beschreven voor de werking van het menselijk brein. Krijgen we een vraag, is de eerste respons vrijwel onmiddellijk een associatie waarmee we snel een intuïtief antwoord kunnen geven. Pas in tweede instantie gaan we redeneren, dat geeft een langer maar beter doordacht antwoord. AI zit nu in de eerste fase, waarbij antwoorden vooral op statistieken berusten. "Met cognitive AI gaan we nu de twee fase in waarbij de context van de vraag een belangrijke rol gaat spelen."

Betekenis van woorden

Daarbij hoort ook dat taalsystemen niet alleen vertalen, maar ook 'begrijpen' wat de betekenis van woorden is. Deze systemen kunnen zich beter aanpassen aan nieuwe omstandigheden zonder dat daar nieuwe training voor nodig is. "En belangrijk is dat beter te verklaren is hoe ze tot een uitkomst zijn gekomen."

Singer ziet daarbij een architectuur met drie niveau's die hij de Three Level Knowlegde (3LK of wel Trill-K)-architectuur noemt. Het eerste niveau is wat we nu kennen met neurale netwerken die intuïtief reageren op basis van kennis die in het systeem aanwezig is. Het tweede niveau haalt kennis uit direct beschikbare gestructureerde en geïntegreerde kennisbanken. Dit System2-niveau vereist al het maken van afwegingen, het toepassen van logica en redeneren. Systeem 3 gaat dan nog een stap verder en haalt informatie uit wereldwijd beschikbare ongestructureerde kennis. Daarvoor is nog meer redeneerkracht nodig om de bruikbaarheid van de informatie op waarde te kunnen schatten.

Geen nieuwe hardware

Singer benadrukt dat voor cognitive computing in principe geen nieuwe hardware nodig is. De huidige AI-infrastructuur kan dit soort veranderingen in aanpak prima aan. Maar hij ziet wel belangrijke voordelen in bijvoorbeeld neuromorphic computing, waarmee veel efficiënter en sneller bepaalde taken in neurale netwerken kunnen worden uitgevoerd. Bij de ontwikkeling neuromorphic computing kijken onderzoekers opnieuw naar hoe hersenen signalen verwerken. Daarbij blijkt dat analoge verwerking in plaats van de digitale verwerking waar de wereld zo aan gewend is geraakt, een nieuwe rol krijgt.

Reactie toevoegen
De inhoud van dit veld is privé en zal niet openbaar worden gemaakt.