Innovatie & Strategie

Artificial Intelligence
laptop

Mens-computerinteractie: steeds verfijnder

Een trip door het verleden, het heden en de toekomst van gebruikersinterfaces

© CC0: pixabay.com mediamodifier
24 april 2019

Een trip door het verleden, het heden en de toekomst van gebruikersinterfaces

Van de ponskaart, via conversational interfaces naar brain–computer interfaces - de interactie tussen gebruiker en computer is fors veranderd en blijft verbeteren. Joris Palings beschrijft hoogtepunten in de ontwikkeling van interfaces.

Een gebruikersinterface of user interface is de manier waarop interactie tussen mens en systeem (machine, apparaat of computerprogramma) plaatsvindt, met als doel de bediening van en controle over het systeem. Maar hoe alomtegenwoordig ze ook zijn, we staan er zelden of nooit bij stil dat de interfaces die we dagelijks gebruiken ooit doelbewust ontwikkeld zijn en door de jaren heen geëvolueerd zijn tot de interfaces die we nu kennen.

Batch interfaces

Al in de jaren 50, nog vóór er zelfs maar besturingssystemen bestonden, was er al sprake van gebruikersinterfaces.

Invoer bestond uit stapels ponskaarten (of batches), door een enorme computer ingelezen en verwerkt. Als de opdracht om een batch in te lezen gegeven was, werd de gebruiker niet meer om input gevraagd en kon aan de batchjob niets meer veranderd worden. Het resultaat van de berekeningen was pas beschikbaar zodra de volledige batch verwerkt was.

Vanaf de jaren 60 werden deze batchinterfaces geleidelijk vervangen door de op tekst gebaseerde command-line interface (CLI), vooral gebruikt door programmeurs, systeemadministrators en wetenschappers, waarbij de invoer van de gebruiker uit getypte commando’s bestond en de uitvoer uit tekst op het scherm.

Interfaces nu

Pas vanaf het einde van de jaren 60 werden concepten als hyperlinks, de muis, vensters, icoontjes en menu’s mainstream, mede dankzij de introductie van de Xerox Star, de Xerox Alto en de Apple Macintosh. Samen vormden ze de basis van de graphical user interface (GUI), tot op heden de meest gebruikte vorm van gebruikersinterface.

Toch vroeg men zich in de jaren 60 al af of het gebruik van de muis en de muisaanwijzer niet intuïtiever kon, en ontstonden door de decennia heen verschillende types touchscreens of touch user interfaces, die dankzij haptische feedback (beweging, vibraties of het uitoefenen van krachten, meestal veroorzaakt door een trilelement) niet alleen intuïtiever werken, maar ook geschikter zijn voor mensen met een visuele of auditieve beperking.

Ook natural-language interfaces, waarbij de input bestaat uit een op een natuurlijke manier gestelde vraag (Hoeveel inwoners telt Letland?) en de output uit een antwoord of lijst van resultaten ('2.668 miljoen in 1990' en '1,95 miljoen in 2017') winnen de laatste jaren fors aan bekendheid, vooral dankzij grote spelers als Google.

De toekomst van interfaces en de interfaces van de toekomst

CLI’s, GUI’s, touchscreens en natural-language interfaces hebben elk hun voor- en nadelen en zullen in de nabije toekomst allesbehalve ophouden te bestaan. Toch komen er steeds nieuwe vormen van gebruikersinterfaces op.

Denk bijvoorbeeld aan de conversational interfaces die de laatste tijd razend populair geworden zijn. Bij deze interfaces bestaat de invoer niet langer uit visuele elementen, maar uit gesproken of getypte taal, van eenvoudige commando’s tot complexe zinnen, en wordt vaak gepoogd aan de hand van een persoonlijkheid (of conversational interface agent) een menselijke conversatie na te bootsen met als doel de conversatie échter, geloofwaardiger en relevanter te doen lijken.

Het correct mappen van de input van een gebruiker op de juiste output is echter allesbehalve vanzelfsprekend. Een vraag kan immers op een groot aantal verschillende manieren gesteld worden en al deze manieren moeten herkend worden. Daarom is het belangrijk om niet alleen de exacte input te beschouwen, maar de input ruimer te bekijken als een verzameling van intents (bedoelingen) en entities (entiteiten, termen die gerelateerd zijn aan bepaalde intents).

https://lh5.googleusercontent.com/xkndg3Bu-4tAhJb3he3X4mWdHFH3QXbjv-lGLA-cb2z36ylMO0DSOZxRR83qgAQHrDA8Ig_BEZp-J2yNVH2sQNR3J9knwX6yDXiX7bigPi3722J89cwsSQnyNzDTA_BaDA

Chatbotplatformen zoals Oswald maken hiervoor gebruik van kunstmatige intelligentie (artificial intelligence of AI). Zo kunnen ze – mits wat getraind –  in zowel 'Ik ben mijn wachtwoord vergeten' als 'Ik weet niet meer wat mijn paswoord is' dezelfde intent herkennen op basis van een aantal voorbeelden die de chatbot tijdens een eerdere trainingsfase aangeleerd zijn.

Almaar meer zowel grote als kleinere spelers richten zich de laatste jaren op voice user interfaces (stem- of spraakinterfaces), waarbij de input bestaat uit een combinatie van spraak en het indrukken van knoppen. De output bestaat voornamelijk uit gesproken antwoorden. In tegenstelling tot op tekst gebaseerde gespreksinterfaces, is de persoonlijkheid van een spraakinterface vervat in de combinatie van de gebruikte stem, woordenschat en parataal.

Zowat elke grote speler (Apple, Google, Amazon, IBM, Samsung) heeft tegenwoordig een eigen virtual assistant: een combinatie van een conversational en een voice user interface met als doel een zo breed mogelijk gamma aan vragen te kunnen beantwoorden en commando’s uit te kunnen voeren. Dat geldt ook voor boordcomputers in moderne wagens, die je toelaten een hotword uit te spreken om de spraakherkenning te activeren ('hallo Mercedes'), gevolgd door een sleutelwoord ('navigatie') of een commando ('bel naar Peter').

Helemaal aan het andere uiterste van het spectrum ontstaan dan weer interfaces die net wél toespitsen op het fysieke.

Zo zijn er gesture interfaces, zoals smartphoneschermen en trackpads van laptops, die dankzij multitouchtechnologie handbewegingen als swipen (vegen) en pinchen (knijpen) gebruiken om de gebruiker op een intuïtieve manier te laten navigeren.

Maar vooral voor gaming worden ook grootsere bewegingen als invoer gebruikt: bij motion tracking interfaces zoals de Nintendo Wii, Xbox Kinect en de PlayStation Move, worden de bewegingen van een afstandsbediening als invoer gebruikt om voorwerpen als wapens of het stuur van een wagen te emuleren.

Combinaties van de twee zijn uiteraard ook perfect mogelijk. Zo maakt de Microsoft HoloLens gebruik van een camera om handbewegingen te herkennen, zowel van de hand zelf als van de hand in de ruimte. De Leap Motion Controller doet iets gelijkaardigs, maar maakt hiervoor gebruik van infraroodleds en -camera’s.

Holografische interface

De volgende stap? Holographic user interfaces: in de lucht zwevende beelden waar aan de hand van handgebaren mee geïnterageerd kan worden.

Een soortgelijk effect kan nu al bereikt worden door middel van augmented reality (AR) en mixed reality (MR), maar daarbij gaat het dan eerder over 3D-representaties van objecten op het scherm van een smartphone of de glazen van een bril dan een zwevend beeld in een ruimte.

Een échte holografische interface, waarbij licht (lasers) gebruikt wordt om het zwevend beeld te vormen en camera’s of sensoren om de handbewegingen te herkennen, is helaas nog niet commercieel beschikbaar. Deze zou echter een heel aantal factoren wegnemen waar mensen zich bij augmented reality, mixed reality en virtual reality (VR) aan storen, namelijk de vereiste hardware: een degelijke smartphone, een dure wearable of een zware, warme headset, vaak met kabels die in de weg zitten om echt vrij te kunnen bewegen.

Maar ook breininterfaces (brain–computer interfaces of BCI) zijn niet langer enkel iets uit sciencefictionfilms. Er bestaan zowel invasieve (in de hersenen geïmplanteerde), deels invasieve (binnen de schedel, maar buiten de hersenen) als non-invasieve vormen, die zelfs nu al veelvuldig gebruikt worden voor medische doeleinden.

Zo zijn er bijvoorbeeld de implantaten van NeuroPace en Medtronic, die met een preventieve schok respectievelijk epilepsieaanvallen en tremoren van mensen met de ziekte van Parkinson kunnen stoppen.

Bedrijven als Neuralink (van SpaceX-CEO Elon Musk) en Kernel trachten dan weer breininterfaces te ontwikkelen om de brug tussen mens en computer te vormen, omdat volgens hen “de toekomst van de mensheid zal bestaan uit een combinatie van menselijke en kunstmatige intelligentie”.

Wat de volgende stap voor interfaces zal zijn, weet natuurlijk niemand. Tenzij misschien de sciencefictionfilms?

Magazine AG Connect

Dit artikel is ook gepubliceerd in het magazine van AG Connect (aprilnummer, 2019). Wil je alle artikelen uit dit nummer lezen, klik dan hier voor de inhoudsopgave.

Lees meer over Innovatie & Strategie OP AG Intelligence
Reactie toevoegen
De inhoud van dit veld is privé en zal niet openbaar worden gemaakt.