Overslaan en naar de inhoud gaan

De kok die zegt: neem de worst maar niet

Het verbaast me eigenlijk niet: Google dat mensen waarschuwt dat ze wel goed moeten nadenken voordat ze AI gebruiken. Een cynicus zou kunnen zeggen: 'Logisch want Google loopt met z'n Bard achter op Microsoft met OpenAI's ChatGPT'. Net zoals on-premises softwarereus Microsoft lange tijd terug weinig heil zag in cloud (en langer geleden gevaren zag in open source). Maar het gaat erom hoe de worst wordt gemaakt.
© Stability AI
Stability AI

De waarschuwing van Google - eigenlijk van diens moederbedrijf Alphabet - gaat namelijk om de eigen mensen: interne medewerkers, developers. Zij worden door hun werkgever opgeroepen om extra alert te zijn bij gebruik van tools die generatieve-AI (genAI) bevatten of gebruiken. In een interne memo zijn alle Alphabet-werknemers gewaarschuwd: gebruik geen persoonlijke of vertrouwelijke informatie in een conversatie met een AI-gebaseerde chatbot.

Intellectueel eigendom

De input die gebruikers geven, kan namelijk weer meegenomen worden als verse trainingsdata. Dus vragen, aanvullingen, details, vervolgvragen, teksten die de AI mag inkorten, geluidsopnames die het gaat transcriberen, softwarecode ter verbetering en andere informatie komen zo terecht in het kennisreservoir van tools als ChatGPT. Samsung weet dat, Amazon heeft het ook aan den lijve ondervonden, Apple vreest dat.

Maker OpenAI heeft z'n bekende creatie eerst al getraind op informatiebronnen waar zeer waarschijnlijk al auteursrechtelijk beschermd materiaal en intellectueel eigendom van anderen in zit. Meer data van derden, inclusief gevoelige informatie en zelfs bedrijfsgeheimen, hoeven nu niet te rekenen op scherpe filtering. Ook omdat dat natuurlijk best moeilijk te implementeren is. Discretie voor gebruikers is wel verkrijgbaar, maar dat heeft een prijs.

Ingrediënten

Daarnaast speelt nog het risico van hallucinaties, onvolledigheid en zelfs onveiligheid mee. Zo hebben onderzoekers laatst ontdekt dat ChatGPT weliswaar softwarecode kan schrijven, maar dat die niet per se goed of veilig is. Hoe ze dat hebben ontdekt? Door die AI-bot het afgeleverde ontwikkelwerk daarna expliciet te laten keuren. Wat bleek? De eigen codecreatie kon op punten beter qua veiligheid, 'wist' ChatGPT die dat dus niet gelijk, uit zichzelf had gedaan.

Allemaal ingrediënten die het eindresultaat flink omlaag kunnen halen. Google en diens moederbedrijf Alphabet zijn zich hier goed van bewust. Als zoekmachinereus en techconcern met veelomvattende onderzoeksprojecten en innovatietrajecten weten ze daar heus wel hoe de worst wordt gemaakt. Net zoals de kok in een restaurant. Als die iets afraadt dan heeft dat meestal wel een goede reden. Of het moet zijn dat de schnitzel een hogere marge heeft?

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in