Innovatie & Strategie

Artificial Intelligence
wegwijzer

Open source AI, goede of slechte zaak?

Innovatie vraagt transparantie maar vrijgeven maakt maatschappelijk ongewenst gebruik mogelijk.

© Shutterstock Brian A Jackson
11 april 2023

Innovatie vraagt transparantie maar vrijgeven maakt maatschappelijk ongewenst gebruik mogelijk.

Bij de (academische) start van grote natuurlijke taalmodellen (LLM) waren die AI-aandrijvende modellen vaak beschikbaar onder een opensourcelicentie. Inmiddels is de wereld veranderd en bieden AI-aanbieders weinig transparantie meer. Maar recent zijn er in het opensourcedomein nieuwe, 'lichte' modellen verschenen die toch indrukwekkende prestaties laten zien. Goed nieuws volgens de één, slecht nieuws volgens de ander, omdat er op grote schaal desinformatie mee kan worden verspreid.

Het is maatschappelijk gezien geen goede zaak als de macht over de belangrijke ontwikkeling van AI komt te liggen bij een klein groepje kapitaalkrachtige bedrijven. Zeker als die ook nog eens hun kaarten stevig tegen de borst houden. Die kant gaat het echter wel op. Microsoft, Google, OpenAI stellen het gebruik van hun modellen alleen ter beschikking aan anderen via API's.

Uitzondering en gelekt

De enige uitzondering wellicht is Meta. Dat moederbedrijf van Facebook stelt zijn LLaMA-model op aanvraag beschikbaar aan academici en onderzoekers, via het Fundamental AI Research Team (FAIR) dat is opgezet door hoogleraar en Meta's chief scientist Yann LeCun. Maar dat model is vervolgens gelekt via het 4Chan-platform. Daardoor kon in principe iedere ontwikkelaar aan de slag met een LLM dat vergelijkbaar in kracht is met het krachtige GPT van OpenAI.

Naast het uitgelekte LLaMA zelf zijn verschillende opensource-modellen gebaseerd op het fundament van dat Meta-LLM nu verschenen. Voorbeelden daarvan zijn Vicuna, Koala en Colossal Chat, somt Venturebeat op. Die techpublicatie gaat uitgebreid in op het debat dat is ontstaan: over welke ontwikkeling rond open source en AI nu maatschappelijk het meest wenselijk is.

Transparantie is de basis van innovatie

Voorstanders van zo veel mogelijk transparantie, stellen dat open source er vanaf het begin van de jaren 90 al voor heeft gezorgd dat een basis werd gelegd voor de belangrijkste ontwikkelingen op internet. Denk aan Mozilla, Apache en Linux, waarbij uit die laatste weer het mobiele platform Android is voortgekomen.

Op vergelijkbare wijze zijn de huidige ontwikkelingen in AI zo begonnen: in de academische gemeenschap waar het delen van bevindingen en beschikbaar stellen van producten heel gewoon is. Maar ook Google stelde de neurale netwerkarchitectuur Transformer open source beschikbaar en dat vormt nu het fundament van de GPT-familie van OpenAI. De trend is echter dat al deze bedrijven nieuwe modellen creëren waarvan soms niet eens bekend is of ze nu op tien miljard of op twintig miljard parameters zijn gebaseerd. Het is voor buitenstaanders ook niet te controleren of er sprake is van bias in die modellen.

Marktposities onder druk

Onder de tegenstanders van het vrijer toegankelijk maken van de technologie of de specificaties zitten de organisatie die hun modellen willen beschermen. Zo is OpenAI - in 2015 opgezet juist om te voorkomen dat sommigen met AI maatschappelijk ongewenste ontwikkelingen in gang zetten - 180 graden gedraaid in zijn opvattingen.

Het grofweg 90 pagina's dikke 'technisch document' dat werd vrijgegeven bij de introductie van GPT-4 bevatte geen enkel technisch detail, constateren critici. Meer transparantie is niet mogelijk, verweert OpenAI zich bij Vice.com. Het was niet eenvoudig om tot zo'n krachtig model als GPT-4 te komen en het is een erg competitieve markt, aldus OpenAI.

Maatschappelijk ongewenst gebruik intomen

Maar het open source beschikbaar maken van de technologie heeft naast de economische bezwaren van OpenAI, ook maatschappelijke implicaties, stellen tegenstanders. Er is behoorlijk wat tijd en moeite gestoken in het creëren van filters en regels die ervoor moeten zorgen dat de modellen niet zoiets als een Hitler-manifesto gaan schrijven.

Simon Willison, een opensource-ontwikkelaar en -evangelist, legt bij Venturebeat uit dat recente ontwikkelingen het mogelijk maken om relatief lichte AI-modellen op steeds simpeler machines te draaien. "Maar als je zo'n model op je laptop kunt downloaden en er wat eigen training op los kunt laten, kun je in potentie een fascistisch taalmodel creeën. In feite bestaan al zelfs projecten op 4Chan met als doel 'anti-woke' taalmodellen te trainen", zei hij tegen Venturebeat. Het wordt daardoor mogelijk op grote schaal schadelijke content te creëren.

Balans zoeken

Het is een lastig ethisch dilemma. Willison neigt toch naar het wél open source beschikbaar maken omdat hij open source tool de hele dag gebruikt in zijn dagelijks werk. Hij vindt het fundamenteel onjuist dat deze krachtige technologie in de handen komt van enkele grote bedrijven. Misschien is een aanpak zoals Meta hanteert met een gebalanceerd niveau van toegang tot de technologie geen slechte optie. Mits de restricties op misbruik kunnen voorkomen dat iedere 4Chan-bezoeker ermee aan de haal gaat.

Reactie toevoegen
De inhoud van dit veld is privé en zal niet openbaar worden gemaakt.