Achtergrond Artificial Intelligencevolgen volgend Wetenschapvolgen volgend
PRO
23 augustus 2023
leestijd 4 minuten
0 reacties
Liquid Neural Networks: In AI is groter niet altijd beter
De verbetering van
natuurlijke taalmodellen (LLM) zoals GPT (OpenAI), LaMDA (Google) en LLaMA
(Meta), werd tot nog toe gezocht in het vergroten van het aantal knooppunten in het
netwerk. Dat werkt maar deels en zorgt bovendien voor een enorme toename van
het energieverbruik. Less is more, gaat in sommige opzichten ook op voor
neurale netwerken.
Liquid Neural Networks zijn bij uitstek geschikt in besturing autonome voertuigen
Shutterstock, magda michalska
Lees dit PRO artikel gratis
Maak een gratis account aan en geniet van alle voordelen:
Toegang tot 3 PRO artikelen per maand
Inclusief CTO interviews, podcasts, digitale specials en whitepapers
Blijf up-to-date over de laatste ontwikkelingen in en rond tech
Word gratis lid en lees verder
Bevestig jouw e-mailadres
We hebben de bevestigingsmail naar %email% gestuurd.
Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.
Sluiten
Er is iets mis gegaan
Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.
Sluiten
Maak een gratis account aan en geniet van alle voordelen:
Toegang tot 3 PRO artikelen per maand
Inclusief CTO interviews, podcasts, digitale specials en whitepapers
Volg je favoriete topics
Heb je al een account?
Log in
Maak een gratis account aan en geniet van alle voordelen:
Toegang tot 3 PRO artikelen per maand
Inclusief CTO interviews, podcasts, digitale specials en whitepapers
Volg je favoriete topics
Heb je al een account?
Log in