Overslaan en naar de inhoud gaan

Anthropic stapt over beperkingen ChatGPT heen met opgevoerde tekstrobot

Anthropic heeft een upgrade aangebracht aan zijn Claude-tekstrobot en kan nu een compleet boek van 75.000 woorden in een paar minuten analyseren. Het uitgebreide invoervenster maakt ook conversaties met de chatbot mogelijk die uren of zelfs dagen kunnen voortduren. Daarmee stapt deze tekstgenererende AI-bot over de beperking van het bekende ChatGPT heen.
Boekenwurm
© Shutterstock
Shutterstock

Claude is de tekstrobot van Anthropic, een startup opgezet door ex-werknemers van OpenAI die het niet eens waren met de koerswijziging van OpenAI waardoor het bedrijf veel commerciëler ging opereren. Anthropic heeft ontwikkelen van 'verantwoorde AI' hoog in het vaandel gezet. Tot nog toe was Claude bij het grote publiek nog niet zo bekend. Maar daar kan verandering in komen, nu het bedrijf erachter eigenschappen aan de tekstrobot toevoegt die nog niet eerder beschikbaar waren bij andere AI-bots.

Zo heeft Claude sinds eind vorige week een invoervenster dat maar liefst 75.000 woorden of 100.000 tokens kan verwerken. Bij de meest recente versie van ChatGPT op basis van het large language model (LLM) GPT-4 ligt de limiet op 4096 tokens. Dat betekent dat Claude bijvoorbeeld een samenvatting kan maken van een compleet boek. Anthropic noemt als voorbeeld de bekende Amerikaanse roman The Great Gatsby. Een mens heeft voor het lezen van 75.000 woorden toch al snel meer dan vijf uur nodig, Claude kan het in minder dan een minuut, stelt Anthropic in een verklaring.

Beperkt invoerveld leidt tot fouten

De geringe capaciteit voor invoer van vragen of instructies (prompts) voor AI-bots is een belangrijke oorzaak van een van de meer bizarre beperkingen van AI-tekstrobots. Bij langere conversaties schuift het 'venster' dat het taalmodel in het geheugen kan houden mee, waardoor de tekstrobot 'vergeet' wat er aan begin van de conversatie is ingevoerd.

Dat kan ook betekenen dat het model de door de maker ingegeven instructies kwijtraakt, waardoor de tekstrobot bijvoorbeeld onwenselijke taal gaat gebruiken en meer de neiging krijgt antwoorden te verzinnen (hallucineren). Daarom is bij de nu beschikbare tekstrobots de lengte van de conversatie vaak beperkt, zodat dit effect niet zo makkelijk optreedt. Zo heeft Microsoft zijn GPT-4 aangedreven Bing Chat (of BingGPT) in februari beperkt tot maximaal vijf vragen per sessie en en maximaal vijftig vragen per dag.

Reacties

Om een reactie achter te laten is een account vereist.

Inloggen Word abonnee

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in