Wat is een token? Uitgelegd in gewone taal

Wat is een token? Simpel uitgelegd: de bouwstenen waarmee AI tekst verwerkt. Ontdek waarom dit praktisch nuttig is voor jouw dagelijks werk met ChatGPT en andere AI-tools.

Wat is een token? Uitgelegd in gewone taal
Photo by Shubham Dhage / Unsplash

Je werkt met ChatGPT, Claude of een andere AI-tool en je krijgt opeens een melding: "Token limiet bereikt." Of je leest ergens dat een bepaald AI-model "128.000 tokens" kan verwerken. Wat betekent dat eigenlijk?

En belangrijker nog: waarom zou je dat moeten weten?

De simpele uitleg

Een token is het kleinste stukje data waar een AI-model mee werkt. Denk aan het als de bouwstenen van taal voor een computer. Ongeveer één woord is ongeveer één token, maar soms zijn het ook delen van afbeeldingen, video of zelfs audio.

Net als een LEGO-bouwwerk maakt AI losse blokjes van data, zo verwerkt AI grotere bestanden in tokens.

Waarom tokens en geen gewone woorden?

Computers begrijpen de menselijke taal niet zoals wij dat doen. Ze hebben een manier nodig om data om te zetten naar iets wat ze kunnen "lezen". Tokens zijn die vertaalslag.

Een paar praktische voorbeelden:

  • Het woord "werken" = 1 token
  • "AI-tool" = meestal 2 tokens (AI + tool)
  • "!" = 1 token
  • "Hallo" = 1 token

Het is niet perfect één-op-één, maar als vuistregel kun je stellen: vier tokens zijn ongeveer drie Nederlandse woorden.

Waarom zou je dit moeten weten?

Tokens bepalen drie dingen die jouw dagelijkse werk met AI beïnvloeden:

1. Hoeveel je kunt invoeren AI-modellen hebben een maximum aantal tokens dat ze in één keer kunnen verwerken. Wil je een lang document laten analyseren? Dan moet je weten of het binnen de tokenlimiet past.

2. Wat het kost Veel AI leveranciers rekenen per token. Hoe meer tokens je gebruikt, hoe meer je betaalt. Handig om te weten als je een budget hebt.

3. Hoe snel het werkt Meer tokens per seconden betekent snellere verwerkingstijd. Niet dramatisch, maar merkbaar als je grote teksten verwerkt.

In de praktijk

Stel, je wilt een ChatGPT-prompt schrijven met wat context erbij. Je plakt een briefing van 2.000 woorden erin, plus je vraag. Dat is ongeveer 2.700 tokens. Zit je binnen het limiet? Bij de meeste moderne AI-modellen ruimschoots. Maar wil je daarna nog een lang antwoord? Dan tellen die tokens ook mee.

Een handige vuistregel: GPT-6 kan bijvoorbeeld 272,000 input tokens aan en 400,000 contextuele tokens. Dat is ongeveer een boek van 750 pagina's. Voor dagelijks werk heb je daar zelden problemen mee.

Test zelf hoeveel tokens een stuk tekst is via de tool van OpenAI https://platform.openai.com/tokenizer

Het praktische advies

Je hoeft niet precies te weten hoeveel tokens iets is. Maar het is wel handig om te snappen dat:

  • Heel lange documenten soms in stukken moeten
  • Sommige modellen beter zijn voor korte, snelle vragen (minder tokens, sneller, goedkoper)
  • Andere modellen beter zijn als je veel context wilt meegeven (meer tokens mogelijk)

En in de praktijk? De meeste AI-tools geven een melding als je tegen de tokenlimiet aanloopt. Dan weet je genoeg: tijd om je tekst wat korter te maken of in stukken te knippen.

Tokens zijn de bouwstenen van AI-taal. Ongeveer één woord per token, en de meeste moderne AI-tools kunnen er meer dan genoeg tegelijk aan. Onthoud dat, en je hebt voldoende kennis om slim met AI te werken.