AI kan overweldigend aanvoelen. Maar zodra je de basisbegrippen begrijpt, valt alles op zijn plaats. Hier zijn de 20 belangrijkste concepten, kort, duidelijk en to the point. En als extraatje kom je over als de AI-expert in de kamer.
De basis
1. Neurale netwerken — Lagen van onderling verbonden “neuronen” die invoer omzetten in voorspellingen. Elke verbinding heeft een gewicht, en tijdens het trainen worden miljarden van deze gewichten aangepast totdat het model de juiste resultaten geeft.
2. Transfer learning — In plaats van helemaal vanaf nul te trainen, neem je een model dat al op basis van een grote hoeveelheid gegevens is getraind en pas je dit aan voor een specifieke taak. Het is alsof je leert motorrijden terwijl je al kunt fietsen.
Hoe transformatoren werken
3. Tokenisatie — AI leest geen woorden, maar tokens. Het woord “playing” kan bijvoorbeeld worden opgesplitst in “play” + “ing”. Hierdoor blijft de woordenschat overzichtelijk en kan het model woorden verwerken die het nog nooit eerder heeft gezien.
4. Embeddings — Tokens worden omgezet in lijsten met getallen. Woorden met een vergelijkbare betekenis komen in deze ruimte dicht bij elkaar te liggen. Zo begrijpt het model de betekenis: aan de hand van afstand en richting.
5. Let op — De betekenis van een woord hangt af van de context. Het woord „appel” heeft een andere betekenis in de buurt van „aandelen” dan in de buurt van „sap”. Let goed op: laten we elk woord bekijken en bepalen wat relevant is.
6. Transformer — De architectuur waarin al het bovenstaande is samengebracht. Geïntroduceerd in 2017. Vormt de basis voor GPT, Claude, Gemini; kortom, vrijwel alle moderne AI.
Large language models
7. LLM — Een transformer die is getraind op triljoenen tokens met één doel: het volgende woord voorspellen. Doe dit vaak genoeg, en het model leert schrijven, redeneren en programmeren, zonder dat het dit expliciet is aangeleerd.
8. Contextvenster — De maximale hoeveelheid tekst die een model tegelijk kan bevatten; dit is het kortetermijngeheugen. Hoe groter, hoe beter, maar het kost ook meer. Modellen hebben bovendien de neiging om informatie die ergens in het midden verborgen zit, te „verliezen“.
9. Temperatuur — Bepaalt hoe creatief of voorspelbaar het resultaat is. Laag = gericht en veilig. Hoog = verrassender, maar minder betrouwbaar.
10. Hallucinatie — Wanneer een model overtuigende tekst genereert die simpelweg onjuist is. Het kan geen onderscheid maken tussen waarheid en fictie; het voorspelt alleen wat goed klinkt. Controleer belangrijke resultaten altijd.
Training en optimalisatie
11. Verfijning — Blijf een vooraf getraind model trainen op een kleinere, specifieke dataset om het te specialiseren, bijvoorbeeld voor juridische documenten of medische vraag-en-antwoord. Krachtig, maar duur.
12. RLHF — Reinforcement Learning from Human Feedback. Mensen vergelijken reacties en kiezen de betere. Het model leert zo wat ‘nuttig’ en ‘veilig’ precies inhouden. Daarom voelen chatbots zo natuurlijk aan.
13. LoRA — Low-Rank Adaptation. Hierbij wordt een model verfijnd door er kleine, trainbare lagen aan toe te voegen, in plaats van het hele model te wijzigen. Dit leidt tot een drastische kostenbesparing; je kunt het op één enkele GPU draaien.
14. Kwantisering — comprimeert een model door de gewichten met een lagere precisie op te slaan. Een model waarvoor normaal gesproken een server nodig is, kan plotseling op een laptop worden uitgevoerd. Een lichte kwaliteitsvermindering, maar een enorme efficiëntiewinst.
Aanwijzingen en redeneringen
15. Prompt engineering — Hoe je de vraag stelt, is belangrijk. “Leg API’s uit” levert een algemeen antwoord op. “Leg REST API-authenticatie uit aan de hand van een voorbeeld voor een beginner” levert een nuttig antwoord op. Duidelijkheid gaat boven lengte.
16. Redeneringsproces — Vraag het model om stap voor stap te redeneren in plaats van meteen met een antwoord te komen. Dit verbetert de nauwkeurigheid bij logische, wiskundige en complexe taken aanzienlijk. Geef het de ruimte om na te denken.
Building AI systems
17. RAG — Genereren op basis van opgehaalde informatie. Voordat het systeem antwoordt, haalt het relevante documenten op en gebruikt deze als context. Dit vermindert onjuiste voorspellingen zonder dat het model opnieuw getraind hoeft te worden. Werk de documenten bij, niet het model.
18. Vector database — Slaat tekst op als numerieke representaties en zoekt op basis van betekenis, niet op trefwoorden. Bij de zoekterm “hartaanval” worden ook documenten over “hartstilstand” gevonden. De motor achter RAG-systemen.
19. AI agents — Modellen die niet alleen reageren, maar ook zelfstandig handelen. Ze kunnen tools gebruiken, code uitvoeren, API’s aanroepen en beslissingen herhalen totdat een taak is voltooid. Krachtig, maar de betrouwbaarheid blijft een echte uitdaging.
20. Diffusion models — Beeldgeneratoren die leren door afbeeldingen met ruis te vervormen en deze vervolgens weer ongedaan te maken. Tijdens het gebruik wordt er begonnen met pure ruis, die stap voor stap wordt opgeschoond totdat er een afbeelding tevoorschijn komt. Dit is de technologie achter Midjourney, DALL-E en Stable Diffusion.
Dat is het dan. Twintig begrippen die 95% omvatten van wat je tegenwoordig op het gebied van AI tegenkomt.
