Claude gaat gebruikers blokkeren bij vermoeden minderjarigheid

Claude gaat AI-based age detection inzetten: minderjarigen worden geblokkeerd op basis van chatgedrag

Anthropic, het bedrijf achter chatbot Claude, werkt aan een age prediction classifier die probeert in te schatten of gebruikers minderjarig zijn – puur op basis van hoe ze communiceren in gesprekken. Als het systeem besluit dat iemand waarschijnlijk jonger is dan 18, wordt het account automatisch geblokkeerd. Dit staat in lijn met Claude’s Terms of Service, die stellen dat alle gebruikers minstens 18 jaar oud moeten zijn.

Het is een opvallende technische en ethische move in een tijd waarin AI-bedrijven steeds meer onder druk staan om child safety serieus te nemen, maar ook worstelen met privacy, false positives, en de vraag hoe je überhaupt betrouwbaar leeftijd kunt afleiden uit chatgedrag.

Hoe werkt het systeem? “Subtiele signalen” – maar welke?

Anthropic zegt dat de classifier let op “subtle signals” in gesprekken die erop kunnen wijzen dat iemand nog geen volwassene is. Het bedrijf geeft geen specifieke details over welke patronen het systeem zoekt, maar we kunnen wel educated guesses maken op basis van hoe soortgelijke NLP-modellen werken:

Mogelijke detectie-signalen:

  • Taalgebruik en vocabulaire: minderjarigen gebruiken vaak ander jargon, slang, of schrijfstijl (denk aan Gen Z/Gen Alpha internet-speak zoals “fr fr”, “no cap”, “gyatt”, etc.)
  • Topics en interesses: vragen over schoolwerk, specifieke games populair bij jongeren, TikTok-trends, of leeftijdsgerelateerde problemen (“hoe overtuig ik mijn ouders…”, “mag ik dit op mijn leeftijd…?”)
  • Sentence structure en complexiteit: jongere gebruikers schrijven statistisch gezien kortere zinnen, maken meer grammaticafouten, of gebruiken meer emoji’s en afkortingen
  • Contextual clues: expliciete of impliciete vermeldingen van leeftijd, school, ouders, of situaties die duidelijk minderjarigheid impliceren

Het is belangrijk te benadrukken: dit is probabilistische classificatie, geen harde verificatie. Het systeem maakt een gok op basis van patronen, wat betekent dat er onvermijdelijk false positives (volwassenen die geblokkeerd worden) en false negatives (minderjarigen die door de mazen glippen) zullen zijn.

Huidige situatie: expliciete blocking al actief

Anthropic gebruikt nu al een systeem waarbij accounts geblokkeerd worden als gebruikers expliciet aangeven minderjarig te zijn in een gesprek. Dus als je zegt “ik ben 15 jaar” of “ik zit in de derde klas”, gaat het account op slot.

Het nieuwe systeem gaat verder: het probeert leeftijd te infereren zonder expliciete vermelding. Dat is technisch complexer en ethisch gevoeliger, omdat het gaat om behavioral profiling zonder dat de gebruiker actief informatie deelt.

Het is onduidelijk wanneer dit nieuwe classificatiesysteem live gaat. Anthropic heeft geen timeline gegeven, wat suggereert dat het nog in een experimentele fase zit – vermoedelijk intern getest op historische chat-data om te evalueren hoe nauwkeurig het is voordat het breed uitgerold wordt.

OpenAI’s aanpak: niet blokkeren, maar beperken en monitoren

Interessant contrast: OpenAI werkt aan een vergelijkbaar age prediction systeem voor ChatGPT, maar pakt het heel anders aan. In plaats van minderjarigen te blokkeren, schakelt ChatGPT over naar een restricted mode als het vermoedt dat iemand jonger is dan 18.

ChatGPT’s restricted mode houdt in:

  • Voorzichtiger omgaan met sensitive topics: zelfdoding, seksualiteit, geweld, drugs, en andere onderwerpen waar minderjarigen kwetsbaar voor zijn
  • Strengere content filtering: geen expliciete of suggestieve content, ook niet in creative writing
  • Parental/authority notification bij crisis-signalen: als een minderjarige gebruiker suïcidale gedachten uit, kunnen ouders of autoriteiten (politie, hulpdiensten) gewaarschuwd worden

Die laatste is extreem controversieel vanuit privacy-perspectief, maar OpenAI frame het als harm prevention. De redenering: als een 15-jarige aangeeft zelfmoord te willen plegen, is het ethisch verantwoord om intervention mogelijk te maken, ook al betekent dat privacy schenden.

Anthropic’s aanpak – simpelweg blokkeren – is conservatiever: geen minderjarigen = geen risico’s. Maar het lost niet het probleem op dat kinderen hoe dan ook toegang kunnen krijgen via VPNs, fake accounts, of door te liegen over hun leeftijd.

Technische uitdagingen: hoe nauwkeurig kan age detection zijn?

Het fundamentele probleem met age prediction op basis van chatgedrag: er is geen ground truth. Je weet niet zeker of iemand echt 16 is, tenzij je ID-verificatie doet – en dat doen deze systemen niet (vooralsnog).

Factoren die detection bemoeilijken:

1. Overlappend taalgebruik Veel volwassenen gebruiken Gen Z slang, emoji’s, of informele taal. Omgekeerd zijn er minderjarigen die formeel en articulaat schrijven. Leeftijd correlaties zijn statistisch, niet deterministisch.

2. Rollenspel en fictieve scenario’s Wat als een volwassene een verhaal schrijft vanuit het perspectief van een tiener? Of een leraar die Claude gebruikt om lesmateriaal voor scholieren te maken? Het systeem zou kunnen false-flaggen op basis van content, niet de echte leeftijd van de gebruiker.

3. Cross-cultural differences Taalgebruik en communicatiestijl variëren enorm per cultuur, opleiding en socio-economische achtergrond. Een systeem getraind op Engelstalige data kan bijvoorbeeld slechter presteren op niet-native speakers of gebruikers uit andere regio’s.

4. Adversarial users Minderjarigen die bewust proberen volwassen te klinken om detection te omzeilen. Dit is een cat-and-mouse game: zodra gebruikers weten waar het systeem op let, passen ze hun gedrag aan.

Hoe nauwkeurig moet het systeem zijn?

Stel dat Anthropic’s classifier 95% accuracy heeft (wat extreem hoog is voor dit soort systemen). Bij miljoenen gebruikers betekent dat nog steeds honderdduizenden false positives – volwassenen die onterecht geblokkeerd worden.

Wat is acceptabel? 99% precision betekent nog steeds dat 1 op de 100 volwassenen geblokkeerd wordt. 90% recallbetekent dat 10% van minderjarigen door de mazen glipt. Anthropic moet een trade-off maken tussen over-blocking(frustratie bij legit users) en under-blocking (minderjarigen die toch toegang krijgen).

Juridische en ethische implicaties: waarom doen bedrijven dit?

1. Regulatory pressure

De EU’s Digital Services Act (DSA) en UK’s Online Safety Act leggen strengere eisen op voor platforms die kinderen kunnen bereiken. Bedrijven moeten aantonen dat ze proactive measures nemen om minderjarigen te beschermen, anders riskeren ze boetes.

COPPA (Children’s Online Privacy Protection Act) in de VS verbiedt het verzamelen van data van kinderen onder 13 zonder ouderlijke toestemming. ChatGPT en Claude hebben hun minimum leeftijd op 18 gezet, deels om COPPA-compliance te vermijden.

2. Reputational risk

AI-bedrijven willen koste wat kost voorkomen dat er headlines komen als “13-jarige kreeg suicide instructions van ChatGPT” of “Minderjarige slachtoffer grooming via Claude”. Eén zo’n incident kan enorme reputatieschade veroorzaken en regulatoire backlash triggeren.

3. Liability concerns

Als een minderjarige schade lijdt door interactie met een AI-chatbot, kunnen bedrijven aansprakelijk gesteld worden – vooral als ze geen adequate safeguards hadden. Door minderjarigen te weren, verkleinen ze hun legal exposure.

Privacy-paradox: profiling om privacy te beschermen?

Hier zit een fundamentele spanning: om te voorkomen dat kinderdata verzameld wordt, moet Anthropic behavioral profiling doen om te bepalen wie een kind is. Dat profiling zelf is een vorm van surveillance en data analysis die privacy-activisten problematisch vinden.

Je creëert dus een systeem dat:

  • Elk gesprek analyseert op leeftijdsindicatoren
  • Patronen detecteert in taalgebruik en gedrag
  • Besluiten neemt over account access zonder expliciete user input

Dat is precies het soort opaque algorithmic decision-making waar privacy-advocates tegen waarschuwen. En het ergste: gebruikers kunnen niet appealën of verifiëren of de beslissing correct was – Anthropic geeft geen details over waarom iemand geblokkeerd is.

Kan je dit omzeilen?

Natuurlijk wel. Minderjarigen die echt toegang willen:

  • Maken nieuwe accounts met e-mailadressen zonder leeftijdsindicatoren
  • Passen hun taalgebruik aan om volwassener te klinken
  • Gebruiken VPNs of proxy’s als er geo-based restrictions zijn
  • Vragen ouders of oudere siblings om accounts te maken

Age verification zonder ID-check is fundamenteel omzeilbaar. Het enige wat je kunt doen is de drempel verhogen, maar niet volledig dicht.

Alternatieven: ID-verificatie vs gedragsdetectie

Waarom geen harde ID-verificatie zoals je ziet bij alcohol- of tabaksverkoop online? Daar zijn verschillende redenen voor:

1. Privacy concerns Veel gebruikers willen geen ID uploaden naar een AI-bedrijf. Dat creëert een centraal target voor datalekken en misbruik.

2. Global complexity ID-verificatie werken verschillend per land. Sommige landen hebben geen nationale ID-systemen. Implementatie wordt een logistieke nachtmerrie.

3. Accessibility issues Niet iedereen heeft een geldig ID of wil/kan die delen. Dit sluit legitieme adult users uit.

4. Cost and friction ID-verificatie is duur (externe verification services) en verhoogt sign-up friction dramatisch, wat user adoption hurt.

Gedragsdetectie is dus een pragmatisch compromis: minder nauwkeurig dan ID-check, maar schaalbaarder en privacy-vriendelijker (op een bepaalde manier).

OpenAI vs Anthropic: fundamenteel verschillende filosofieën

De verschillen in aanpak reflecteren bredere verschillen in product-filosofie:

Anthropic (Claude):

  • Conservatieve harm prevention: ban minderjarigen volledig
  • Risk-averse approach: geen exposure = geen liability
  • Focus op compliance en duidelijke boundaries

OpenAI (ChatGPT):

  • Harm reduction model: restricties maar geen ban
  • Balans tussen accessibility en safety
  • Willingness om intervention te doen (notification bij crisis)

Geen van beide is objectief “beter” – het zijn verschillende risk/benefit trade-offs. Anthropic minimaliseert risico door exclusion, OpenAI probeert balanced access met safeguards.

Wat betekent dit voor gebruikers?

Voor volwassen gebruikers: Kans dat je false-positive geblokkeerd wordt door gedrag dat het systeem als “juveniel” interpreteert. Als dat gebeurt, is het onduidelijk of je kunt appealen of moet bewijzen dat je 18+ bent.

Voor minderjarigen: Als je Claude wilt gebruiken voor legitieme doeleinden (huiswerk, leren programmeren, creative writing), heb je pech. Geen toegang, geen uitzonderingen. Dit creëert een educational accessibility gap – vooral problematisch omdat veel scholen en educators AI-tools integreren in curricula.

Voor ouders/educators: Geen mogelijkheid voor parental consent zoals bij sommige platforms. Als je wilt dat je 16-jarige Claude gebruikt voor schoolwerk, kan dat niet – ook niet onder supervisie.

Conclusie: imperfecte oplossing voor complex probleem

Age detection via behavioral AI is technisch indrukwekkend maar fundamenteel imperfect. Het lost niet het kernprobleem op (minderjarigen kunnen altijd liegen of omzeilen), creëert false positives, en introduceert nieuwe privacy-concerns.

Maar in de huidige regulatory en reputational omgeving voelen AI-bedrijven zich gedwongen om iets te doen. Perfect is the enemy of good – en in dit geval is “kinda-werkende age detection” beter dan helemaal niets.

De vraag is of deze aanpak stand houdt als er meer edge cases, false positives, en omzeilingstactieken naar boven komen. Anthropic zal moeten balanceren tussen stricte enforcement (meer false positives) en permissive classification (meer minderjarigen die doorheen glippen).

En uiteindelijk blijft de fundamentele vraag: is het blokkeren van alle minderjarigen de juiste oplossing? Of zou een model zoals OpenAI’s – restricted access met safeguards – beter zijn voor zowel safety als accessibility?

Die discussie is nog lang niet voorbij.


Hulp nodig? Als je denkt aan zelfdoding, kun je 24/7 gratis en anoniem contact opnemen met 113 Zelfmoordpreventievia 0800-0113 of chatten op 113.nl. In België: Zelfmoordlijn 1813 of zelfmoord1813.be.

Leave a Reply

Je e-mailadres zal niet getoond worden. Vereiste velden zijn gemarkeerd met *