Claude
Non-EUAI-assistent van Anthropic (VS) voor analyse, coderen en schrijven. Gratis versie beschikbaar, Pro vanaf $20/maand. Gebruikt standaard gesprekken voor training.
- •Gesprekken van consumenten worden standaard gebruikt voor AI-training sinds september 2025
- •Alle consumentengegevens worden opgeslagen en verwerkt in de VS
- •Geen EU-dataresidentie voor Free-, Pro- of Max-abonnementen
- •Onderworpen aan Amerikaanse surveillancewetten waaronder FISA en CLOUD Act
- •Opt-out interface bekritiseerd omdat de trainingsschakelaar makkelijk te missen is
- •Gegevens tot 5 jaar bewaard wanneer training is ingeschakeld
Claude is de AI-assistent van Anthropic. Het bedrijf werd in 2021 opgericht door voormalige OpenAI-onderzoekers in San Francisco. Claude kan lange documenten verwerken (tot 200.000 tokens), code schrijven en debuggen, afbeeldingen lezen en tekst genereren. Gratis gebruikers krijgen Sonnet 4.5 met dagelijkse berichtlimieten. Het Pro-abonnement van $20/maand geeft toegang tot alle modellen, waaronder Opus 4.5.
Anthropic praat veel over AI-veiligheid, en Claude is over het algemeen goed in het opvolgen van instructies zonder ontsporingen. Het bedrijf heeft SOC 2 Type II en ISO 27001 certificeringen. Je gegevens worden versleuteld tijdens verzending en opslag. Anthropic zegt dat het geen gebruikersgegevens verkoopt.
Voor mensen in de EU wordt het ingewikkeld. Gegevens van consumentenaccounts staan op Amerikaanse servers. Er is geen EU-residentieoptie voor individuele gebruikers. In september 2025 veranderde Anthropic het beleid zodat gesprekken van Free-, Pro- en Max-gebruikers standaard worden gebruikt voor modeltraining. Je kunt dit uitschakelen in de instellingen, maar de opt-out schakelaar zat verstopt onder een grote Accepteer-knop. Privacyonderzoekers van Stanford noemden het ontwerp misleidend. Als je je afmeldt, daalt de bewaartermijn van 5 jaar naar 30 dagen.
Goed om te weten
Team- en Enterprise-abonnementen zijn een ander verhaal. Die accounts worden nooit gebruikt voor training, hebben beheerderstools en kunnen worden ingericht voor HIPAA-compliance. EU-dataresidentie is mogelijk via AWS Bedrock en Google Vertex AI, maar dat werkt alleen voor API- en enterprise-opstellingen. Gebruik je Claude via de website of mobiele app, dan gaan je gegevens naar de VS, ongeacht wat je betaalt. Anthropic biedt wel een gegevensverwerkingsovereenkomst met standaardcontractbepalingen, maar dat is vooral relevant voor zakelijke klanten.
- •Gesprekken van consumenten worden standaard gebruikt voor AI-training sinds september 2025
- •Alle consumentengegevens worden opgeslagen en verwerkt in de VS
- •Geen EU-dataresidentie voor Free-, Pro- of Max-abonnementen
- •Onderworpen aan Amerikaanse surveillancewetten waaronder FISA en CLOUD Act
- •Opt-out interface bekritiseerd omdat de trainingsschakelaar makkelijk te missen is
- •Gegevens tot 5 jaar bewaard wanneer training is ingeschakeld
Mistral Le Chat
Krijg AI-chat, onderzoek en beeldgeneratie van een Parijs bedrijf dat je data in de EU houdt.

by Switch-to.eu