Ab dem 2. August 2026 gelten die Pflichten für General-Purpose-AI im EU AI Act EU-weit. Wer KI-Erlebnisse für Kinder anbietet, wird zuerst geprüft – und ohne saubere Provenienz, dokumentierte Risikobewertung und transparente Eltern-Flows aus dem Regal geräumt. Eine Einordnung, was sich konkret ändert und was Anbieter heute vorbereiten müssen.
Was sich am 02.08.2026 konkret ändert
Mit Artikel 53 ff. des AI Acts greifen die GPAI-Pflichten: Anbieter großer KI-Modelle müssen technische Dokumentation, Trainingsdaten- Zusammenfassungen, Urheberrechts-Compliance und Sicherheits-Tests vorweisen. Diese Pflichten kaskadieren über die Wertschöpfungskette: Wer Modelle in Kinderprodukte integriert, übernimmt Mit-Verantwortung – inklusive Logging, Eskalations-Pfaden und Verbots-Listen.
Für kinder-nahe Produkte kommen JuSchG-Anforderungen und der DSA on top. Zusammen ergibt das ein Pflichtenheft, das die meisten US- Companion-Apps strukturell nicht erfüllen können – und wollen.
Warum Kinder-Produkte zuerst geprüft werden
Marktaufsicht und JuSchG-Behörden priorisieren bekanntermaßen besonders schutzbedürftige Nutzergruppen. Kinder gehören explizit dazu. Der AI Act selbst hebt minderjährige Nutzer:innen in Erwägungsgrund 56 hervor – manipulative Designs sind verboten, Eltern-Information ist Pflichtprogramm, nicht Kür.
Was Anbieter jetzt vorbereiten sollten
- AI-Act-Mapping je Use-Case mit klarer Risiko-Klassifizierung (verboten · hoch · begrenzt · minimal)
- Eltern-Information & Eskalations-Flows dokumentiert und in der UI sichtbar
- Trainings-Daten-Provenienz und Moderations-Pipeline auditierbar
- Verbots-Listen für minderjährigen-spezifische Risiken (Suizid, Essstörung, Companion-Verhalten) implementiert
- JuSchG-Risiko-Bewertung und DSA-Notice-and-Action-Pfade verfügbar
Wo HillcrownAI ansetzt
HillcrownAI liefert die Bausteine, die für den 02.08.2026 nötig sind, als Infrastructure-as-a-Service: eigene Server in Deutschland, eigene Moderation, ein eigenes CMS und eine klicksafe-orientierte Risiko-Matrix mit dokumentierten Antworten je Risiko-Kategorie. Wer Kinder-KI baut, sollte spätestens jetzt die make-or-buy-Frage klären – und sich dabei nicht nur die Engineering-Kosten ansehen, sondern die regulatorischen.
Mehr zu unserer Architektur findest du auf /infrastructure, zur Forschungsbasis auf /research, zur klicksafe-Matrix auf /safety.
Dieser Beitrag ist keine Rechtsberatung. Er fasst den Stand April 2026 aus Anbieter-Perspektive zusammen und richtet sich an Produkt- und Compliance-Verantwortliche, die jetzt eine Roadmap auf den 02.08.2026 aufsetzen.