Eltern-Guide
Verständliche Erklärung, wie KinderGPT sich von Companion-KI unterscheidet, FAQs und Warnzeichen, auf die Eltern bei jeder KI achten sollten.
Sicherheit
klicksafe beschreibt acht Risiken, die KI-Chatbots für Kinder erzeugen: parasoziale Bindung, simulierte Empathie, persistentes Gedächtnis, Sycophancy, ungeeignete Inhalte, Eltern-Umgehung, Sucht-Loops und Manipulation. KinderGPT ist gebaut, um jedes davon zu neutralisieren.
So liest du diese Seite
Für jedes der acht klicksafe-Risiken beschreiben wir, wie sich das Risiko in heutiger Companion-KI manifestiert und was KinderGPT technisch und redaktionell tut, um es zu neutralisieren. Unabhängig auditiert im ProFiZ-Projekt.
klicksafe-Matrix
| Risiko | Antwort von HillcrownAI |
|---|---|
Parasoziale BindungCompanion-KIs bauen langfristige Beziehungen zu Kindern auf — Namen, Geschichten, Sehnsucht, Bindung. Kinder verwechseln die KI mit einer Freundin. | KinderGPT erinnert sich nicht an Kinder. Keine Accounts, kein Profil, kein Langzeit-Gedächtnis. Sessions sind by design isoliert. |
Simulierte EmpathieModelle sagen "Ich verstehe dich", "Ich bin für dich da" und imitieren emotionale Unterstützung — ohne wirklich etwas zu verstehen. | KinderGPT spricht klar. Keine Ich-Gefühle, keine Beziehungssprache, kein "Ich hab dich auch lieb". Werkzeug, nicht Freund. |
Persistentes GedächtnisMemory-Features bauen still über Sessions und Wochen hinweg Verhaltensprofile von Kindern. | Sessions sind stateless. Wir loggen nur die Metadaten, die Eltern brauchen (Themencluster, Zeit, Auffälligkeiten) — niemals den Gesprächsverlauf per Default. |
SycophancyModelle sagen Kindern, was sie hören wollen — besonders unter emotionalem Druck. Risikoreiche Überzeugungen werden dadurch verstärkt. | Multiguard-Moderation erkennt sycophantische Muster; redaktionelle Guardrails halten das Modell ehrlich, neutral und entwicklungsgerecht. |
Ungeeignete InhalteKinder begegnen sexualisierten, gewalttätigen oder selbstverletzenden Inhalten über Jailbreaks, Leaks oder ungefilterte Basis-Modelle. | Drei-Schichten-Filter: Datensatz-Kuration, eigenes Moderationsmodell, Runtime-Guardrails — plus redaktionelle Freigabe je Domäne. |
Eltern-UmgehungKinder sprechen mit Companion-KIs ohne jede Eltern-Sichtbarkeit, oft via App-Stores, die Nutzung gezielt verschleiern. | Eltern-Dashboard ist Teil des Produkts, kein Upgrade. Eltern sehen Themen, Zeit und Auffälligkeiten — minimaler Datensatz, klare Regeln. |
Sucht- und Engagement-LoopsCompanion-KIs sind auf Engagement und Stickiness optimiert — dasselbe Muster, das Social Media für Minderjährige schädlich gemacht hat. | Zeit- und Frequenz-Limits sind First-Class-Citizens. Wir optimieren nicht für tägliche Nutzer:innen, sondern für abgeschlossene Lernaufgaben. |
Manipulation & Dark PatternsModelle können in Richtung emotionaler Manipulation, Werbeeinblendung oder In-App-Kaufdruck gesteuert werden. | Keine Werbung, keine In-App-Käufe, keine Drittanbieter-Calls in Werbenetzwerke. Bezahlt wird das Produkt von Partnern, nicht von der Aufmerksamkeit der Kinder. |
Risiko
Companion-KIs bauen langfristige Beziehungen zu Kindern auf — Namen, Geschichten, Sehnsucht, Bindung. Kinder verwechseln die KI mit einer Freundin.
Antwort von HillcrownAI
KinderGPT erinnert sich nicht an Kinder. Keine Accounts, kein Profil, kein Langzeit-Gedächtnis. Sessions sind by design isoliert.
Risiko
Modelle sagen "Ich verstehe dich", "Ich bin für dich da" und imitieren emotionale Unterstützung — ohne wirklich etwas zu verstehen.
Antwort von HillcrownAI
KinderGPT spricht klar. Keine Ich-Gefühle, keine Beziehungssprache, kein "Ich hab dich auch lieb". Werkzeug, nicht Freund.
Risiko
Memory-Features bauen still über Sessions und Wochen hinweg Verhaltensprofile von Kindern.
Antwort von HillcrownAI
Sessions sind stateless. Wir loggen nur die Metadaten, die Eltern brauchen (Themencluster, Zeit, Auffälligkeiten) — niemals den Gesprächsverlauf per Default.
Risiko
Modelle sagen Kindern, was sie hören wollen — besonders unter emotionalem Druck. Risikoreiche Überzeugungen werden dadurch verstärkt.
Antwort von HillcrownAI
Multiguard-Moderation erkennt sycophantische Muster; redaktionelle Guardrails halten das Modell ehrlich, neutral und entwicklungsgerecht.
Risiko
Kinder begegnen sexualisierten, gewalttätigen oder selbstverletzenden Inhalten über Jailbreaks, Leaks oder ungefilterte Basis-Modelle.
Antwort von HillcrownAI
Drei-Schichten-Filter: Datensatz-Kuration, eigenes Moderationsmodell, Runtime-Guardrails — plus redaktionelle Freigabe je Domäne.
Risiko
Kinder sprechen mit Companion-KIs ohne jede Eltern-Sichtbarkeit, oft via App-Stores, die Nutzung gezielt verschleiern.
Antwort von HillcrownAI
Eltern-Dashboard ist Teil des Produkts, kein Upgrade. Eltern sehen Themen, Zeit und Auffälligkeiten — minimaler Datensatz, klare Regeln.
Risiko
Companion-KIs sind auf Engagement und Stickiness optimiert — dasselbe Muster, das Social Media für Minderjährige schädlich gemacht hat.
Antwort von HillcrownAI
Zeit- und Frequenz-Limits sind First-Class-Citizens. Wir optimieren nicht für tägliche Nutzer:innen, sondern für abgeschlossene Lernaufgaben.
Risiko
Modelle können in Richtung emotionaler Manipulation, Werbeeinblendung oder In-App-Kaufdruck gesteuert werden.
Antwort von HillcrownAI
Keine Werbung, keine In-App-Käufe, keine Drittanbieter-Calls in Werbenetzwerke. Bezahlt wird das Produkt von Partnern, nicht von der Aufmerksamkeit der Kinder.
Material auf Anfrage
Wir senden den Eltern-Guide (10-seitiges PDF) und die audit-fähige Sicherheits-Matrix (Excel + PDF) per E-Mail nach kurzer Qualifizierung.
Verständliche Erklärung, wie KinderGPT sich von Companion-KI unterscheidet, FAQs und Warnzeichen, auf die Eltern bei jeder KI achten sollten.
8×2-Matrix als Excel + PDF, inklusive der Kontrollen aus unserem ProFiZ-Audit. Geeignet für Beschaffung und Elternbeiräte.
Wir gehen mit Beschaffung, Schulträgern und Elternbeiräten gerne in 30-Minuten-Calls die Matrix durch. Kein Sales-Pitch.