KI-Transparenz-Erklärung
Gemäß EU AI Act (VO 2024/1689), Artikel 50 — Stand April 2026
Sie interagieren mit einem KI-System
HOVIGuard ist ein KI-Gateway, das Anfragen an Large Language Models (LLMs) sowie Bild- und Video-Generatoren weiterleitet. Alle Antworten in der Chat-Oberfläche werden von maschinellen Modellen erzeugt — nicht von Menschen. Wir weisen in jeder Chat-Ansicht explizit darauf hin.
Eingesetzte Modelle und Anbieter
HOVIGuard selbst trainiert keine Modelle. Wir routen Anfragen über kuratierte Drittanbieter, die im Produkt unter Superadmin → Modelle transparent aufgelistet sind. Aktuell unterstützt:
- EU-gehostet (🇪🇺): Mistral, Meta Llama auf EU-Infrastruktur in Lyon, Cloudflare Workers AI (EU-PoPs)
- Drittland mit Schutzgarantien: Anthropic Claude, OpenAI GPT-5.4, Google Gemini, Amazon Nova, xAI Grok, DeepSeek, Cohere, Perplexity — Übermittlung auf Basis DPF und/oder SCCs (DSGVO Art. 46)
- Lokal auf HOVIGuard-Server: Qwen3Guard-Gen-4B als Safety-Layer, Whisper für Sprache-zu-Text
Tenant-Administratoren können ihre Nutzer auf 🇪🇺-Modelle beschränken.
Zweck und Risikoklassifizierung
HOVIGuard ist als General-Purpose-AI-System einzustufen (Art. 3 Nr. 63 AI Act) und wird als minimal- bis begrenzt-risikoreich betrieben:
- Keine biometrische Fernidentifikation
- Keine Social-Scoring-Anwendung
- Keine automatisierte Entscheidung mit Rechtswirkung für Betroffene (Art. 22 DSGVO)
- Keine Manipulation von Personen
- Kein Einsatz in kritischer Infrastruktur ohne vorherige DPIA mit dem Kunden
Der Einsatz in Hochrisiko-Bereichen (z. B. medizinische Diagnose, Bildung, Beschäftigung, Justiz) ist vertraglich nur mit zusätzlicher Risikobewertung und Freigabe durch HOVIGuard zulässig.
Einschränkungen und bekannte Risiken
- Halluzinationen: LLMs können inhaltlich falsche, veraltete oder erfundene Informationen liefern. Prüfen Sie Ergebnisse vor geschäftskritischem Einsatz.
- Trainingsdaten-Bias: Modelle spiegeln die Verteilung ihrer Trainingsdaten und können stereotype oder kulturell einseitige Ausgaben erzeugen.
- Prompt-Injection: Manipulierte Eingaben können Modelle zu Fehlverhalten bewegen. Unser Safety-Layer filtert bekannte Muster, kann aber nicht alles abfangen.
- Aktualitätsgrenze: Modelle haben einen Trainings-Cutoff und kennen aktuelle Ereignisse nur über Websuche (sofern aktiviert und vom Modell unterstützt).
- Urheberrecht: Bild-/Video-Generatoren können Inhalte erzeugen, die urheberrechtlich geschützte Motive imitieren. Nutzungsrechte sind vom Kunden zu prüfen.
Schutzmaßnahmen von HOVIGuard
- Multi-Layer-Safety: Eingabe-Klassifizierung durch Qwen3Guard-Gen-4B (9 Kategorien S1–S9, 119 Sprachen), Ausgabe-Scanner, Jailbreak-Erkennung.
- PII-Erkennung: Regex- und Modell-basierte Erkennung personenbezogener Daten vor Weiterleitung an externe Modelle.
- Content-Policy pro Tenant: Admin kann Upload-Typen, NSFW-Filter, erlaubte Modell-Kategorien konfigurieren.
- Audit-Logs: Alle sicherheitsrelevanten Ereignisse sind nachvollziehbar protokolliert.
- EU-AI-Act-Konformität: Transparenzhinweis in jedem Chat, Kennzeichnung KI-generierter Bilder mit sichtbaren Wasserzeichen (C2PA-Vorbereitung).
Kennzeichnung KI-generierter Inhalte
Alle Texte, Bilder und Videos, die Sie über HOVIGuard erzeugen, sind KI-Ausgaben. Beim Teilen oder Veröffentlichen dieser Inhalte sind Sie verpflichtet, sie als solche zu kennzeichnen (Art. 50 Abs. 4 AI Act — „deep fakes“ und KI-generierte Medien). HOVIGuard fügt generierten Bildern automatisch Metadaten (C2PA-Signatur, in Vorbereitung) hinzu.
Kontakt und Feedback
Fragen zum KI-Einsatz, Beschwerden über unerwünschte Ausgaben oder Verdacht auf Sicherheitslücken richten Sie bitte an datenschutz@hoviguard.eu oder über das Sicherheits-Kontaktformular.
Häufige Fragen zur KI-Transparenz
Was bedeutet KI-Transparenz im Kontext des EU AI Act?+
Artikel 50 des EU AI Act verpflichtet Anbieter und Deployer, Nutzer:innen darüber zu informieren, dass sie mit einem KI-System interagieren. Zusätzlich müssen KI-generierte Inhalte (insbesondere Deepfakes und synthetische Medien) als solche gekennzeichnet werden. HOVIGuard weist in jeder Chat-Ansicht explizit auf die KI-Nutzung hin.
Welche Werkzeuge bietet HOVIGuard zur Erfüllung der Transparenz-Pflichten?+
Üblicherweise: einen sichtbaren Transparenz-Hinweis in der Chat-Oberfläche, einen Audit-Trail aller KI-Interaktionen, dokumentierte Modell- und Provider-Listen (Superadmin → Modelle), automatische Hinweise auf KI-Ausgaben sowie C2PA-Wasserzeichen für KI-generierte Bilder (in Vorbereitung).
Wer ist für die Kennzeichnung KI-generierter Inhalte verantwortlich?+
Beim Teilen oder Veröffentlichen sind Sie als Nutzer:in verpflichtet, KI-generierte Texte, Bilder und Videos als solche zu kennzeichnen (Art. 50 Abs. 4 AI Act). HOVIGuard liefert die technischen Hilfsmittel (Metadaten, Wasserzeichen), die rechtliche Verantwortung für die Veröffentlichung bleibt bei Ihnen.
Welche Modelle und Anbieter werden eingesetzt?+
EU-gehostete Modelle (Mistral, Meta Llama, Cloudflare Workers AI in EU-PoPs), Drittland-Modelle mit Schutzgarantien (Anthropic, OpenAI, Google, Amazon, xAI, DeepSeek, Cohere, Perplexity — auf Basis DPF und/oder SCCs) und lokal betriebene Safety-Modelle (Qwen3Guard-Gen-4B, Whisper). Tenant-Admins können auf EU-only beschränken.
Welche Risiken sind bei KI-Antworten zu beachten?+
LLMs können halluzinieren, Trainingsdaten-Bias spiegeln, durch Prompt-Injection manipuliert werden und haben einen Cutoff-Datum. Bild-/Video-Generatoren können urheberrechtliche Motive imitieren. Prüfen Sie Ergebnisse vor geschäftskritischem Einsatz; Details siehe Abschnitt Einschränkungen und bekannte Risiken.
