HOVIGuard

KI-Transparenz-Erklärung

Gemäß EU AI Act (VO 2024/1689), Artikel 50 — Stand April 2026

Sie interagieren mit einem KI-System

HOVIGuard ist ein KI-Gateway, das Anfragen an Large Language Models (LLMs) sowie Bild- und Video-Generatoren weiterleitet. Alle Antworten in der Chat-Oberfläche werden von maschinellen Modellen erzeugt — nicht von Menschen. Wir weisen in jeder Chat-Ansicht explizit darauf hin.

Eingesetzte Modelle und Anbieter

HOVIGuard selbst trainiert keine Modelle. Wir routen Anfragen über kuratierte Drittanbieter, die im Produkt unter Superadmin → Modelle transparent aufgelistet sind. Aktuell unterstützt:

  • EU-gehostet (🇪🇺): Mistral, Meta Llama auf EU-Infrastruktur in Lyon, Cloudflare Workers AI (EU-PoPs)
  • Drittland mit Schutzgarantien: Anthropic Claude, OpenAI GPT-5.4, Google Gemini, Amazon Nova, xAI Grok, DeepSeek, Cohere, Perplexity — Übermittlung auf Basis DPF und/oder SCCs (DSGVO Art. 46)
  • Lokal auf HOVIGuard-Server: Qwen3Guard-Gen-4B als Safety-Layer, Whisper für Sprache-zu-Text

Tenant-Administratoren können ihre Nutzer auf 🇪🇺-Modelle beschränken.

Zweck und Risikoklassifizierung

HOVIGuard ist als General-Purpose-AI-System einzustufen (Art. 3 Nr. 63 AI Act) und wird als minimal- bis begrenzt-risikoreich betrieben:

  • Keine biometrische Fernidentifikation
  • Keine Social-Scoring-Anwendung
  • Keine automatisierte Entscheidung mit Rechtswirkung für Betroffene (Art. 22 DSGVO)
  • Keine Manipulation von Personen
  • Kein Einsatz in kritischer Infrastruktur ohne vorherige DPIA mit dem Kunden

Der Einsatz in Hochrisiko-Bereichen (z. B. medizinische Diagnose, Bildung, Beschäftigung, Justiz) ist vertraglich nur mit zusätzlicher Risikobewertung und Freigabe durch HOVIGuard zulässig.

Einschränkungen und bekannte Risiken

  • Halluzinationen: LLMs können inhaltlich falsche, veraltete oder erfundene Informationen liefern. Prüfen Sie Ergebnisse vor geschäftskritischem Einsatz.
  • Trainingsdaten-Bias: Modelle spiegeln die Verteilung ihrer Trainingsdaten und können stereotype oder kulturell einseitige Ausgaben erzeugen.
  • Prompt-Injection: Manipulierte Eingaben können Modelle zu Fehlverhalten bewegen. Unser Safety-Layer filtert bekannte Muster, kann aber nicht alles abfangen.
  • Aktualitätsgrenze: Modelle haben einen Trainings-Cutoff und kennen aktuelle Ereignisse nur über Websuche (sofern aktiviert und vom Modell unterstützt).
  • Urheberrecht: Bild-/Video-Generatoren können Inhalte erzeugen, die urheberrechtlich geschützte Motive imitieren. Nutzungsrechte sind vom Kunden zu prüfen.

Schutzmaßnahmen von HOVIGuard

  • Multi-Layer-Safety: Eingabe-Klassifizierung durch Qwen3Guard-Gen-4B (9 Kategorien S1–S9, 119 Sprachen), Ausgabe-Scanner, Jailbreak-Erkennung.
  • PII-Erkennung: Regex- und Modell-basierte Erkennung personenbezogener Daten vor Weiterleitung an externe Modelle.
  • Content-Policy pro Tenant: Admin kann Upload-Typen, NSFW-Filter, erlaubte Modell-Kategorien konfigurieren.
  • Audit-Logs: Alle sicherheitsrelevanten Ereignisse sind nachvollziehbar protokolliert.
  • EU-AI-Act-Konformität: Transparenzhinweis in jedem Chat, Kennzeichnung KI-generierter Bilder mit sichtbaren Wasserzeichen (C2PA-Vorbereitung).

Kennzeichnung KI-generierter Inhalte

Alle Texte, Bilder und Videos, die Sie über HOVIGuard erzeugen, sind KI-Ausgaben. Beim Teilen oder Veröffentlichen dieser Inhalte sind Sie verpflichtet, sie als solche zu kennzeichnen (Art. 50 Abs. 4 AI Act — „deep fakes“ und KI-generierte Medien). HOVIGuard fügt generierten Bildern automatisch Metadaten (C2PA-Signatur, in Vorbereitung) hinzu.

Kontakt und Feedback

Fragen zum KI-Einsatz, Beschwerden über unerwünschte Ausgaben oder Verdacht auf Sicherheitslücken richten Sie bitte an datenschutz@hoviguard.eu oder über das Sicherheits-Kontaktformular.

Häufige Fragen zur KI-Transparenz

Was bedeutet KI-Transparenz im Kontext des EU AI Act?+

Artikel 50 des EU AI Act verpflichtet Anbieter und Deployer, Nutzer:innen darüber zu informieren, dass sie mit einem KI-System interagieren. Zusätzlich müssen KI-generierte Inhalte (insbesondere Deepfakes und synthetische Medien) als solche gekennzeichnet werden. HOVIGuard weist in jeder Chat-Ansicht explizit auf die KI-Nutzung hin.

Welche Werkzeuge bietet HOVIGuard zur Erfüllung der Transparenz-Pflichten?+

Üblicherweise: einen sichtbaren Transparenz-Hinweis in der Chat-Oberfläche, einen Audit-Trail aller KI-Interaktionen, dokumentierte Modell- und Provider-Listen (Superadmin → Modelle), automatische Hinweise auf KI-Ausgaben sowie C2PA-Wasserzeichen für KI-generierte Bilder (in Vorbereitung).

Wer ist für die Kennzeichnung KI-generierter Inhalte verantwortlich?+

Beim Teilen oder Veröffentlichen sind Sie als Nutzer:in verpflichtet, KI-generierte Texte, Bilder und Videos als solche zu kennzeichnen (Art. 50 Abs. 4 AI Act). HOVIGuard liefert die technischen Hilfsmittel (Metadaten, Wasserzeichen), die rechtliche Verantwortung für die Veröffentlichung bleibt bei Ihnen.

Welche Modelle und Anbieter werden eingesetzt?+

EU-gehostete Modelle (Mistral, Meta Llama, Cloudflare Workers AI in EU-PoPs), Drittland-Modelle mit Schutzgarantien (Anthropic, OpenAI, Google, Amazon, xAI, DeepSeek, Cohere, Perplexity — auf Basis DPF und/oder SCCs) und lokal betriebene Safety-Modelle (Qwen3Guard-Gen-4B, Whisper). Tenant-Admins können auf EU-only beschränken.

Welche Risiken sind bei KI-Antworten zu beachten?+

LLMs können halluzinieren, Trainingsdaten-Bias spiegeln, durch Prompt-Injection manipuliert werden und haben einen Cutoff-Datum. Bild-/Video-Generatoren können urheberrechtliche Motive imitieren. Prüfen Sie Ergebnisse vor geschäftskritischem Einsatz; Details siehe Abschnitt Einschränkungen und bekannte Risiken.