Die meisten Compliance-Risiken beim KI-Einsatz entstehen aus zwei Quellen: Datenabfluss zu Drittanbietern und intransparente Entscheidungen. Solid Qubits adressiert beide durch die Architektur.
DSGVO
Datenabfluss findet nicht statt, weil das System ausschließlich lokal arbeitet. Damit entfallen Standardvertragsklauseln, Drittlandtransfers und die laufende Überwachung der Anbieter-Compliance. Cloud-Architekturen können ebenfalls DSGVO-konform sein, erfordern aber erheblich höheren vertraglichen und organisatorischen Aufwand.
Ein Thema, das lokale Nutzung nicht löst: Fast alle großen Sprachmodelle wurden auf Datensätzen trainiert, deren Rechtsgrundlage nicht abschließend geklärt ist. Die Lizenz- und Herkunftssituation des eingesetzten Modells gehört zur Prüfung dazu — wir führen das im Rahmen eines KI-Audits durch.
EU AI Act
Der EU AI Act tritt gestuft in Kraft. Hochrisiko-KI-Anforderungen greifen größtenteils ab August 2026. Für Solid Qubits als Wissensmanagement-Plattform gilt: Die Einstufung hängt vom Einsatzzweck ab. Ein internes Wissensmanagementsystem für technische Dokumentation fällt in der Regel unter geringes Risiko. Wird dasselbe System in Personalauswahl, Leistungsbewertung oder arbeitsbezogenen Entscheidungen eingesetzt (Annex III Nr. 4), gilt es als Hochrisiko-System.
Solide Unterstützung der Transparenzanforderungen
Zwei Solid-Qubits-Funktionen adressieren Transparenzanforderungen direkt. Erstens die Quellreferenz: Jede Antwort enthält Verweise auf die zugrundeliegenden Dokumente. Zweitens die Vektor-Ansicht: Für jede Datei können Sie einsehen, welche Informationen die KI tatsächlich aus dem Inhalt extrahiert hat. Beides macht KI-Antworten überprüfbar und ist in Audits gegenüber Prüfern, Kunden und Behörden konkret vorzeigbar.
Was ein Audit klärt
Für die Einstufung Ihres konkreten Anwendungsfalls als „Hochrisiko-KI” oder „beschränktes Risiko” beraten wir im Audit. Die Einstufung ist immer Einzelfallbewertung und hängt von Einsatzkontext, Zielgruppe und Entscheidungsrelevanz ab.