Solid Qubits arbeitet ausschließlich mit Open-Weight-Modellen, deren Gewichte frei verfügbar sind und die auf eigener Hardware betrieben werden dürfen. Proprietäre Modelle wie GPT oder Claude sind nur über die Cloud der jeweiligen Anbieter nutzbar und kommen für ein On-Premise-System nicht in Frage.
Aktuelle Modellauswahl
Zum Stand April 2026 sind die wichtigsten Open-Weight-Modellfamilien Llama (Meta, bis 405 Milliarden Parameter), Mistral (europäischer Anbieter aus Frankreich), Qwen (Alibaba, starke Multilingual-Performance) und Gemma (Google). Die konkrete Wahl hängt vom Anwendungsfall, der Hardware-Dimensionierung und der Qualität in der Zielsprache ab.
Worauf es bei der Auswahl ankommt
Vier Faktoren bestimmen die Modellwahl. Erstens die Sprachqualität — viele englischsprachige Modelle sind im Deutschen spürbar schwächer; multilinguale oder deutsch-optimierte Modelle liefern bessere Ergebnisse. Zweitens die Modellgröße — größere Modelle sind meist präziser, brauchen aber mehr VRAM und GPU-Leistung. Drittens die Lizenzbedingungen — manche „offene” Modelle haben Nutzungseinschränkungen. Viertens der Anwendungsfall — reine Dokumentensuche stellt andere Anforderungen als komplexe Analyse oder multimodale Verarbeitung.
Modell-Updates
Open-Weight-Modelle werden regelmäßig aktualisiert. Neue Versionen bringen typischerweise bessere Antwortqualität, effizientere Nutzung der Hardware oder längere Kontextfenster. In Solid Qubits lässt sich das Modell während des Betriebs austauschen — die Wissensbasis bleibt erhalten. Eine vollständige Neu-Indexierung ist nur nötig, wenn das Embedding-Modell wechselt, nicht bei jedem Sprachmodell-Update.
Warum keine Cloud-Modelle
GPT, Claude und Gemini sind leistungsstark, aber nicht lokal betreibbar. Jede Anfrage würde an Cloud-Server gehen — der zentrale Vorteil von Solid Qubits (Datenhoheit, Kostenstabilität, Unabhängigkeit) wäre damit aufgegeben.