KI-Modelle sind mitterlerweile austauschbar („Commodity“), und deren wirklicher Wert und Nutzen entsteht erst durch spezifischen Kontext (z.B. eigene Daten, Prozesse, Fachsysteme). Während US-Tech-Konzerne den Eindruck vermitteln, unverzichtbar zu sein, ist die eigentliche Stärke mittlerweile die Standardisierung: Modelle wie GPT, Gemini oder Mixtral lassen sich flexibel austauschen, denn industrielle Entwicklungsstandards (z. B. OpenAI-API, Model Context Protocol, Agenten-Frameworks, Agenten-Kommunikationsprotokolle) ermöglichen Anbieterunabhängigkeit und Interoperabilität.
Für die praktische Implementierung sind dabei vier technische Kernbereiche wichtig:
- Einfach abrufbare Sprachmodelle (über offene APIs)
- Kontextbereitstellung (z. B. durch Retrieval Augmented Generation und Tool Nutzung)
- Mehrstufige KI-Abläufe und Agentensysteme (z. B. für Verwaltungsprozesse)
- Kommunikation zwischen KI-Agenten (über offene Protokolle wie A2A und ACP)
Im Sinne des Datenschutzes gibt es europäische Alternativen (und selbstgehostete Modelle). Standards und Kooperationen (bspw. Community Clouds an Hochschulen) ermöglichen neue Wege für vertrauenswürdige, kontextbasierte KI-Lösungen im öffentlichen Sektor. Dabei sollte weniger auf Technik-Hype, sondern mehr auf pragmatische, sichere Umsetzung und eigene Erfahrungen gesetzt werden – etwa bei Hackathons oder durch die Nutzung verfügbarer Ressourcen in Deutschland oder Europa.