Stand April 2026 · Laufend aktualisiert
European AI Model Sovereignty Tracker
Realität ist besser als gedacht — fast jedes europäische Land hat ein sovereign AI Modell oder aktive Entwicklung. Wer baut wirklich eigene KI-Modelle, und wer trainiert nur fremde Modelle nach?
Länderübergreifend
Pan-Europäische Konsortium-Modelle
Bevor wir zu den einzelnen Ländern kommen: Diese Modelle decken mehrere Sprachen und Länder ab — koordiniert durch europäische Institutionen.
Vollständige Übersicht
Sovereign AI Modelle nach Land
EU-Mitglieder, Kandidatenländer und assoziierte Staaten. Spalten: Land · Status · Modell · Anbieter · Open Source · On-Premise · Notizen.
| Land | Status | Modell(e) | Anbieter / Builder | Open Source | On-Prem | Notizen |
|---|---|---|---|---|---|---|
| A — EU-Mitgliedsstaaten (27) | ||||||
🇧🇬Bulgarien |
Deployed | BgGPT 2,6B / 9B / 27B |
INSAIT Sofia | ✓ | ✓ | Erste ÖO-entwickelte LLM in CEE; ~€150M Staatsförderung; übertrifft Meta Llama 70B auf Bulgarisch; BgGPT 3.0 März 2026 |
🇩🇪Deutschland |
Deployed
In Entwicklung
|
Teuken-7B, SOOFI 100B (in dev), Luminous / PhariaAI | Deutsche Telekom / OpenGPT-X; Leibniz Uni Hannover-Konsortium; Aleph Alpha | teilw. | ✓ | SOOFI: ~€20M BMWK, Training startet März 2026 auf T-Systems Industrial AI Cloud; Teuken-7B: alle 24 EU-Sprachen; Aleph Alpha kämpft |
🇪🇸Spanien |
Deployed | ALIA-40B / Salamandra 2B, 7B, 40B |
Barcelona Supercomputing Center (BSC-CNS) | ✓ | ✓ | 100% öffentlich finanziert (EU NextGenerationEU); 9,37 Billionen Tokens; 35 europäische Sprachen; MareNostrum 5 |
🇫🇷Frankreich |
Deployed | Mistral Large 3, Le Chat, Magistral | Mistral AI | teilw. | ✓ via Koyeb | Bewertung ~€11,7B; Militärvertrag Jan. 2026; €830M Paris Datacenter; €1,7B Series C; Magistral Small Apache 2.0 |
🇫🇮Finnland |
Deployed | Poro-34B, Viking 7B / 13B / 33B |
Silo AI (AMD-Tochter) | ✓ | ✓ | LUMI Supercomputer; nordische Sprachen; 2 Billionen Tokens; AMD-Übernahme $665M 2024; OpenEuroLLM-Partner |
🇬🇷Griechenland |
Deployed | Meltemi-7B, Llama-Krikri-8B, Sophea.AI | ILSP / Athena Research Center; KIEFER | teilw. | ✓ | Meltemi: 28,5B griech. Tokens; Krikri: Llama 3.1 Basis; Sophea.AI auf NVIDIA DGX B200 (erstes in Griechenland) |
🇭🇺Ungarn |
Deployed | PULI-GPTrio, PULI LlumiX 32K | HUN-REN NYTK / ELTE | ✓ Forschung | ✓ | PULI-GPTrio: Ungarisch / Englisch / Chinesisch; LlumiX: State-of-the-art für ungar. Instruktionen; kostenlos für gemeinnützige F&E |
🇮🇹Italien |
Deployed | Minerva 1B / 3B / 7B Italia 9B |
Sapienza NLP + FAIR + CINECA; iGenius | teilw. | teilw. | Minerva: von Grund auf trainiert, 2,5 Billionen Tokens, ~50% Italienisch; Italia 9B: kommerziell |
🇱🇻Lettland |
Deployed | TildeOpen LLM 30B+ |
Tilde (Riga) | ✓ CC-BY-4.0 | ✓ LUMI | Sep. 2025; 34 Sprachen; +41% vs LLaMA-3 auf Lettisch; Disinformations-Schutz integriert |
🇱🇹Litauen |
Deployed | Neurotechnology LLM 7B / 13B |
Neurotechnology GmbH (Vilnius) | ✓ | ✓ | Aug. 2024; erste Open-Source-LLM für Litauisch; 14B+ Tokens; NVIDIA H100s |
🇳🇱Niederlande |
Deployed | GPT-NL | TNO + SURF + NFI | ✓ | ✓ | Feb. 2026; €13,5M Staatsförderung; erste LLM weltweit die nachweislich DSGVO-konform ist (Privacy First); von Grund auf neu gebaut |
🇷🇴Rumänien |
Deployed | OpenLLM-Ro RoLlama, RoMistral-7B |
Politehnica Bukarest + Univ. Bukarest + ILDS | ✓ | ✓ | Community-Initiative openllm.ro; BRD-Partnerschaft; erste rumänische Open-Source LLM |
🇸🇮Slowenien |
Deployed | GaMS 1B / 2B / 9B / 27B |
CJVT, Univ. Ljubljana + CLARIN | ✓ | ✓ | NextGenerationEU + ARIS-Finanzierung; Citizen Science Corpus via povejmo.si; GaMS-27B instruction-tuned |
🇦🇹Österreich |
Deployed | xLSTM-7B, MANZ-Noxtua | AIT + Sepp Hochreiter-Team; MANZ | teilw. | ✓ | xLSTM: neue Architektur (nicht Transformer), 40% energieeffizienter; MANZ-Noxtua: souveräne Rechts-KI DACH; AI Factory Austria |
🇸🇪Schweden |
Deployed | GPT-SW3 126M bis 40B |
AI Sweden + RISE + WASP | ✓ | ✓ | Berzelius Supercomputer; Schwedisch / Norwegisch / Dänisch / Isländisch / Englisch; OpenEuroLLM-Partner |
🇩🇰Dänemark |
Deployed | Munin-7B Alpha, SnakModel-7B, Odin-LLM | Danish Foundation Models (CHC); AAU-NLP | ✓ | ✓ | Munin: Mistral-7B Basis, Danish Gigaword; SnakModel: 13,6B dänische Wörter; chat.dk (Odin-LLM); Gefion Supercomputer (1.528x H100) |
🇵🇱Polen |
Deployed | PLLuM | WUST-Konsortium (6 Institutionen) | ✓ | ✓ | Feb. 2025; €3,5M (Digitalisierungsministerium); 140B polnische Tokens; in mObywatel-App der Regierung integriert |
🇵🇹Portugal |
In Entwicklung | Amália | NOVA FCT, IST, Univ. Coimbra, Porto, Minho | ✓ geplant | ✓ geplant | Basis-Version Okt. 2025 fertig; volle Version Q2 2026; übertrifft alle Open-Source-Modelle auf portugiesischen Nationalexamen |
🇨🇿Tschechien |
In Entwicklung | OpenEuroLLM (Koordination), CSMPT7b | Karls-Universität Prag (ÚFAL); BUT-FIT | ✓ geplant | ✓ geplant | Koordiniert 20-Länder-Konsortium; €34M EC-Förderung; CSMPT7b (7B Czech, BUT-FIT) bereits verfügbar |
🇮🇪Irland |
Forschung | UCCIX (Irish LLM) | ReML-AI | ✓ | ✓ | Llama2-13B Basis; extrem ressourcenarme Sprache; +12% Leistungsverbesserung auf Irisch; präsentiert ECAI 2024 |
🇭🇷Kroatien |
Forschung | HR-GPT2 / BCMS-BERTić | Univ. Zagreb / FFZG | ✓ Forschung | ✓ | Monolinguales Kroatisch-LLM in Entwicklung; BCMS-BERTić für Bosnisch / Kroatisch / Montenegrinisch / Serbisch |
🇪🇪Estland |
Forschung | Estnische Sprachmodelle (TartuNLP) | Univ. Tartu + EXAI | ✓ Forschung | ✓ | €7M Staatsförderung über 7 Jahre; Aufbau souveräner HPC-Infrastruktur; führend bei e-Government (X-Road) |
🇸🇰Slowakei |
Nein | — | — | — | — | Keine eigene Entwicklung; von EuroLLM-22B + OpenEuroLLM abgedeckt |
🇧🇪Belgien |
Nein | — | — | — | — | Keine eigene Entwicklung; EU-Institutionen-HQ in Brüssel; Teil EU-weiter Initiativen |
🇱🇺Luxemburg |
Nein | — | — | — | — | Keine eigene Entwicklung; Finanzplatz; EU-Institutionen |
🇲🇹Malta |
Nein | — | — | — | — | Maltesisch in EuroLLM-22B und TildeOpen abgedeckt |
🇨🇾Zypern |
Nein | — | — | — | — | Griechischsprachige Modelle teilweise anwendbar |
| B — EU-Kandidatenländer | ||||||
🇺🇦Ukraine |
Deployed
In Entwicklung
|
Lapa LLM v0.1.2; Nationales LLM | UCU + KPI + Lviv Polytechnic; Kyivstar + Minist. Digitalisierung | teilw. | ✓ | Lapa: Okt. 2025, Gemma 12B Basis, ~$500K Rechenkosten (gespendet); Nationales LLM: beta Frühjahr 2026, staatlich + open-source geplant |
🇷🇸Serbien |
In Entwicklung | Nationales Serbisches LLM | Regierung Serbien | offen | ✓ | Kooperationsvertrag Jan. 2026; staatliches Rechenzentrum Kragujevac; erster systematischer Ansatz |
🇹🇷Türkei |
Deployed | T3AI, VBART | T3 Stiftung + Baykar + 1.792 Bürger-Freiwillige; VNGRS | ✓ | ✓ | Beta Juli 2025; Türkisch + turksprachige Sprachen; staatliche Zuschüsse bis TL 50M/Projekt; VBART: erstes türkisches seq2seq LLM |
🇦🇱Albanien |
Nein | — | — | — | — | Albanisch in OpenEuroLLM Zielsprachen |
🇲🇪Montenegro |
Nein | — | — | — | — | Montenegrinisch in TildeOpen abgedeckt |
🇲🇰Nord-mazedonien |
Nein | — | — | — | — | OpenEuroLLM Antenna; Mazedonisch in TildeOpen |
🇲🇩Moldau |
Nein | — | — | — | — | OpenEuroLLM Antenna |
🇧🇦Bosnien |
Nein | — | — | — | — | BCMS-BERTić abgedeckt (gemeinsame Modelle BCS) |
🇬🇪Georgien |
Nein | — | — | — | — | Keine eigene Entwicklung bekannt |
| C — Assoziierte & Partnerländer | ||||||
🇨🇭Schweiz |
Deployed | Apertus 8B + 70B |
ETH Zürich + CSCS + EPFL | ✓ Apache 2.0 | ✓ | Sep. 2025; Alps Supercomputer Lugano; 15 Billionen Tokens, 1.000+ Sprachen; vollständig transparent (Architektur + Daten + Gewichte) |
🇳🇴Norwegen |
Deployed | NorGPT (369M–23B), NorwAI-Mixtral 47B | NorwAI / NTNU | ✓ | ✓ | NorwAI-Mixtral-8x7B: 47B MoE; 51,15B Tokens (Schibsted, VG, NRK); verfügbar für nordische Länder |
🇮🇸Island |
Forschung | TrustLLM; GPT-4 Isländisch-Erweiterung | Miðeind + Univ. Island; OpenAI | teilw. | teilw. | GPT-4 isländische Daten: 4 Milliarden Wörter, 40+ Freiwillige; TrustLLM: EU Horizon, germanische Kleinsprachen |
🇬🇧UK |
Deployed | UK-LLM / Walisisches Modell | UCL + Bangor Univ. + NVIDIA | ✓ | ✓ | Walisisch, Irisch, Kornisch, Schottisch-Gälisch; NVIDIA Nemotron Basis; 30M+ Einträge; Nscale API |
Analyse
Key Insights
Mehr als erwartet
Entgegen verbreiteter Annahme hat fast jedes europäische Land ein sovereign AI Modell oder aktive Entwicklung. 20+ deployete Modelle, 10+ in Entwicklung. Besonders bemerkenswert: Bulgarien (BgGPT, erste ÖO-LLM in CEE), Niederlande (GPT-NL, erste nachweislich DSGVO-konforme LLM weltweit), Schweiz (Apertus 70B, vollständig transparent).
Echtes Training vs. Fine-Tuning
Viele "sovereign" Modelle basieren auf Meta Llama, Google Gemma oder Mistral als Grundlage — nur Frankreich (Mistral), Spanien (ALIA), Deutschland (SOOFI), Niederlande (GPT-NL), Italien (Minerva) bauen wirklich von Grund auf. Fine-Tuning eines US-Modells schafft keine vollständige Unabhängigkeit von US-Entscheidungen.
Das Sprachproblem: Gelöst
Für jede EU-Amtssprache gibt es bereits mindestens ein spezialisiertes Modell — entweder nativ oder über EuroLLM-22B (alle 24 EU-Sprachen), TildeOpen (34 Sprachen) oder OpenEuroLLM (32+ Sprachen). Das Sprachproblem ist technisch weitgehend gelöst.
Die offene Infrastruktur-Lücke
Echte Unabhängigkeit erfordert mehr als ein Modell — es braucht Inferenz-Infrastruktur, die on-premise betrieben werden kann. Hier ist die Lücke groß: Nur wenige Modelle haben produktionsreife on-premise Deployments. Für regulierte Branchen (Verteidigung, Medizin, Behörden) bleibt die Wahl stark eingeschränkt.
Als "Deployed" gilt ein Modell wenn Gewichte oder API öffentlich / kommerziell verfügbar sind. "In Entwicklung" = aktives Projekt mit Finanzierung und Team. "Forschung" = akademische Initiative ohne produktionsbereites Deployment. Fine-Tuning auf fremder Basis (Llama, Gemma, Mistral) wird als "Deployed" klassifiziert, aber im Notes-Feld vermerkt. Basis-Trainings ohne Fine-Tuning werden bevorzugt.
AlpiType · Landsberg am Lech
Sovereign AI für Ihr Unternehmen?
Wir helfen Ihnen, die richtigen europäischen KI-Modelle für Ihre Anforderungen zu evaluieren — on-premise, DSGVO-konform, ohne US-Abhängigkeit.
Weiterführende Artikel
KI nutzen, ohne Daten in die Cloud zu schicken
On-premise KI: Wie Systeme vollständig lokal betrieben werden.
Sind Ihre Daten überhaupt für KI nutzbar?
Datenqualität prüfen, bevor Sie in KI investieren.
Was KI in einem realen Industrieprojekt kostet
Konkrete Zahlen, Phasen und ROI aus realen Projekten.
Nicht sicher, ob das auf Ihren Fall zutrifft?
Wir prüfen Ihr Setup in 2 Wochen und sagen Ihnen, ob KI machbar ist.
Machbarkeits-Audit anfragen →Sprechen Sie mit einem Ingenieur
Kein Vertrieb. Sie sprechen direkt mit einem unserer Software-Architekten über Ihr konkretes Problem. 30 Minuten. Antwort innerhalb von 24 Stunden.
Email: info@alpitype.com
LinkedIn: AlpiType