Infrastructure as Code für Fabric + Azure: Was heute möglich ist und was nicht
Hast du dich schon mal gefragt, ob du deine komplette Microsoft Fabric-Umgebung genauso automatisiert und reproduzierbar aufsetzen kannst wie eine klassische Azure-Infrastruktur? Also wirklich von Null auf, ohne ins Portal zu klicken, nur mit ein paar Zeilen Code? Das klingt verlockend, vor allem wenn du schon mit Infrastructure as Code (IaC) in Azure vertraut bist. Aber wie sieht das in der Praxis aus, wenn Fabric ins Spiel kommt? Genau darum geht’s in diesem Artikel: Wir schauen uns an, welche Möglichkeiten es aktuell gibt, wo noch Lücken sind und wie du trotzdem schon heute einen guten Teil deiner Fabric- und Azure-Umgebungen automatisieren kannst.
Microsoft Fabric und Azure: ein kurzer Überblick
Bevor wir ins Detail gehen, lass uns kurz klarstellen, worüber wir sprechen.
Microsoft Fabric ist eine integrierte Data- und Analytics-Plattform, die Services wie Data Engineering, Data Science, Real-Time Analytics, Data Warehouse und natürlich Power BI in einer einheitlichen Umgebung bündelt.
Dank OneLake als zentralem Datenspeicher kannst du Daten aus verschiedensten Quellen zusammenführen. Falls du noch nicht so tief im Thema bist: Lies dir gerne unseren Überblick zu OneLake für Power BI Desktop durch. Dort bekommst du schnell ein Gefühl, wie der zentrale Speicher funktioniert.
Azure hingegen ist der Cloud-Baukasten von Microsoft. Hier findest du alles von virtuellen Maschinen über Datenbanken bis hin zu KI-Diensten. In Azure ist Infrastructure as Code schon lange etabliert. Mit Tools wie ARM Templates, Bicep oder Terraform kannst du Ressourcen definieren, versionieren und automatisiert bereitstellen.
Was bedeutet Infrastructure as Code (IaC) im Kontext von Fabric?
IaC heißt, dass du deine Infrastruktur nicht manuell über Klicks im Portal aufbaust, sondern sie als Code beschreibst. Das bringt gleich mehrere Vorteile: Du kannst Änderungen nachvollziehen, Umgebungen reproduzieren und Deployments automatisieren.
In Azure funktioniert das mit Bicep oder Terraform hervorragend, aber bei Fabric sieht es aktuell noch etwas anders aus. Fabric ist zwar technisch eng mit Azure verwoben, allerdings gibt es, Stand heute, keine vollständige API- oder Template-Abdeckung, um jeden Aspekt einer Fabric-Umgebung per Code zu erstellen.
Was heute schon möglich ist
Lass uns positiv anfangen: Es gibt einige Bereiche, die du bereits automatisieren kannst – teilweise direkt über Azure-Mechanismen, teilweise über Workarounds.
1. Kapazitäten und Workspaces in Fabric
Über die Power BI REST API kannst du Workspaces anlegen, verwalten und Nutzerberechtigungen setzen. Da Fabric auf derselben Workspace-Logik wie Power BI aufsetzt, funktioniert dieser Weg auch hier. Mit einem Skript, das die REST API nutzt, kannst du z. B. automatisch ein Workspace-Gerüst für ein neues Projekt erstellen.
Kurzes Beispiel in PowerShell:
$token = Get-PowerBIAccessToken
Invoke-RestMethod `
-Uri "https://api.powerbi.com/v1.0/myorg/groups" `
-Headers @{ Authorization = "Bearer $token" } `
-Method Post `
-Body @{ name = "Projekt_X_Fabric_Workspace" }
2. Azure-Ressourcen für Fabric-Datenintegration
Fabric nutzt im Hintergrund Azure-Ressourcen wie Data Lake Storage oder (je nach Szenario) Synapse-Elemente. Diese kannst du weiterhin per IaC in Azure bereitstellen. Ein Beispiel: Du kannst einen Azure Data Lake Storage Gen2 mit Bicep anlegen und ihn anschließend als Speicher im Fabric-Workspace konfigurieren.
resource storageAccount 'Microsoft.Storage/storageAccounts@2022-09-01' = {
name: 'fabricstorage${uniqueString(resourceGroup().id)}'
location: resourceGroup().location
kind: 'StorageV2'
sku: {
name: 'Standard_LRS'
}
properties: {
isHnsEnabled: true
}
}
Mehr zu Speicheroptionen in Fabric findest du auch in unserem Artikel zu
Speichermöglichkeiten in Fabric.
3. Data Pipelines und Dataflows
Fabric Data Factory (vergleichbar mit Azure Data Factory) erlaubt es, Pipelines zu erstellen. Allerdings kannst du diese aktuell nicht vollständig per IaC aufsetzen. Es gibt aber Export/Import-Mechanismen. Du kannst eine Pipeline als JSON exportieren und dann über die API oder das Portal importieren. Das ist zwar nicht so elegant wie ein reines IaC-Deployment, aber immerhin reproduzierbar.
Was (noch) nicht möglich ist
Hier kommen wir zum spannenden Teil, und vielleicht auch zu deinem größten Aha-Moment.
Fehlende API-Abdeckung
Viele Fabric-spezifische Objekte wie Lakehouses, Warehouses oder Real-Time-Analytics-Knoten lassen sich derzeit nicht einfach per API oder Template erstellen. Zwar gibt es Ansätze über Microsoft Graph oder Power BI REST, doch die sind oft auf Metadaten beschränkt. Das heißt: Du kannst zwar sehen, welche Objekte existieren, aber nicht jedes davon per Code anlegen.
Komplettes „Greenfield“-Deployment
Ein vollautomatisiertes Setup „von Null auf Fabric“ – also inklusive Kapazität, Workspaces, Datenobjekte, Pipelines und Sicherheitseinstellungen – ist Stand heute nicht möglich. Du wirst immer einen Teil manuell im Portal ergänzen müssen. Das ist ein klarer Unterschied zu Azure, wo du theoretisch eine komplette Umgebung mit einem einzigen Terraform-Apply hochziehen kannst.
Sicherheit und Governance
Fabric bringt spannende Governance-Features, etwa über Microsoft Purview. Diese lassen sich über IaC nur eingeschränkt konfigurieren. Zwar kannst du Purview in Azure automatisieren (mehr dazu in unserem Beitrag Microsoft Purview – Data Governance), aber die Anbindung an Fabric muss aktuell noch manuell erfolgen.
Workarounds und Best Practices
Nur weil nicht alles geht, heißt das nicht, dass du auf Automatisierung verzichten musst. Hier ein paar Ideen, wie du heute schon effizient arbeiten kannst:
- Hybrid-Ansatz: Automatisiere alles, was in Azure geht, und kombiniere das mit Skripten für Fabric-Workspaces.
- Template-Libraries: Halte deine Pipeline- und Dataflow-Definitionen als JSON-Versionen vor, um sie bei Bedarf schnell wieder einzuspielen.
- API-Wrapper: Nutze eigene Skripte, die REST-Calls bündeln, um wiederkehrende Aufgaben zu vereinfachen.
- Dokumentation als Code: Auch wenn du manuell klickst, dokumentiere jeden Schritt in Markdown – so kannst du ihn später leichter automatisieren, wenn die API verfügbar wird.26.
Ausblick: Was Microsoft in Zukunft liefern könnte
Microsoft entwickelt Fabric rasant weiter. Daher ist es vermutlich nur eine Frage der Zeit, bis wir mehr API-Endpunkte und IaC-Unterstützung sehen. Gerade die Integration mit Azure DevOps oder GitHub Actions für CI/CD-Deployments wäre ein Gamechanger. Wenn dich das Thema DevOps interessiert, schau dir auch unseren Artikel Was bedeutet eigentlich DevOps? an.
Schluss
Unterm Strich lässt sich sagen: Mit Microsoft Fabric kannst du heute schon einen Teil deiner Infrastruktur per Code aufbauen. Vor allem in den Bereichen, in denen Fabric auf klassische Azure-Ressourcen setzt. Vollautomatisierte End-to-End-Deployments sind jedoch noch nicht drin, da APIs und Templates fehlen. Aber genau hier liegt die Chance: Wer jetzt anfängt, erste Automatisierungen aufzubauen, ist bereit, sobald Microsoft die fehlenden Puzzlestücke liefert.
Call-to-Action
Wenn du direkt loslegen willst, schnapp dir ein paar Azure-Bicep-Templates und bau die Grundinfrastruktur für deine Fabric-Projekte. Experimentiere mit der Power BI REST API für Workspaces und teste den Import/Export von Pipelines. Schau auch in unseren Beitrag Security in Microsoft Fabric rein, um deine Deployments von Anfang an sicher zu gestalten.






