<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Cloud Archive - arelium - Wir holen mehr aus deinen Daten</title>
	<atom:link href="https://arelium.de/category/cloud/feed/" rel="self" type="application/rss+xml" />
	<link>https://arelium.de/category/cloud/</link>
	<description></description>
	<lastBuildDate>Thu, 09 Apr 2026 11:30:00 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://arelium.de/wp-content/uploads/2022/10/Logo_arelium_FavIcon-150x150.jpg</url>
	<title>Cloud Archive - arelium - Wir holen mehr aus deinen Daten</title>
	<link>https://arelium.de/category/cloud/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Neu: Microsoft Fabric Item Recovery Guide (Preview)</title>
		<link>https://arelium.de/microsoft-fabric-item-recovery-guide-preview/</link>
					<comments>https://arelium.de/microsoft-fabric-item-recovery-guide-preview/#respond</comments>
		
		<dc:creator><![CDATA[Emil Vincazovic]]></dc:creator>
		<pubDate>Thu, 09 Apr 2026 11:28:08 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[Cloud]]></category>
		<category><![CDATA[Data Analytics]]></category>
		<category><![CDATA[Data Engineering]]></category>
		<category><![CDATA[Microsoft Fabric]]></category>
		<category><![CDATA[Best Practices]]></category>
		<category><![CDATA[Data Governance]]></category>
		<category><![CDATA[Datenanalyse]]></category>
		<category><![CDATA[Datenverlust verhindern]]></category>
		<category><![CDATA[Datenwiederherstellung]]></category>
		<category><![CDATA[Item Recovery]]></category>
		<category><![CDATA[Preview Feature]]></category>
		<category><![CDATA[Sicherheit]]></category>
		<category><![CDATA[Workflows optimieren]]></category>
		<guid isPermaLink="false">https://arelium.de/?p=23210</guid>

					<description><![CDATA[<p>Item Recovery in <a class="glossaryLink" aria-describedby="tt" data-cmtooltip="&#60;div class=glossaryItemTitle&#62;Microsoft Fabric&#60;/div&#62;&#60;div class=glossaryItemBody&#62;&#38;lt;img class=&#38;quot; wp-image-23172&#38;quot; src=&#38;quot;https://arelium.de/wp-content/uploads/2026/03/Glossarbilder1-300x92.png&#38;quot; alt=&#38;quot;&#38;quot; width=&#38;quot;1388&#38;quot; height=&#38;quot;426&#38;quot; /&#38;gt;&#38;lt;span role=&#38;quot;text&#38;quot;&#38;gt;&#38;lt;strong data-start=&#38;quot;1069&#38;quot; data-end=&#38;quot;1125&#38;quot;&#38;gt;Was ist Microsoft Fabric? &#38;lt;/strong&#38;gt;&#38;lt;/span&#38;gt;&#38;lt;span role=&#38;quot;text&#38;quot;&#38;gt;&#38;lt;strong data-start=&#38;quot;1069&#38;quot; data-end=&#38;quot;1125&#38;quot;&#38;gt;Definition, Funktionen und Aufbau&#38;lt;/strong&#38;gt;&#38;lt;/span&#38;gt;Microsoft Fabric ist eine cloudbasierte All-in-One-Datenplattform von Microsoft, die(...)&#60;/div&#62;" href="https://arelium.de/glossar/microsoft-fabric/" target="_blank" data-gt-translate-attributes='[{"attribute":"data-cmtooltip", "format":"html"}]' tabindex="0" role="link">Microsoft Fabric</a> (Preview) &#8211; Alles, was du wissen musst <a class="glossaryLink" aria-describedby="tt" data-cmtooltip="&#60;div class=glossaryItemTitle&#62;Microsoft Fabric&#60;/div&#62;&#60;div class=glossaryItemBody&#62;&#38;lt;img class=&#38;quot; wp-image-23172&#38;quot; src=&#38;quot;https://arelium.de/wp-content/uploads/2026/03/Glossarbilder1-300x92.png&#38;quot; alt=&#38;quot;&#38;quot; width=&#38;quot;1388&#38;quot; height=&#38;quot;426&#38;quot; /&#38;gt;&#38;lt;span role=&#38;quot;text&#38;quot;&#38;gt;&#38;lt;strong data-start=&#38;quot;1069&#38;quot; data-end=&#38;quot;1125&#38;quot;&#38;gt;Was ist Microsoft Fabric? &#38;lt;/strong&#38;gt;&#38;lt;/span&#38;gt;&#38;lt;span role=&#38;quot;text&#38;quot;&#38;gt;&#38;lt;strong data-start=&#38;quot;1069&#38;quot; data-end=&#38;quot;1125&#38;quot;&#38;gt;Definition, Funktionen und Aufbau&#38;lt;/strong&#38;gt;&#38;lt;/span&#38;gt;Microsoft Fabric ist eine cloudbasierte All-in-One-Datenplattform von Microsoft, die(...)&#60;/div&#62;" href="https://arelium.de/glossar/microsoft-fabric/" target="_blank" data-gt-translate-attributes='[{"attribute":"data-cmtooltip", "format":"html"}]' tabindex="0" role="link">Microsoft Fabric</a> Item Recovery: Einleitung Hast du schon einmal versehentlich eine wichtige Datei in <a class="glossaryLink" aria-describedby="tt" data-cmtooltip="&#60;div class=glossaryItemTitle&#62;Microsoft Fabric&#60;/div&#62;&#60;div class=glossaryItemBody&#62;&#38;lt;img class=&#38;quot; wp-image-23172&#38;quot; src=&#38;quot;https://arelium.de/wp-content/uploads/2026/03/Glossarbilder1-300x92.png&#38;quot; alt=&#38;quot;&#38;quot; width=&#38;quot;1388&#38;quot; height=&#38;quot;426&#38;quot; /&#38;gt;&#38;lt;span role=&#38;quot;text&#38;quot;&#38;gt;&#38;lt;strong data-start=&#38;quot;1069&#38;quot; data-end=&#38;quot;1125&#38;quot;&#38;gt;Was ist Microsoft Fabric? &#38;lt;/strong&#38;gt;&#38;lt;/span&#38;gt;&#38;lt;span role=&#38;quot;text&#38;quot;&#38;gt;&#38;lt;strong data-start=&#38;quot;1069&#38;quot; data-end=&#38;quot;1125&#38;quot;&#38;gt;Definition, Funktionen und Aufbau&#38;lt;/strong&#38;gt;&#38;lt;/span&#38;gt;Microsoft Fabric ist eine cloudbasierte All-in-One-Datenplattform von Microsoft, die(...)&#60;/div&#62;" href="https://arelium.de/glossar/microsoft-fabric/" target="_blank" data-gt-translate-attributes='[{"attribute":"data-cmtooltip", "format":"html"}]' tabindex="0" role="link">Microsoft Fabric</a> gel&#246;scht und dich gefragt, ob es eine M&#246;glichkeit gibt, diese wiederherzustellen? So ein Fehler kann deine Projekte massiv zur&#252;ckwerfen.&#160; Und genau hier kommt die neue Item Recovery-Funktion...</p>
<p>Der Beitrag <a href="https://arelium.de/microsoft-fabric-item-recovery-guide-preview/">Neu: Microsoft Fabric Item Recovery Guide (Preview)</a> erschien zuerst auf <a href="https://arelium.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="arelium-article">
<h1 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 2.2rem; margin-bottom: 1.5rem; color: #242323; font-style: normal;">Item Recovery in Microsoft Fabric (Preview) – Alles, was du wissen musst</h1>
<h2 style="font-family: 'Noto Sans', 'Roboto', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #34495e;"><span style="color: #000000;">Microsoft Fabric Item Recovery: Einleitung</span></h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Hast du schon einmal versehentlich eine wichtige Datei in Microsoft Fabric gelöscht und dich gefragt, ob es eine Möglichkeit gibt, diese wiederherzustellen? So ein Fehler kann deine Projekte massiv zurückwerfen.  Und genau hier kommt die neue Item Recovery-Funktion in Microsoft Fabric  ins Spiel.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">In diesem Artikel erfährst du Schritt für Schritt, wie Item Recovery in Microsoft Fabric funktioniert, welche Vorteile es bietet, welche Grenzen es gibt und wie du es optimal in deine Workflows integrierst. Dabei gehen wir auch auf verwandte Themen wie Data Governance, Sicherheit und Best Practices ein, sodass du nicht nur weißt, wie du gelöschte Items wiederherstellst, sondern auch, wie du Datenverlust von vornherein vermeidest.</p>
<h2 style="font-family: 'Noto Sans', 'Roboto', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #34495e;"><span style="color: #000000;">Microsoft Fabric Item Recovery: Was ist Microsoft Fabric?</span></h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Microsoft Fabric ist eine integrierte Plattform für Datenanalyse, Data Engineering, Data Governance und Business Intelligence. Sie vereint Dienste wie Power BI, Data Factory, Synapse und OneLake in einer zentralen Umgebung. Dadurch kannst du Daten aus verschiedensten Quellen zusammenführen, verarbeiten und analysieren. Der größte Vorteil ist: du musst nicht zwischen Tools hin und herspringen. Alles passiert in einer integrierten Datenplattform.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Allerdings geht mit dieser Flexibilität auch eine Herausforderung einher: Je mehr Projekte und Assets du in Fabric verwaltest, desto größer wird das Risiko von Fehlern, beispielsweise versehentlichem Löschen von Dateien&#8230;</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Item Recovery – Die neue Sicherheitsstufe in Fabric</h2>
<h3 style="font-family: 'Noto Sans', 'Roboto', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #34495e;"><span style="color: #000000;">Microsoft Fabric Item Recovery: Funktionsweise</span></h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Item Recovery ist eine Art &#8222;Papierkorb&#8220;-Funktion in Microsoft Fabric. Wenn du ein Asset löschst (sei es ein Dataflow, Dataset, Report oder ein Notebook), landet es nicht sofort im digitalen Nirvana. Stattdessen wird es in einen temporären Speicherbereich verschoben, aus dem du es innerhalb einer bestimmten Zeitspanne wiederherstellen kannst.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Daher musst du nicht sofort in Panik geraten, wenn du etwas löschst. Du kannst das Item einfach auswählen und zurück in seinen ursprünglichen Zustand bringen.</p>
<figure></figure>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Anfänglich war diese Funktion nur eingeschränkt verfügbar, aber mittlerweile hat Microsoft sie in der Preview-Version für viele Fabric-Workspaces freigeschaltet. Das ist besonders hilfreich für Teams, die gemeinsam an Projekten arbeiten, da so versehentliche Löschungen schnell korrigiert werden können.</p>
<h3 style="font-family: 'Noto Sans', 'Roboto', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #34495e;"><span style="color: #000000;">Microsoft Fabric Item Recovery: Beispiel: Gelöschte Reports zurückholen</span></h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Stell dir vor, du arbeitest an einem wichtigen Power BI-Report. Du führst eine große Bereinigung in deinem Workspace durch und entfernst dabei versehentlich den Report. Vorher wärst du wahrscheinlich in Panik ausgebrochen und das Schwitzen hätte angefangen. Dank Item Recovery kannst du ihn jetzt jedoch innerhalb weniger Klicks wiederherstellen, ohne dass du Backup-Dateien durchsuchen musst.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Weitere Informationen zu OneLake findest du hier: <a href="https://arelium.de/onelake-fuer-power-bi-desktop/">OneLake für Power BI Desktop:</a> denn gerade OneLake spielt beim Datenmanagement eine zentrale Rolle.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Warum Item Recovery so wichtig ist</h2>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">Schutz vor menschlichen Fehlern</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Fehler passieren und zwar öfter als man denkt. Beispielsweise löscht ein Teammitglied ein Dataset in der Annahme, dass es nicht mehr benötigt wird. Anschließend stellt sich heraus, dass es doch essenziell ist. Mit Item Recovery kannst du solche Missgeschicke einfach rückgängig machen.</p>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">Verbesserte Zusammenarbeit</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Andererseits ist Item Recovery auch ein Werkzeug für bessere Teamarbeit. Da mehrere Personen gleichzeitig in einem Workspace arbeiten, steigt das Risiko von Konflikten und versehentlichen Änderungen. Die Wiederherstellungsfunktion gibt allen Beteiligten Sicherheit.</p>
<figure></figure>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">Ergänzung zu Data Governance</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Item Recovery ist zwar kein Ersatz für eine durchdachte Data Governance-Strategie, aber es ergänzt sie perfekt. Mehr zu Data Governance in Fabric findest du hier: <a href="https://arelium.de/data-governance-in-fabric/">Data Governance in Fabric</a>.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Schritt-für-Schritt-Anleitung zur Wiederherstellung</h2>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">1. Zugriff auf den Papierkorb</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Du findest den Item Recovery-Bereich im Fabric-Workspace-Menü. Dort werden alle kürzlich gelöschten Items angezeigt.</p>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">2. Auswahl des Items</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Klicke auf das Item, das du wiederherstellen möchtest. Du kannst auch mehrere Items gleichzeitig auswählen.</p>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">3. Wiederherstellung</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Mit einem Klick auf &#8222;Restore&#8220; wird das Item an seinen ursprünglichen Speicherort zurückgebracht.</p>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">4. Prüfung</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Vergewissere dich, dass das wiederhergestellte Item korrekt funktioniert. Danach kannst du es wieder in deine laufenden Projekte integrieren.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;"><img decoding="async" src="https://dataplatformblogwebfd-d3h9cbawf0h8ecgf.b01.azurefd.net/wp-content/uploads/2026/03/a-short-video-illustrating-user-deleting-a-noteboo-scaled.gif" alt="A short video illustrating user deleting a notebook and the recovering the item by using the &quot;recover&quot; button in workspace recycle bin." /></p>
<figure></figure>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Grenzen der Item Recovery-Funktion</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Obwohl Item Recovery extrem nützlich ist, gibt es einige Einschränkungen:</p>
<ul style="margin-bottom: 20px; padding-left: 30px;">
<li style="margin-bottom: 8px; line-height: 1.6;">Items werden nur für einen begrenzten Zeitraum gespeichert (oft 30 Tage).</li>
<li style="margin-bottom: 8px; line-height: 1.6;">Nicht alle Asset-Typen werden unterstützt! beispielsweise können sehr große Datenbanken oder externe Speicherquellen nicht immer wiederhergestellt werden.</li>
<li style="margin-bottom: 8px; line-height: 1.6;">Änderungen am Item nach dem letzten Speichern werden nicht rückgängig gemacht.</li>
</ul>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Daher solltest du weiterhin regelmäßige Backups und Versionierungen nutzen.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Best Practices für Item Recovery in Microsoft Fabric</h2>
<h3><span style="color: #000000;"><strong style="font-weight: 600;">Versionierung nutzen</strong></span></h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Gerade bei Reports und Notebooks ist es sinnvoll, Versionen zu speichern, damit du im Notfall nicht nur das Item, sondern auch den letzten Stand wiederherstellen kannst. Ob du dabei für die Quellcodeverwaltung Azure DevOps oder Github nutzt, bleibt dir überlassen.</p>
<h3><span style="color: #000000;"><strong style="font-weight: 600;">Data Governance umsetzen</strong></span></h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Eine klare Regelung für den Umgang mit Daten schützt dich vor unnötigen Löschungen. Mehr dazu hier: <a href="https://arelium.de/security-in-microsoft-fabric/">Security in Microsoft Fabric</a>.</p>
<h3><span style="color: #000000;"><strong style="font-weight: 600;">Team-Schulung</strong></span></h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Stelle sicher, dass alle Teammitglieder wissen, wie Item Recovery funktioniert.</p>
<figure></figure>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Item Recovery im Zusammenspiel mit anderen Fabric-Funktionen</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Item Recovery ist nicht isoliert zu betrachten. Es wirkt zusammen mit verschiedenen anderen Features:</p>
<ul style="margin-bottom: 20px; padding-left: 30px;">
<li style="margin-bottom: 8px; line-height: 1.6;"><span style="color: #000000;"><strong style="font-weight: 600;">OneLake</strong>:</span> Zentraler Speicher, auf dem viele Fabric-Assets liegen.</li>
<li style="margin-bottom: 8px; line-height: 1.6;"><span style="color: #000000;"><strong style="font-weight: 600;">Microsoft Purview</strong>:</span> Governance-Tool, das dir hilft, Assets zu klassifizieren und zu verwalten (<a href="https://arelium.de/microsoft-purview/">Microsoft Purview</a>).</li>
<li style="margin-bottom: 8px; line-height: 1.6;"><span style="color: #000000;"><strong style="font-weight: 600;">Copilot in Fabric</strong>:</span> KI-gestützte Unterstützung bei der Verwaltung und Analyse deiner Daten (<a href="https://arelium.de/microsoft-copilot-in-fabric/">Microsoft Copilot in Fabric</a>).</li>
</ul>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Dadurch ergibt sich ein umfassendes Sicherheits- und Management-System.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Fazit – Abschließend</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Abschließend lässt sich sagen: Item Recovery in Microsoft Fabric (Preview) ist ein Gamechanger für alle, die mit wichtigen Daten arbeiten. Es bietet dir eine zusätzliche Sicherheitsebene, spart Zeit und reduziert Stress, wenn einmal etwas schiefgeht. Allerdings solltest du die Funktion nicht als alleinige Schutzmaßnahme betrachten, sondern sie in eine umfassende Data Governance-Strategie einbetten.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Nächste Schritte</h2>
<ul style="margin-bottom: 20px; padding-left: 30px;">
<li style="margin-bottom: 8px; line-height: 1.6;">Teste die Item Recovery-Funktion in deinem Workspace.</li>
<li style="margin-bottom: 8px; line-height: 1.6;">Richte klare Lösch- und Wiederherstellungsrichtlinien für dein Team ein.</li>
<li style="margin-bottom: 8px; line-height: 1.6;">Kombiniere Item Recovery mit Microsoft Purview und OneLake für maximale Sicherheit.</li>
</ul>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Call-to-Action</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Möchtest du mehr über Microsoft Fabric erfahren und lernen, wie du deine Daten optimal schützt und verwaltest? Dann schau dir unsere Artikel zu <a href="https://arelium.de/data-governance/">Data Governance</a> und <a href="https://arelium.de/security-in-microsoft-fabric/">Security in Microsoft Fabric</a> an – oder buche gleich einen Workshop, um dein Team fit zu machen.</p>
</div>
<p>Der Beitrag <a href="https://arelium.de/microsoft-fabric-item-recovery-guide-preview/">Neu: Microsoft Fabric Item Recovery Guide (Preview)</a> erschien zuerst auf <a href="https://arelium.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://arelium.de/microsoft-fabric-item-recovery-guide-preview/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Vom Eierchaos zur Datenstrategie: Der Osterhase entdeckt Microsoft Fabric</title>
		<link>https://arelium.de/vom-eierchaos-zur-datenstrategie-der-osterhase-entdeckt-microsoft-fabric/</link>
					<comments>https://arelium.de/vom-eierchaos-zur-datenstrategie-der-osterhase-entdeckt-microsoft-fabric/#respond</comments>
		
		<dc:creator><![CDATA[Thomas Sobizack]]></dc:creator>
		<pubDate>Tue, 24 Mar 2026 11:03:03 +0000</pubDate>
				<category><![CDATA[Azure]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[Blog]]></category>
		<category><![CDATA[Cloud]]></category>
		<category><![CDATA[Data Analytics]]></category>
		<category><![CDATA[Data Lake]]></category>
		<category><![CDATA[Microsoft Fabric]]></category>
		<category><![CDATA[OneLake]]></category>
		<category><![CDATA[Business Intelligence]]></category>
		<category><![CDATA[Cloud Analytics]]></category>
		<category><![CDATA[Data Governance]]></category>
		<category><![CDATA[Data Integration]]></category>
		<category><![CDATA[Data Management]]></category>
		<category><![CDATA[Microsoft Fabric OneLake]]></category>
		<category><![CDATA[Power BI]]></category>
		<guid isPermaLink="false">https://arelium.de/?p=22871</guid>

					<description><![CDATA[<p>So hoppelt der Osterhase 2026 mit <a class="glossaryLink" aria-describedby="tt" data-cmtooltip="&#60;div class=glossaryItemTitle&#62;Microsoft Fabric&#60;/div&#62;&#60;div class=glossaryItemBody&#62;&#38;lt;img class=&#38;quot; wp-image-23172&#38;quot; src=&#38;quot;https://arelium.de/wp-content/uploads/2026/03/Glossarbilder1-300x92.png&#38;quot; alt=&#38;quot;&#38;quot; width=&#38;quot;1388&#38;quot; height=&#38;quot;426&#38;quot; /&#38;gt;&#38;lt;span role=&#38;quot;text&#38;quot;&#38;gt;&#38;lt;strong data-start=&#38;quot;1069&#38;quot; data-end=&#38;quot;1125&#38;quot;&#38;gt;Was ist Microsoft Fabric? &#38;lt;/strong&#38;gt;&#38;lt;/span&#38;gt;&#38;lt;span role=&#38;quot;text&#38;quot;&#38;gt;&#38;lt;strong data-start=&#38;quot;1069&#38;quot; data-end=&#38;quot;1125&#38;quot;&#38;gt;Definition, Funktionen und Aufbau&#38;lt;/strong&#38;gt;&#38;lt;/span&#38;gt;Microsoft Fabric ist eine cloudbasierte All-in-One-Datenplattform von Microsoft, die(...)&#60;/div&#62;" href="https://arelium.de/glossar/microsoft-fabric/" target="_blank" data-gt-translate-attributes='[{"attribute":"data-cmtooltip", "format":"html"}]' tabindex="0" role="link">Microsoft Fabric</a> effizient durch die Nacht! Der Osterhase hatte im Jahr 2025 ein echtes Problem: zu viele Tools, zu viele Excel-Dateien und gleichzeitig viel zu wenig Transparenz in den Datenprozessen. Daten lagen &#252;ber verschiedenste Systeme verteilt und waren dadurch schwer zug&#228;nglich. Gleichzeitig wurden viele Prozesse noch manuell gesteuert, wodurch...</p>
<p>Der Beitrag <a href="https://arelium.de/vom-eierchaos-zur-datenstrategie-der-osterhase-entdeckt-microsoft-fabric/">Vom Eierchaos zur Datenstrategie: Der Osterhase entdeckt Microsoft Fabric</a> erschien zuerst auf <a href="https://arelium.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="arelium-article">
<h2>So hoppelt der Osterhase 2026 mit Microsoft Fabric effizient durch die Nacht!</h2>
<p data-start="119" data-end="280">Der Osterhase hatte im Jahr 2025 ein echtes Problem: <strong data-start="172" data-end="279">zu viele Tools, zu viele Excel-Dateien und gleichzeitig viel zu wenig Transparenz in den Datenprozessen</strong>.</p>
<p data-start="282" data-end="577">Daten lagen über verschiedenste Systeme verteilt und waren dadurch schwer zugänglich. Gleichzeitig wurden viele Prozesse noch manuell gesteuert, wodurch immer wieder Fehler entstanden (insbesondere durch Medienbrüche, unterschiedliche Dateiversionen sowie fehlende zentrale Datenstrukturen).</p>
<p data-start="579" data-end="821">Die Folgen machten sich vor allem am Ostersonntag bemerkbar:<br data-start="639" data-end="642" />Manchmal landeten die falschen Eier im falschen Garten, einige Körbe waren unvollständig oder die Schokolade wurde erst entdeckt, nachdem sie bereits in der Sonne geschmolzen war.</p>
<p data-start="823" data-end="1011">Diese Kombination aus <strong data-start="845" data-end="916">fragmentierten Daten, manuellen Prozessen und fehlender Transparenz</strong> führte letztlich zu Chaos und damit auch zu Unzufriedenheit im gesamten Team des Osterhasen.</p>
<p data-start="1013" data-end="1048">Doch im Jahr 2026 ist alles anders.</p>
<p data-start="1050" data-end="1290">Der Osterhase setzt nun dank unserer Beratung auf eine <strong data-start="1109" data-end="1156">moderne Datenplattform mit Microsoft Fabric</strong>. Dadurch werden Daten zentral integriert, Prozesse automatisiert gesteuert und Informationen jederzeit transparent verfügbar gemacht.</p>
<p data-start="1292" data-end="1382">Und was beim Osterhasen funktioniert, das klappt <strong data-start="1341" data-end="1381">natürlich auch in Deinem Unternehmen</strong>.</p>
<figure id="attachment_22866" aria-describedby="caption-attachment-22866" style="width: 617px" class="wp-caption alignnone"><img fetchpriority="high" decoding="async" class="wp-image-22866" src="https://arelium.de/wp-content/uploads/2026/03/Vom-Eierchaos-zur-Datenstrategie-Der-Osterhase-entdeckt-Microsoft-Fabric-300x200.png" alt="" width="617" height="411" srcset="https://arelium.de/wp-content/uploads/2026/03/Vom-Eierchaos-zur-Datenstrategie-Der-Osterhase-entdeckt-Microsoft-Fabric-300x200.png 300w, https://arelium.de/wp-content/uploads/2026/03/Vom-Eierchaos-zur-Datenstrategie-Der-Osterhase-entdeckt-Microsoft-Fabric-1024x683.png 1024w, https://arelium.de/wp-content/uploads/2026/03/Vom-Eierchaos-zur-Datenstrategie-Der-Osterhase-entdeckt-Microsoft-Fabric-600x400.png 600w, https://arelium.de/wp-content/uploads/2026/03/Vom-Eierchaos-zur-Datenstrategie-Der-Osterhase-entdeckt-Microsoft-Fabric-1200x800.png 1200w, https://arelium.de/wp-content/uploads/2026/03/Vom-Eierchaos-zur-Datenstrategie-Der-Osterhase-entdeckt-Microsoft-Fabric.png 1536w" sizes="(max-width: 617px) 100vw, 617px" /><figcaption id="caption-attachment-22866" class="wp-caption-text">Vom Eierchaos zur Datenstrategie Der Osterhase entdeckt Microsoft Fabric</figcaption></figure>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Microsoft Fabric OneLake als zentrale Datenbasis statt Datensilos</h2>
<p data-start="172" data-end="385">Früher wurden die Daten des Osterhasen in <strong data-start="214" data-end="269">Excel-Dateien, PDFs sowie auf verschiedenen Servern</strong> abgelegt. Dadurch lagen viele Informationen mehrfach vor, waren teilweise veraltet oder schlicht schwer auffindbar.</p>
<p data-start="387" data-end="608">Zusätzlich kam es immer wieder zu <strong data-start="421" data-end="443">Versionskonflikten</strong>, da mehrere Helfer gleichzeitig an unterschiedlichen Dateien arbeiteten. Die Folge: lange Suchzeiten, widersprüchliche Informationen und unnötige Abstimmungsrunden.</p>
<p data-start="610" data-end="784">Manchmal wusste der Osterhase nicht einmal mehr, <strong data-start="659" data-end="735">in welchem Dokument die aktuelle Wunschliste der Kinder gespeichert war</strong> oder <strong data-start="741" data-end="783">welcher Garten bereits beliefert wurde</strong>.</p>
<p data-start="786" data-end="1006">Genau dieses Szenario kennen auch viele Unternehmen – wir nennen es das <strong data-start="858" data-end="890">„Ostereierproblem der Daten“</strong>:<br data-start="891" data-end="894" />Wichtige Informationen sind irgendwo versteckt, liegen mehrfach vor oder sind nur mit großem Aufwand auffindbar.</p>
<p data-start="1008" data-end="1199">Mit der Einführung von <strong data-start="1031" data-end="1072"><span class="hover:entity-accent entity-underline inline cursor-pointer align-baseline"><span class="whitespace-normal">Microsoft Fabric</span></span></strong> und dem zentralen Datenspeicher <strong data-start="1105" data-end="1146"><span class="hover:entity-accent entity-underline inline cursor-pointer align-baseline"><span class="whitespace-normal">OneLake</span></span></strong> hat sich die Situation jedoch grundlegend verändert.</p>
<p data-start="1201" data-end="1371">Heute existiert eine <strong data-start="1222" data-end="1264">einheitliche, cloudbasierte Datenbasis</strong>, in der alle Informationen zentral, strukturiert und mit klar geregelten Zugriffsrechten gespeichert sind.</p>
<p data-start="1373" data-end="1425">Dadurch kann der Osterhase jederzeit nachvollziehen:</p>
<ul data-start="1427" data-end="1625">
<li data-section-id="pous1p" data-start="1427" data-end="1467">
<p data-start="1429" data-end="1467">welche Eier bereits versteckt wurden</p>
</li>
<li data-section-id="lseyh7" data-start="1468" data-end="1514">
<p data-start="1470" data-end="1514">welche Gärten noch beliefert werden müssen</p>
</li>
<li data-section-id="1gnuocq" data-start="1515" data-end="1560">
<p data-start="1517" data-end="1560">welche Süßigkeiten besonders beliebt sind</p>
</li>
<li data-section-id="1eqask7" data-start="1561" data-end="1625">
<p data-start="1563" data-end="1625">und in welchen Nachbarschaften besonders viele Kinder wohnen</p>
</li>
</ul>
<p data-start="1627" data-end="1774">Auf diese Weise konnten die alten <strong data-start="1661" data-end="1697">Datensilos vollständig aufgelöst</strong> und gleichzeitig eine deutlich klarere <strong data-start="1737" data-end="1756">Data Governance</strong> etabliert werden.</p>
<p data-start="1776" data-end="1936">Der Prozessgewinn ist dabei klar messbar:<br data-start="1817" data-end="1820" /><strong data-start="1820" data-end="1936">weniger Suchaufwand, keine redundanten Daten und eine konsistente Grundlage für Reporting, Analysen und Planung.</strong></p>
<p data-start="1938" data-end="2122">Für Unternehmen bedeutet das konkret: eine <strong data-start="1981" data-end="2014">moderne Data-Lake-Architektur</strong>, die als zentrale Basis für <strong data-start="2043" data-end="2115">Business Intelligence, Künstliche Intelligenz sowie Echtzeitanalysen</strong> dient.</p>
<p data-start="2124" data-end="2299">Und genau wie beim Osterhasen gilt auch in vielen Organisationen:<br data-start="2189" data-end="2192" />Wer seine Daten nicht mehr suchen muss, kann sich endlich darauf konzentrieren, <strong data-start="2272" data-end="2298">sie sinnvoll zu nutzen</strong>.</p>
<figure id="attachment_22862" aria-describedby="caption-attachment-22862" style="width: 617px" class="wp-caption alignnone"><img decoding="async" class="wp-image-22862" src="https://arelium.de/wp-content/uploads/2026/03/OneLake-als-zentrale-Datenbasis-statt-Datensilos-300x200.png" alt="" width="617" height="411" srcset="https://arelium.de/wp-content/uploads/2026/03/OneLake-als-zentrale-Datenbasis-statt-Datensilos-300x200.png 300w, https://arelium.de/wp-content/uploads/2026/03/OneLake-als-zentrale-Datenbasis-statt-Datensilos-1024x683.png 1024w, https://arelium.de/wp-content/uploads/2026/03/OneLake-als-zentrale-Datenbasis-statt-Datensilos-600x400.png 600w, https://arelium.de/wp-content/uploads/2026/03/OneLake-als-zentrale-Datenbasis-statt-Datensilos-1200x800.png 1200w, https://arelium.de/wp-content/uploads/2026/03/OneLake-als-zentrale-Datenbasis-statt-Datensilos.png 1536w" sizes="(max-width: 617px) 100vw, 617px" /><figcaption id="caption-attachment-22862" class="wp-caption-text">OneLake als zentrale Datenbasis statt Datensilos</figcaption></figure>
<figure></figure>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Microsoft Fabric Data Factory: Automatisierte Datenpipelines</h2>
<p data-start="130" data-end="377">Statt manuelle Abläufe zu pflegen, nutzt der Osterhase <strong data-start="185" data-end="269">seit diesem Jahr konsequent die Data Factory sowie Pipelines in Microsoft Fabric</strong>. Dadurch können viele Prozesse nicht nur effizienter, sondern auch deutlich zuverlässiger gesteuert werden.</p>
<p data-start="379" data-end="675">Durch diese moderne Plattform werden Abläufe <strong data-start="424" data-end="494">regelbasiert orchestriert und vollständig automatisiert ausgeführt</strong> – angefangen beim Bestands-Update der Ostereier, über die Synchronisierung der Lagerbestände bis hin zur Planung der optimalen Hoppel-Route durch die verschiedenen Nachbarschaften.</p>
<p data-start="677" data-end="794">Einige Beispiele aus dem digitalen Osterhasen-Alltag zeigen, wie leistungsfähig diese Automatisierung inzwischen ist:</p>
<ul data-start="796" data-end="1119">
<li data-section-id="17h1j44" data-start="796" data-end="870">
<p data-start="798" data-end="870">Neue Kinder-Wunschlisten werden automatisch importiert und verarbeitet</p>
</li>
<li data-section-id="1g64yrh" data-start="871" data-end="949">
<p data-start="873" data-end="949">Lagerbestände der Schokoladenfabriken werden kontinuierlich synchronisiert</p>
</li>
<li data-section-id="t011bg" data-start="950" data-end="1038">
<p data-start="952" data-end="1038">Lieferungen der fleißigen Helfer-Hasen werden automatisch eingeplant und koordiniert</p>
</li>
<li data-section-id="1rdniii" data-start="1039" data-end="1119">
<p data-start="1041" data-end="1119">Und falls es zu Engpässen kommt, werden sofort zusätzliche Eier nachbestellt</p>
</li>
</ul>
<p data-start="1121" data-end="1515">Zusätzlich unterstützt <strong data-start="1144" data-end="1170">Künstliche Intelligenz</strong> bei der Erstellung und Optimierung der Pipelines. Dadurch lassen sich viele Pipeline-Strukturen nicht nur schneller entwickeln, sondern auch deutlich einfacher anpassen. In der Praxis führt das zu einer <strong data-start="1374" data-end="1426">spürbaren Reduzierung der Implementierungszeiten</strong>, während gleichzeitig die <strong data-start="1453" data-end="1514">Skalierbarkeit der Datenprozesse deutlich verbessert wird</strong>.</p>
<p data-start="1517" data-end="1777">Für Unternehmen bedeutet das konkret: <strong data-start="1555" data-end="1677">automatisierte ETL-Prozesse, optimierte Lead-Übergaben, kontinuierliche Forecast-Updates oder auch operative Workflows</strong> lassen sich effizient, zuverlässig und vor allem zentral auf einer integrierten Plattform umsetzen.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Microsoft Fabric Real-Time Intelligence für Echtzeit-Analysen</h2>
<p>Früher basierten die vom Osterhasen zu treffenden Entscheidungen auf nächtlichen Auswertungen.</p>
<p>Das Problem:<br />
Wenn plötzlich mehr Kinder in einem Viertel unterwegs waren oder ein Hund im Garten patrouillierte, erfuhr der Osterhase davon oft erst zu spät.</p>
<p>Heute fließen die Daten in Echtzeit über <strong>Eventstreams und Streaming-Analysen</strong> ein.</p>
<p>Zum Beispiel:</p>
<ul>
<li>Sensoren melden, ob ein Garten bereits besucht wurde</li>
<li>Helfer-Hasen melden live den Fortschritt der Auslieferungen</li>
<li>Wetterdaten zeigen, wo Eier besser im Schatten versteckt werden sollten</li>
<li>Nachfrage nach bestimmten Süßigkeiten wird sofort sichtbar</li>
</ul>
<p>Das alles führt zu einer Verkürzung der Reaktionszeiten von Stunden auf Sekunden und schafft Transparenz über Prozesse und die gesamte Lieferketten.</p>
<p>Mit <strong>Real-Time Intelligence in Microsoft Fabric</strong> können Unternehmen sofort auf Veränderungen reagieren. Dashboards aktualisieren sich live, Alerts werden automatisch ausgelöst und Entscheidungen basieren auf aktuellen Daten statt auf historischen Werten.</p>
<figure>
<figure id="attachment_22863" aria-describedby="caption-attachment-22863" style="width: 617px" class="wp-caption alignnone"><img decoding="async" class="wp-image-22863" src="https://arelium.de/wp-content/uploads/2026/03/Real-Time-Intelligence-statt-Batch-Verzoegerung-300x200.png" alt="" width="617" height="411" srcset="https://arelium.de/wp-content/uploads/2026/03/Real-Time-Intelligence-statt-Batch-Verzoegerung-300x200.png 300w, https://arelium.de/wp-content/uploads/2026/03/Real-Time-Intelligence-statt-Batch-Verzoegerung-1024x683.png 1024w, https://arelium.de/wp-content/uploads/2026/03/Real-Time-Intelligence-statt-Batch-Verzoegerung-600x400.png 600w, https://arelium.de/wp-content/uploads/2026/03/Real-Time-Intelligence-statt-Batch-Verzoegerung-1200x800.png 1200w, https://arelium.de/wp-content/uploads/2026/03/Real-Time-Intelligence-statt-Batch-Verzoegerung.png 1536w" sizes="(max-width: 617px) 100vw, 617px" /><figcaption id="caption-attachment-22863" class="wp-caption-text">Real-Time Intelligence statt Batch-Verzögerung</figcaption></figure></figure>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Microsoft Fabric Lakehouse-Architektur und Direct Lake für schnelles Reporting</h2>
<p data-start="124" data-end="407">Die Kombination aus einer <strong data-start="150" data-end="175">Lakehouse-Architektur</strong> und <strong data-start="180" data-end="195">Direct Lake</strong> in <strong data-start="199" data-end="240"><span class="hover:entity-accent entity-underline inline cursor-pointer align-baseline"><span class="whitespace-normal">Power BI</span></span></strong> ermöglicht den direkten Zugriff auf die Daten im zentralen Speicher <strong data-start="309" data-end="350"><span class="hover:entity-accent entity-underline inline cursor-pointer align-baseline"><span class="whitespace-normal">OneLake</span></span></strong> innerhalb von <strong data-start="365" data-end="406"><span class="hover:entity-accent entity-underline inline cursor-pointer align-baseline"><span class="whitespace-normal">Microsoft Fabric</span></span></strong>.</p>
<p data-start="409" data-end="670">Der große Vorteil dabei: Die Daten können <strong data-start="451" data-end="509">ohne aufwendige Importe und ohne doppelte Datenhaltung</strong> genutzt werden. Statt Daten regelmäßig zu replizieren oder in separate Reporting-Strukturen zu kopieren, greifen Analysen direkt auf die aktuelle Datenbasis zu.</p>
<p data-start="672" data-end="788">Für den Osterhasen bedeutet das konkret: In seinem digitalen Oster-Dashboard kann er jederzeit in Echtzeit erkennen,</p>
<ul data-start="790" data-end="991">
<li data-section-id="ti0yba" data-start="790" data-end="846">
<p data-start="792" data-end="846">welche Regionen bereits vollständig beliefert wurden</p>
</li>
<li data-section-id="123uu7y" data-start="847" data-end="871">
<p data-start="849" data-end="871">wo noch Körbe fehlen</p>
</li>
<li data-section-id="7qkrh1" data-start="872" data-end="927">
<p data-start="874" data-end="927">wie viele Eier aktuell noch im Lager vorhanden sind</p>
</li>
<li data-section-id="uxdbgx" data-start="928" data-end="991">
<p data-start="930" data-end="991">und welche Überraschungseier besonders schnell verschwinden</p>
</li>
</ul>
<p data-start="993" data-end="1232">Durch diese Architektur konnten die <strong data-start="1029" data-end="1079">Refresh-Zeiten der Reports drastisch reduziert</strong> werden. Gleichzeitig werden <strong data-start="1108" data-end="1165">Speicherbedarf sowie Wartungsaufwand deutlich gesenkt</strong>, da keine redundanten Datenstrukturen mehr gepflegt werden müssen.</p>
<p data-start="1234" data-end="1482">Für datengetriebene Unternehmen bedeutet das einen entscheidenden Vorteil: <strong data-start="1309" data-end="1361">modernes Reporting ohne klassische Batch-Fenster</strong>, ohne zeitverzögerte Datenimporte und gleichzeitig <strong data-start="1413" data-end="1481">ohne Kompromisse bei Performance, Aktualität oder Skalierbarkeit</strong>.</p>
<p data-start="1484" data-end="1580">So wird aus klassischen Reports eine <strong data-start="1521" data-end="1579">echte, nahezu Echtzeit-basierte Entscheidungsgrundlage</strong>.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Copilot in Microsoft Fabric als Produktivitäts-Booster</h2>
<p data-start="116" data-end="297">Durch die Nutzung des <strong data-start="138" data-end="192">Copiloten in <span class="hover:entity-accent entity-underline inline cursor-pointer align-baseline"><span class="whitespace-normal">Microsoft Fabric</span></span></strong> lassen sich Datenabfragen, Pipelines sowie Analysen <strong data-start="245" data-end="296">KI-gestützt erstellen, erweitern und optimieren</strong>.</p>
<p data-start="299" data-end="488">Der große Vorteil dabei: Viele Aufgaben können einfach über natürliche Sprache angestoßen werden, ohne dass komplexe Abfragen oder technische Konfigurationen manuell erstellt werden müssen.</p>
<p data-start="490" data-end="583">Auch der Osterhase profitiert davon. Er kann dem Copiloten beispielsweise Fragen stellen wie:</p>
<ul data-start="585" data-end="777">
<li data-section-id="1i8tqs6" data-start="585" data-end="649">
<p data-start="587" data-end="649">„Welche Regionen brauchen dieses Jahr mehr Schokoladeneier?“</p>
</li>
<li data-section-id="5fc5fe" data-start="650" data-end="711">
<p data-start="652" data-end="711">„Welche Route spart mir am Ostersonntag die meiste Zeit?“</p>
</li>
<li data-section-id="1bnzsnw" data-start="712" data-end="777">
<p data-start="714" data-end="777">„Wo wurden im letzten Jahr die meisten Osternester entdeckt?“</p>
</li>
</ul>
<p data-start="779" data-end="1017">Auf Basis dieser Fragen erstellt die KI automatisch passende <strong data-start="840" data-end="915">Datenabfragen, Dashboards oder sogar Vorschläge für neue Datenpipelines</strong>. Dadurch lassen sich Analysen deutlich schneller aufbauen und bestehende Prozesse einfacher anpassen.</p>
<p data-start="1019" data-end="1165">Das spart nicht nur Zeit, sondern reduziert gleichzeitig viele manuelle Arbeitsschritte und unterstützt das gesamte Team bei komplexeren Aufgaben.</p>
<p data-start="1167" data-end="1346">So kann der Osterhase im Zweifel auch selbst eingreifen und kleinere Anpassungen vornehmen – sogar <strong data-start="1266" data-end="1294">mitten in der Osternacht</strong>, wenn kurzfristig noch Änderungen notwendig werden.</p>
<p data-start="1348" data-end="1518">Künstliche Intelligenz wird damit nicht zum Ersatz für Fachkräfte, sondern vielmehr zu einem <strong data-start="1441" data-end="1517">effektiven Beschleuniger für Data Engineering, Reporting und Forecasting</strong>.</p>
<p data-start="1520" data-end="1654" data-is-last-node="" data-is-only-node="">Für Unternehmen bedeutet das: Datenprojekte lassen sich <strong data-start="1576" data-end="1653">schneller umsetzen, flexibler anpassen und deutlich effizienter betreiben</strong>.</p>
<figure id="attachment_22864" aria-describedby="caption-attachment-22864" style="width: 617px" class="wp-caption alignnone"><img loading="lazy" decoding="async" class="wp-image-22864" src="https://arelium.de/wp-content/uploads/2026/03/Colpilot-in-Microsoft-Fabric-als-Produktivitaets-Booster-300x200.png" alt="" width="617" height="411" srcset="https://arelium.de/wp-content/uploads/2026/03/Colpilot-in-Microsoft-Fabric-als-Produktivitaets-Booster-300x200.png 300w, https://arelium.de/wp-content/uploads/2026/03/Colpilot-in-Microsoft-Fabric-als-Produktivitaets-Booster-1024x683.png 1024w, https://arelium.de/wp-content/uploads/2026/03/Colpilot-in-Microsoft-Fabric-als-Produktivitaets-Booster-600x400.png 600w, https://arelium.de/wp-content/uploads/2026/03/Colpilot-in-Microsoft-Fabric-als-Produktivitaets-Booster-1200x800.png 1200w, https://arelium.de/wp-content/uploads/2026/03/Colpilot-in-Microsoft-Fabric-als-Produktivitaets-Booster.png 1536w" sizes="auto, (max-width: 617px) 100vw, 617px" /><figcaption id="caption-attachment-22864" class="wp-caption-text">Colpilot in Microsoft Fabric als Produktivitäts-Booster</figcaption></figure>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Fazit – Effizienz durch integrierte Datenarchitektur</h2>
<p data-start="135" data-end="232">Im Jahr 2026 hoppelt der Osterhase nicht schneller – sondern <strong data-start="196" data-end="229">intelligenter und effizienter</strong>.</p>
<p data-start="234" data-end="295">Dank <strong data-start="239" data-end="280"><span class="hover:entity-accent entity-underline inline cursor-pointer align-baseline"><span class="whitespace-normal">Microsoft Fabric</span></span></strong> kann er jetzt:</p>
<ul data-start="297" data-end="483">
<li data-section-id="1yd44p6" data-start="297" data-end="335">
<p data-start="299" data-end="335">Osternester deutlich besser planen</p>
</li>
<li data-section-id="5mpy4j" data-start="336" data-end="380">
<p data-start="338" data-end="380">die Wünsche der Kinder präziser erfüllen</p>
</li>
<li data-section-id="oepa89" data-start="381" data-end="421">
<p data-start="383" data-end="421">Lieferungen zuverlässig koordinieren</p>
</li>
<li data-section-id="1230wyo" data-start="422" data-end="483">
<p data-start="424" data-end="483">und seine Arbeit am Ostersonntag <strong data-start="457" data-end="481">stressfrei erledigen</strong></p>
</li>
</ul>
<p data-start="485" data-end="653">Genau das ist der Kern von Microsoft Fabric: <strong data-start="530" data-end="565">eine integrierte Datenplattform</strong> für Data Engineering, Business Intelligence und Echtzeit-Analysen mit zentraler Speicherung, Automatisierung und <strong data-start="632" data-end="652">KI-Unterstützung</strong>.</p>
<p data-start="655" data-end="734">Nicht nur der Osterhase profitiert von dieser Lösung, sondern auch Unternehmen durch:</p>
<ul data-start="736" data-end="920">
<li data-section-id="106xfd5" data-start="736" data-end="781">
<p data-start="738" data-end="781">einer <strong data-start="744" data-end="779">konsolidierten Datenarchitektur</strong></p>
</li>
<li data-section-id="13oe8f1" data-start="782" data-end="814">
<p data-start="784" data-end="814">weniger <strong data-start="792" data-end="812">Tool-Komplexität</strong></p>
</li>
<li data-section-id="194p8sn" data-start="815" data-end="853">
<p data-start="817" data-end="853"><strong data-start="817" data-end="851">automatisierten Datenprozessen</strong></p>
</li>
<li data-section-id="vzon6z" data-start="854" data-end="880">
<p data-start="856" data-end="880"><strong data-start="856" data-end="878">Echtzeit-Analytics</strong></p>
</li>
<li data-section-id="j951nv" data-start="881" data-end="920">
<p data-start="883" data-end="920">und skalierbarer <strong data-start="900" data-end="918">KI-Integration</strong></p>
</li>
</ul>
<p data-start="922" data-end="1092">Wer moderne Datenstrategien erfolgreich umsetzen möchte, schafft mit Microsoft Fabric die Grundlage für <strong data-start="1026" data-end="1091">effiziente, transparente und zukunftsfähige Geschäftsprozesse</strong>.</p>
<h3 data-start="1094" data-end="1220">Wir von der <strong data-start="1106" data-end="1147"><span class="hover:entity-accent entity-underline inline cursor-pointer align-baseline"><span class="whitespace-normal">arelium GmbH</span></span></strong> wünschen euch ein schönes <strong data-start="1174" data-end="1210">Osterfest im Kreis eurer Lieben</strong>!</h3>
<p data-start="1222" data-end="1477">Und falls du – genau wie der Osterhase – <strong data-start="1263" data-end="1296">Interesse an Microsoft Fabric</strong> bekommen hast, dann buche einfach einen <a href="https://arelium.de/kontakt/">unverbindlichen Beratungstermin</a> bei einem unserer Experten. So kannst du deine Datenprozesse sofort effizienter und smarter gestalten.</p>
</div>
<p>Der Beitrag <a href="https://arelium.de/vom-eierchaos-zur-datenstrategie-der-osterhase-entdeckt-microsoft-fabric/">Vom Eierchaos zur Datenstrategie: Der Osterhase entdeckt Microsoft Fabric</a> erschien zuerst auf <a href="https://arelium.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://arelium.de/vom-eierchaos-zur-datenstrategie-der-osterhase-entdeckt-microsoft-fabric/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Microsoft Fabric Git Integration – Git &#038; CI/CD für Fabric Workspaces – Ultimativer Guide</title>
		<link>https://arelium.de/microsoft-fabric-git-integration-git-ci-cd-fuer-fabric-workspaces-ultimativer-guide/</link>
					<comments>https://arelium.de/microsoft-fabric-git-integration-git-ci-cd-fuer-fabric-workspaces-ultimativer-guide/#respond</comments>
		
		<dc:creator><![CDATA[Emil Vincazovic]]></dc:creator>
		<pubDate>Mon, 09 Feb 2026 10:00:08 +0000</pubDate>
				<category><![CDATA[Azure]]></category>
		<category><![CDATA[Blog]]></category>
		<category><![CDATA[Cloud]]></category>
		<category><![CDATA[Data Engineering]]></category>
		<category><![CDATA[Microsoft Fabric]]></category>
		<category><![CDATA[Automated Deployment]]></category>
		<category><![CDATA[CI/CD]]></category>
		<category><![CDATA[Cloud Analytics]]></category>
		<category><![CDATA[Continuous Integration]]></category>
		<category><![CDATA[DevOps]]></category>
		<category><![CDATA[Git Integration]]></category>
		<category><![CDATA[Version Control]]></category>
		<category><![CDATA[Workspace Management]]></category>
		<guid isPermaLink="false">https://arelium.de/?p=21647</guid>

					<description><![CDATA[<p>Git-Integration und CI/CD f&#252;r Fabric Workspaces: Der klare Leitfaden Warum dieses Thema gerade jetzt wichtig ist Hast du dich schon einmal gefragt, wie du &#196;nderungen in deinem <a class="glossaryLink" aria-describedby="tt" data-cmtooltip="&#60;div class=glossaryItemTitle&#62;Microsoft Fabric&#60;/div&#62;&#60;div class=glossaryItemBody&#62;&#38;lt;img class=&#38;quot; wp-image-23172&#38;quot; src=&#38;quot;https://arelium.de/wp-content/uploads/2026/03/Glossarbilder1-300x92.png&#38;quot; alt=&#38;quot;&#38;quot; width=&#38;quot;1388&#38;quot; height=&#38;quot;426&#38;quot; /&#38;gt;&#38;lt;span role=&#38;quot;text&#38;quot;&#38;gt;&#38;lt;strong data-start=&#38;quot;1069&#38;quot; data-end=&#38;quot;1125&#38;quot;&#38;gt;Was ist Microsoft Fabric? &#38;lt;/strong&#38;gt;&#38;lt;/span&#38;gt;&#38;lt;span role=&#38;quot;text&#38;quot;&#38;gt;&#38;lt;strong data-start=&#38;quot;1069&#38;quot; data-end=&#38;quot;1125&#38;quot;&#38;gt;Definition, Funktionen und Aufbau&#38;lt;/strong&#38;gt;&#38;lt;/span&#38;gt;Microsoft Fabric ist eine cloudbasierte All-in-One-Datenplattform von Microsoft, die(...)&#60;/div&#62;" href="https://arelium.de/glossar/microsoft-fabric/" target="_blank" data-gt-translate-attributes='[{"attribute":"data-cmtooltip", "format":"html"}]' tabindex="0" role="link">Microsoft Fabric</a> Workspace sauber versionieren kannst, ohne Angst, dass ein Fehler dein komplettes Projekt zerschie&#223;t? Oder wie du neue Features automatisiert in deine Produktionsumgebung &#252;bertr&#228;gst, ohne jede Datei...</p>
<p>Der Beitrag <a href="https://arelium.de/microsoft-fabric-git-integration-git-ci-cd-fuer-fabric-workspaces-ultimativer-guide/">Microsoft Fabric Git Integration – Git &#038; CI/CD für Fabric Workspaces – Ultimativer Guide</a> erschien zuerst auf <a href="https://arelium.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="arelium-article">
<h1 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 2.2rem; margin-bottom: 1.5rem; color: #242323; font-style: normal;">Git-Integration und CI/CD für Fabric Workspaces: Der klare Leitfaden</h1>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Warum dieses Thema gerade jetzt wichtig ist</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Hast du dich schon einmal gefragt, wie du Änderungen in deinem Microsoft Fabric Workspace sauber versionieren kannst, ohne Angst, dass ein Fehler dein komplettes Projekt zerschießt? Oder wie du neue Features automatisiert in deine Produktionsumgebung überträgst, ohne jede Datei mühsam von Hand zu kopieren?</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Genau hier kommt die Git-Integration ins Spiel. Zusammen mit einem guten CI/CD-Setup (Continuous Integration und Continuous Deployment) kannst du deine Fabric-Workspaces so organisieren, dass Änderungen nachvollziehbar, testbar und schnell ausrollbar sind. Das ist nicht nur ein Komfortgewinn, sondern spart langfristig Zeit und Nerven. Zusätzlich minimiert es das Risiko von Daten- oder Modellfehlern.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Allerdings ist das Thema für viele, die gerade erst mit Microsoft Fabric arbeiten, noch etwas abstrakt. Daher schauen wir uns Schritt für Schritt an, wie du Git einbindest, CI/CD einrichtest und dabei Best Practices einhältst.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Was macht die Git-Integration in Microsoft Fabric so besonders?</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Während viele Entwickler Git schon seit Jahren nutzen, war die Integration in Business-Intelligence-Tools und Data-Analytics-Plattformen lange Zeit eher rudimentär.</p>
<p>Microsoft Fabric geht hier einen Schritt weiter: Du kannst komplette Workspaces direkt mit einem Git-Repository verbinden. Inklusive aller Reports, Datasets, Dataflows und anderer Artefakte!</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Das bedeutet:</p>
<ul style="margin-bottom: 20px; padding-left: 30px;">
<li style="margin-bottom: 8px; line-height: 1.6;">Änderungen an Berichten und Modellen landen nicht nur lokal, sondern auch im Versionsverlauf.</li>
<li style="margin-bottom: 8px; line-height: 1.6;">Du kannst problemlos zu älteren Ständen zurückspringen.</li>
<li style="margin-bottom: 8px; line-height: 1.6;">Mehrere Teammitglieder können parallel arbeiten, ohne sich gegenseitig zu überschreiben.</li>
</ul>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">Wie funktioniert das technisch?</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Im Grunde legt Fabric bei aktivierter Git-Integration eine Art &#8222;Spiegelung&#8220; deiner Artefakte im Repository an. Jedes Mal, wenn du speicherst, kannst du diese Änderungen committen und pushen. Entweder manuell oder automatisiert. Das Repository dient dann als zentraler Punkt für Zusammenarbeit und als Basis für CI/CD-Pipelines.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Voraussetzungen für Git-Integration in Fabric</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Bevor du loslegst, solltest du sicherstellen, dass folgende Punkte erfüllt sind:</p>
<ul style="margin-bottom: 20px; padding-left: 30px;">
<li style="margin-bottom: 8px; line-height: 1.6;">Fabric-Kapazität mit Git-Integration (nicht jede Lizenz hat den vollen Funktionsumfang)<br />
→ Mehr dazu findest du im <a style="text-align: justify; letter-spacing: 0em;" href="https://arelium.de/microsoft-fabric/">Fabric Überblick</a><span style="text-align: justify; letter-spacing: 0em;">.</span></li>
</ul>
<ul style="margin-bottom: 20px; padding-left: 30px;">
<li style="margin-bottom: 8px; line-height: 1.6;">Git-Repository (idealerweise in Azure DevOps oder GitHub)<br />
→ Microsoft empfiehlt Azure DevOps, da die CI/CD-Integration hier besonders eng ist.</li>
</ul>
<ul style="margin-bottom: 20px; padding-left: 30px;">
<li style="margin-bottom: 8px; line-height: 1.6;">Berechtigungen<br />
→  du brauchst Zugriff auf das Repository und den Fabric-Workspace.</li>
<li style="margin-bottom: 8px; line-height: 1.6;">Klare Projektstruktur<br />
→ bevor du Git aktivierst, solltest du überlegen, wie deine Dateien organisiert werden.</li>
</ul>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Tipps hierzu findest du auch in unserem Beitrag zur <a href="https://arelium.de/data-governance-in-fabric/">Data Governance in Fabric</a>.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Schritt-für-Schritt: Git mit Fabric Workspaces verbinden</h2>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">Schritt 1 – Verbindung zum Repository herstellen</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Im Workspace-Menü gibt es den Punkt Git-Integration. Hier trägst du die Repository-URL, den Branch (oft <code style="background-color: #f8f9fa; padding: 2px 6px; border-radius: 3px; font-family: 1Consolas\', \'Monaco\', monospace; border: 1px solid #e9ecef; font-size: 0.9em;">main</code> oder <code style="background-color: #f8f9fa; padding: 2px 6px; border-radius: 3px; font-family: 1Consolas\', \'Monaco\', monospace; border: 1px solid #e9ecef; font-size: 0.9em;">master</code>) und deine Authentifizierungsmethode ein.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Angenommen, du nutzt Azure DevOps, sieht die URL etwa so aus:</p>
<pre style="background-color: #f8f9fa; padding: 10px; border-radius: 5px; font-family: 'Consolas', 'Monaco', monospace; border: 1px solid #e9ecef; font-size: 0.9em;">https://dev.azure.com///_git/
</pre>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Nach dem Speichern synchronisiert Fabric die aktuellen Artefakte ins Repository. Der erste Commit umfasst sämtliche vorhandenen Inhalte – das kann je nach Größe etwas dauern.</p>
<h3 style="font-family: 'Lucida Sans Unicode', 'Lucida Grande', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">Schritt 2 – Branch-Strategie definieren</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Ohne klare Branch-Strategie endet Zusammenarbeit oft im Chaos. Im BI-Kontext hat sich bewährt:</p>
<ul style="margin-bottom: 20px; padding-left: 30px;">
<li style="margin-bottom: 8px; line-height: 1.6;"><strong style="color: #2c3e50; font-weight: 600;">Main</strong>: Produktionsstand</li>
<li style="margin-bottom: 8px; line-height: 1.6;"><strong style="color: #2c3e50; font-weight: 600;">Develop</strong>: Aktive Entwicklungsphase</li>
<li style="margin-bottom: 8px; line-height: 1.6;">Feature-Branches: Für einzelne Reports oder Modelländerungen</li>
</ul>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Dadurch kannst du Änderungen isoliert testen, bevor sie den Hauptstand erreichen. Das ist besonders wichtig, weil Fabric-Artefakte oft komplexe Abhängigkeiten haben.</p>
<h3 style="font-family: 'Lucida Sans Unicode', 'Lucida Grande', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">Schritt 3 – CI/CD-Pipeline einrichten</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Hier kommt der spannende Teil: Mit der Git-Integration kannst du Änderungen aus dem Repository automatisiert in andere Fabric-Workspaces deployen, etwa von einer Entwicklungs- in eine Produktionsumgebung. Hier zu gibt es zwei Möglichkeiten:</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Zum einen haben wir die in Fabric fest implementierten Deployment-Pipelines. Diese sind per einfachem User Interface recht einfach zusammenzuklicken.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Zum anderen gibt es die Möglichkeit, das Ganze über Azure DevOps zu machen.</p>
<h4 style="font-family: 'Lucida Sans Unicode', 'Lucida Grande', sans-serif; font-size: 1.2rem; margin-bottom: 0.8rem; color: #242323; font-style: normal;">Beispiel mit Azure DevOps YAML-Pipeline:</h4>
<pre style="background-color: #f8f9fa; padding: 10px; border-radius: 5px; font-family: 'Consolas', 'Monaco', monospace; border: 1px solid #e9ecef; font-size: 0.9em;">trigger:
  branches:
    include:
      - main

pool:
  vmImage: 'ubuntu-latest'

steps:
  - task: PowerShell@2
    inputs:
      targetType: 'inline'
      script: |
        # Fabric CLI-Befehle (fiktiv, Beispiel)
        fabric login --token $(FabricToken)
        fabric deploy --workspaceId $(ProdWorkspaceId) --sourceRepo .
</pre>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Dieser einfache Pipeline-Job reagiert auf Änderungen im<br />
<code style="background-color: #f8f9fa; padding: 2px 6px; border-radius: 3px; font-family: 'Consolas', 'Monaco', monospace; border: 1px solid #e9ecef; font-size: 0.9em;">main</code>-Branch und führt ein Deployment in den Produktions-Workspace durch. In der Realität würdest du hier noch Tests, Validierungen und vielleicht sogar automatisierte Report-Checks einbauen.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Best Practices für Git und CI/CD in Fabric</h2>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">1. Kleine Commits statt großer &#8222;Monster-Updates&#8220;</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Damit Änderungen nachvollziehbar bleiben, solltest du lieber häufiger committen. Das erleichtert den Review-Prozess und macht Fehlerquellen sichtbar.</p>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">2. Automatisierte Tests einbauen</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Bevor ein Deployment läuft, sollten Tests sicherstellen, dass Berichte und Modelle korrekt laden. Das kann im CI-Schritt geschehen, indem etwa Power BI Deployment Pipelines oder Fabric-eigene Validierungen genutzt werden.</p>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">3. Sensible Daten schützen</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Falls dein Repository sensible Daten enthalten könnte, solltest du diese entweder entfernen oder mit Tools wie <a href="https://arelium.de/microsoft-purview/">Microsoft Purview</a> klassifizieren und schützen.</p>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">4. Deployment-Pfade klar definieren</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Gerade bei mehreren Workspaces ist es wichtig, genau zu wissen, welche Artefakte wohin gehen. Das spart Zeit und verhindert ungewollte Überschreibungen.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Verknüpfung mit anderen Fabric-Funktionen</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Die Git-Integration ist kein isoliertes Feature. Sie spielt perfekt mit anderen Fabric-Komponenten zusammen. Wenn du beispielsweise OneLake nutzt, kannst du deine Datenhaltung und Berichte gemeinsam versionieren. Mehr dazu im Beitrag <a href="https://arelium.de/onelake-fuer-power-bi-desktop/">OneLake für Power BI Desktop</a>.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Auch bei Themen wie Security in Microsoft Fabric (<a href="https://arelium.de/security-in-microsoft-fabric/">Link</a>) ist Git relevant, denn durch die Versionskontrolle dokumentierst du Änderungen an Berechtigungen und kannst sie im Zweifelsfall zurücksetzen.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Häufige Stolperfallen</h2>
<ul style="margin-bottom: 20px; padding-left: 30px;">
<li style="margin-bottom: 8px; line-height: 1.6;">Nicht synchronisierte Branches<br />
→ wenn du versehentlich im falschen Branch arbeitest, kann das zu Konflikten führen.</li>
<li style="margin-bottom: 8px; line-height: 1.6;">Fehlende Berechtigungen<br />
→ gerade in größeren Teams ist es wichtig, dass jeder die nötigen Rechte hat.</li>
<li style="margin-bottom: 8px; line-height: 1.6;">CI/CD-Fehler durch fehlende Artefakte<br />
→ wenn ein Deployment scheitert, liegt das oft an fehlenden Abhängigkeiten.</li>
</ul>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Warum sich der Aufwand lohnt</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Git-Integration und CI/CD in Microsoft Fabric sind keine &#8222;Nice-to-have&#8220;-Features, sondern echte &#8222;Lebensretter&#8220;. Sie machen deine Arbeit planbarer, sicherer und skalierbarer. Zwar kostet die Einrichtung anfangs etwas Zeit, aber die langfristigen Vorteile sind enorm. Vor allem dann , wenn dein Team wächst oder Projekte komplexer werden.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Call-to-Action</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Wenn du Lust hast, deine Fabric-Workspaces mit Git und CI/CD aufzuwerten:</p>
<ol style="margin-bottom: 20px; padding-left: 30px;">
<li style="margin-bottom: 8px; line-height: 1.6;">Richte ein Test-Repository ein.</li>
<li style="margin-bottom: 8px; line-height: 1.6;">Verbinde es mit einem nicht-produktiven Workspace.</li>
<li style="margin-bottom: 8px; line-height: 1.6;">Experimentiere mit einer einfachen Pipeline in Azure DevOps.</li>
</ol>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Du wirst schnell merken, wie viel entspannter die Arbeit wird und wie klar du den Überblick behältst.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Falls du tiefer einsteigen willst, empfehle ich dir unseren Artikel zu <a href="https://arelium.de/medaillon-architektur-in-microsoft-fabric/">Medallion-Architektur in Microsoft Fabric</a> oder den Beitrag <a href="https://arelium.de/das-aendert-sich-mit-microsoft-fabric/">Das ändert sich mit Microsoft Fabric</a>.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Und wenn du direkt loslegen möchtest: Schau in die <a href="https://learn.microsoft.com/de-de/fabric/" target="_blank" rel="noopener">Microsoft Docs zur Git-Integration in Fabric</a> oder in Community-Beiträge. Dort findest du viele Praxisbeispiele.</p>
</div>
<p>Der Beitrag <a href="https://arelium.de/microsoft-fabric-git-integration-git-ci-cd-fuer-fabric-workspaces-ultimativer-guide/">Microsoft Fabric Git Integration – Git &#038; CI/CD für Fabric Workspaces – Ultimativer Guide</a> erschien zuerst auf <a href="https://arelium.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://arelium.de/microsoft-fabric-git-integration-git-ci-cd-fuer-fabric-workspaces-ultimativer-guide/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Prinz Karneval 4.0 – Wie Microsoft Fabric den Karneval revolutioniert</title>
		<link>https://arelium.de/prinz-karneval-4-0-wie-microsoft-fabric-den-karneval-revolutioniert/</link>
					<comments>https://arelium.de/prinz-karneval-4-0-wie-microsoft-fabric-den-karneval-revolutioniert/#respond</comments>
		
		<dc:creator><![CDATA[Thomas Sobizack]]></dc:creator>
		<pubDate>Fri, 30 Jan 2026 10:41:35 +0000</pubDate>
				<category><![CDATA[Big Data]]></category>
		<category><![CDATA[Blog]]></category>
		<category><![CDATA[Cloud]]></category>
		<category><![CDATA[Data Analytics]]></category>
		<category><![CDATA[Event]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Microsoft Fabric]]></category>
		<category><![CDATA[OneLake]]></category>
		<category><![CDATA[Cloud Computing]]></category>
		<category><![CDATA[Datenanalyse]]></category>
		<category><![CDATA[Echtzeitdaten]]></category>
		<category><![CDATA[Eventmanagement]]></category>
		<category><![CDATA[Karneval]]></category>
		<category><![CDATA[Logistikoptimierung]]></category>
		<category><![CDATA[Routenplanung]]></category>
		<category><![CDATA[Sicherheitskonzepte]]></category>
		<guid isPermaLink="false">https://arelium.de/?p=22328</guid>

					<description><![CDATA[<p>Prinz Karneval 4.0 &#8211; Wie <a class="glossaryLink" aria-describedby="tt" data-cmtooltip="&#60;div class=glossaryItemTitle&#62;Microsoft Fabric&#60;/div&#62;&#60;div class=glossaryItemBody&#62;&#38;lt;img class=&#38;quot; wp-image-23172&#38;quot; src=&#38;quot;https://arelium.de/wp-content/uploads/2026/03/Glossarbilder1-300x92.png&#38;quot; alt=&#38;quot;&#38;quot; width=&#38;quot;1388&#38;quot; height=&#38;quot;426&#38;quot; /&#38;gt;&#38;lt;span role=&#38;quot;text&#38;quot;&#38;gt;&#38;lt;strong data-start=&#38;quot;1069&#38;quot; data-end=&#38;quot;1125&#38;quot;&#38;gt;Was ist Microsoft Fabric? &#38;lt;/strong&#38;gt;&#38;lt;/span&#38;gt;&#38;lt;span role=&#38;quot;text&#38;quot;&#38;gt;&#38;lt;strong data-start=&#38;quot;1069&#38;quot; data-end=&#38;quot;1125&#38;quot;&#38;gt;Definition, Funktionen und Aufbau&#38;lt;/strong&#38;gt;&#38;lt;/span&#38;gt;Microsoft Fabric ist eine cloudbasierte All-in-One-Datenplattform von Microsoft, die(...)&#60;/div&#62;" href="https://arelium.de/glossar/microsoft-fabric/" target="_blank" data-gt-translate-attributes='[{"attribute":"data-cmtooltip", "format":"html"}]' tabindex="0" role="link">Microsoft Fabric</a> den Karneval revolutioniert. Der Karneval lebt von Tradition, Emotionen und einem gesunden Ma&#223; an Chaos. Doch selbst der jeckste Prinz wei&#223;: Ein bisschen Struktur hat noch keiner Session geschadet. W&#228;hrend fr&#252;her Entscheidungen mit Bauchgef&#252;hl, Glaskugel oder dem bew&#228;hrten 3. Artikel des rheinischen Grundgesetztes &#8222;Et h&#228;tt noch emmer joot...</p>
<p>Der Beitrag <a href="https://arelium.de/prinz-karneval-4-0-wie-microsoft-fabric-den-karneval-revolutioniert/">Prinz Karneval 4.0 – Wie Microsoft Fabric den Karneval revolutioniert</a> erschien zuerst auf <a href="https://arelium.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p><span style="color: #242323; font-size: 1.4rem; font-weight: bold; letter-spacing: 0em;">Prinz Karneval 4.0 &#8211; Wie Microsoft Fabric den Karneval revolutioniert.</span></p>
<div class="arelium-article">
<p>Der <strong>Karneval</strong> lebt von Tradition, Emotionen und einem gesunden Maß an Chaos. Doch selbst der jeckste Prinz weiß: Ein bisschen Struktur hat noch keiner Session geschadet. Während früher Entscheidungen mit Bauchgefühl, Glaskugel oder dem bewährten 3. Artikel des rheinischen Grundgesetztes „<strong><em>Et hätt noch emmer joot jejange</em></strong>“ getroffen wurden, <span style="letter-spacing: 0em;">steht der Prinz von heute vor einer neuen Realität. </span>Willkommen im Zeitalter von <a href="https://arelium.de/microsoft-fabric/"><strong>Microsoft Fabric</strong></a> – dort, wo Alaaf auf Analytics trifft.</p>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">Vom Bierdeckel zum OneLake &#8211; Datenhaltung im Karneval</h3>
<p>Noch vor wenigen Jahren wurden wichtige Informationen rund um den Karneval auf allem gespeichert, was gerade greifbar war: Zettel, Excel-Listen mit kreativen Dateinamen wie &#8222;Ordensliste_V3.0_Stand_01.2023_aktuellsteVersion_letzter_Stand_28.01.2026.xlsx&#8220; oder eben Bierdeckeln.</p>
<p>Microsoft Fabric macht damit Schluss. Alle relevanten Daten – vom Kamelle-Verbrauch über Auftrittszeiten der Tanzgruppen bis hin zu Getränkebeständen und Ordenslisten – landen zentral im <strong>OneLake</strong>. Für den Prinzen bedeutet das eine verlässliche „Single Source of Truth“. Egal ob Sitzung, Umzug oder Aftershow-Party: Die Daten sind <strong>konsistent</strong>, <strong>aktuell</strong> und sogar an Weiberfastnacht noch <strong>auffindbar</strong>. Die Tradition bleibt erhalten, aber die Daten sind werden jetzt erwachsen.</p>
<figure id="attachment_22359" aria-describedby="caption-attachment-22359" style="width: 465px" class="wp-caption aligncenter"><img loading="lazy" decoding="async" class="wp-image-22359" src="https://arelium.de/wp-content/uploads/2026/01/Copilot_20260128_111416-300x200.png" alt="" width="465" height="310" srcset="https://arelium.de/wp-content/uploads/2026/01/Copilot_20260128_111416-300x200.png 300w, https://arelium.de/wp-content/uploads/2026/01/Copilot_20260128_111416-1024x683.png 1024w, https://arelium.de/wp-content/uploads/2026/01/Copilot_20260128_111416-600x400.png 600w, https://arelium.de/wp-content/uploads/2026/01/Copilot_20260128_111416-1200x800.png 1200w, https://arelium.de/wp-content/uploads/2026/01/Copilot_20260128_111416.png 1536w" sizes="auto, (max-width: 465px) 100vw, 465px" /><figcaption id="caption-attachment-22359" class="wp-caption-text">Microsoft Fabric im Eventmanagement</figcaption></figure>
</div>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">Echtzeit-Analytics statt &#8222;Boochjeföhl&#8220; &#8211; Der Prinz blickt aufs Dashboard</h3>
<p>Besonders mächtig wird Microsoft Fabric im laufenden Betrieb. Während die Kapelle spielt und der Saal kocht, wirft der Prinz einen Blick auf sein Dashboard. In Echtzeit sieht er, wie sich die Stimmung entwickelt, oder ob im Elferrat langsam ein kritischer Füllstand erreicht wird. Statt hektischer Zurufe und spontaner Entscheidungen heißt es dann ganz sachlich: „Trinkt zwischendurch auch mal ein Wasser.“</p>
<p>Das klingt unromantisch, funktioniert aber erstaunlich gut. Der Karneval bleibt jeck, wird aber plötzlich planbarer.</p>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">Kamelle-Logistik mit Fabric Data Factory</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Die Frage „Haben wir genug Kamelle?“ ist für den Prinz Karneval nicht trivial. Mit Fabric könntest du ein Supply-Chain-Management aufbauen, das Lagerbestände, Lieferzeiten und Verteilungspunkte im Blick behält. Die <strong style="color: #2c3e50; font-weight: 600;">Fabric Data Factory</strong> erlaubt es, Daten aus verschiedenen Quellen (etwa Lieferantenlisten, Bestellportalen und Fahrzeugtracking-Systemen) zu integrieren.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Anschließend lassen sich diese Daten im <strong style="color: #2c3e50; font-weight: 600;">Lakehouse</strong>-Format speichern, wodurch sie sowohl für Analyse als auch für operative Entscheidungen nutzbar sind. Mehr zu den Möglichkeiten einer Lakehouse-Architektur findest du übrigens im Beitrag <a href="https://arelium.de/lakehouse-vs-warehouse/">Lakehouse vs Warehouse</a>.</p>
<figure id="attachment_22363" aria-describedby="caption-attachment-22363" style="width: 465px" class="wp-caption aligncenter"><img loading="lazy" decoding="async" class="wp-image-22363 " src="https://arelium.de/wp-content/uploads/2026/01/Copilot_20260128_112321-300x200.png" alt="" width="465" height="310" srcset="https://arelium.de/wp-content/uploads/2026/01/Copilot_20260128_112321-300x200.png 300w, https://arelium.de/wp-content/uploads/2026/01/Copilot_20260128_112321-1024x683.png 1024w, https://arelium.de/wp-content/uploads/2026/01/Copilot_20260128_112321-600x400.png 600w, https://arelium.de/wp-content/uploads/2026/01/Copilot_20260128_112321-1200x800.png 1200w, https://arelium.de/wp-content/uploads/2026/01/Copilot_20260128_112321.png 1536w" sizes="auto, (max-width: 465px) 100vw, 465px" /><figcaption id="caption-attachment-22363" class="wp-caption-text">Prinz Karneval vor einem digitalen Dashboard</figcaption></figure>
<h3><span style="color: #242323; font-family: inherit; font-size: 1.4rem;">KI, Automatisierung und Eskalationsstufen &#8222;Alaaf++&#8220;</span></h3>
<div class="arelium-article">
<p>Richtig modern wird es, wenn künstliche Intelligenz ins Spiel kommt. Mit Copilot und Machine Learning erkennt <strong>Microsoft Fabric</strong> Muster, die früher nur erfahrene Karnevalisten im Gefühl hatten. Das System weiß, wann Reden zu lang werden, welche Musik garantiert für Stimmung sorgt und ab welchem Zeitpunkt der Elferrat statistisch nicht mehr voll entscheidungsfähig ist. Parallel laufen automatisierte Workflows im Hintergrund. Orden werden zur richtigen Zeit verteilt, Benachrichtigungen gehen raus, wenn die Tanzfläche überfüllt ist, und selbst der <strong>Strüßche-Nachschub</strong> lässt sich <strong>ereignisbasiert</strong> steuern. Sinkt der Bestand unter einen definierten Wert, wird automatisch nachbestellt.</p>
<p><strong>Zero Downtime im Karnevalsbetrieb – selbst nach dem dritten Kölsch oder Alt.</strong></p>
<p>Das klingt nach Zukunftsmusik, ist aber schon Realität – mehr dazu im Beitrag <a href="https://arelium.de/microsoft-copilot-in-fabric/">Microsoft Copilot in Fabric</a>.</p>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">Nach dem Alaaf ist vor dem Dashboard &#8211; Lernen aus den Daten</h3>
<p>Nach der Session beginnt die eigentliche Stärke von <strong>Microsoft Fabric</strong>. Statt vager Erinnerungen gibt es belastbare Zahlen. Welche Programmpunkte kamen besonders gut an? Wo war die Aufmerksamkeit am höchsten? Wie viele Kamelle „pro Jeck“ wurden tatsächlich verteilt?</p>
<p>Diese Erkenntnisse können direkt in die Planung der nächsten Session einfließen. Das berühme Bauchgefühl wird dabei nicht abgeschafft – es bekommt lediglich eine Erweiterung. Durch Historisierung wird dafür gesorgt, dass jede neue Session ein bisschen besser wird als die Letzte.</p>
<p>&nbsp;</p>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">Fazit: Ein Prinz regiert &#8211; ein moderner Prinz regiert datengetrieben</h3>
<p>Der Prinz der Zukunft regiert nicht nur mit Zepter, Orden und Charisma, sondern auch mit <strong>Dashboards</strong>, <strong>Pipelines</strong> und <strong>KI</strong>.</p>
<p>Microsoft Fabric macht den Karneval skalierbar, hochverfügbar und datengetrieben, ohne ihm die <strong>Jeckheit</strong> zu nehmen. Denn eines bleibt trotz aller Technologie gleich:</p>
<p>„<strong>Denn wenn et Trömmelche jeht, dann stonn mer all parat&#8230;“</strong></p>
<p>Wer schon auf Microsoft Fabric umgestiegen ist, kann dieses Jahr ganz entspannt Kamelle werfen und „Alaaf“ oder  „Helau“ rufen – das Dashboard kümmert sich ums Chaos, die KI ums Elferrat-Management, und ihr genießt einfach den Karneval.</p>
<figure id="attachment_22366" aria-describedby="caption-attachment-22366" style="width: 465px" class="wp-caption aligncenter"><img loading="lazy" decoding="async" class="wp-image-22366 " src="https://arelium.de/wp-content/uploads/2026/01/Copilot_20260128_113201-300x200.png" alt="" width="465" height="310" srcset="https://arelium.de/wp-content/uploads/2026/01/Copilot_20260128_113201-300x200.png 300w, https://arelium.de/wp-content/uploads/2026/01/Copilot_20260128_113201-1024x683.png 1024w, https://arelium.de/wp-content/uploads/2026/01/Copilot_20260128_113201-600x400.png 600w, https://arelium.de/wp-content/uploads/2026/01/Copilot_20260128_113201-1200x800.png 1200w, https://arelium.de/wp-content/uploads/2026/01/Copilot_20260128_113201.png 1536w" sizes="auto, (max-width: 465px) 100vw, 465px" /><figcaption id="caption-attachment-22366" class="wp-caption-text">Datengetriebenes Eventmanagement mit Microsoft Fabric</figcaption></figure>
<p>&nbsp;</p>
</div>
<p>Wir von der <strong>arelium GmbH</strong> wünschen euch eine großartige, sorgenfreie und rundum närrische <strong>Fastelovendszick</strong>!</p>
<p><strong>Falls Du Interesse an Microsoft Fabric bekommen hast, dann buche doch einfach einen <a href="https://arelium.de/kontakt/">unverbindlichen Beratungstermin</a> bei einem unserer Fachleute.</strong></p>
<p>Der Beitrag <a href="https://arelium.de/prinz-karneval-4-0-wie-microsoft-fabric-den-karneval-revolutioniert/">Prinz Karneval 4.0 – Wie Microsoft Fabric den Karneval revolutioniert</a> erschien zuerst auf <a href="https://arelium.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://arelium.de/prinz-karneval-4-0-wie-microsoft-fabric-den-karneval-revolutioniert/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Infrastructure as Code mit Microsoft Fabric und Azure</title>
		<link>https://arelium.de/infrastructure-as-code-mit-microsoft-fabric-und-azure/</link>
					<comments>https://arelium.de/infrastructure-as-code-mit-microsoft-fabric-und-azure/#respond</comments>
		
		<dc:creator><![CDATA[Emil Vincazovic]]></dc:creator>
		<pubDate>Mon, 26 Jan 2026 10:00:40 +0000</pubDate>
				<category><![CDATA[Azure]]></category>
		<category><![CDATA[Blog]]></category>
		<category><![CDATA[Cloud]]></category>
		<category><![CDATA[Data Engineering]]></category>
		<category><![CDATA[Microsoft Fabric]]></category>
		<category><![CDATA[Azure Automation]]></category>
		<category><![CDATA[Azure Data Factory]]></category>
		<category><![CDATA[Cloud Deployment]]></category>
		<category><![CDATA[Cloud Governance]]></category>
		<category><![CDATA[Continuous Integration]]></category>
		<category><![CDATA[DevOps]]></category>
		<category><![CDATA[Infrastructure as Code]]></category>
		<category><![CDATA[Resource Provisioning]]></category>
		<guid isPermaLink="false">https://arelium.de/?p=21645</guid>

					<description><![CDATA[<p>Infrastructure as Code f&#252;r Fabric + <a class="glossaryLink"  aria-describedby="tt"  data-cmtooltip="&#60;div class=glossaryItemTitle&#62;Azure&#60;/div&#62;&#60;div class=glossaryItemBody&#62;&#38;lt;section class=&#38;quot;l-section wpb_row height_small&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;l-section-h i-cf&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;g-cols vc_row via_grid cols_1 laptops-cols_inherit tablets-cols_inherit mobiles-cols_1 valign_top type_default stacking_default&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_column vc_column_container&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;vc_column-inner&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_text_column&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_wrapper&#38;quot;&#38;gt;Was ist Azure?&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;w-separator size_medium&#38;quot;&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;w-image align_center&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;w-image-h&#38;quot;&#38;gt;&#38;lt;img width=&#38;quot;1300&#38;quot; height=&#38;quot;400&#38;quot; src=&#38;quot;https://arelium.de/wp-content/uploads/2024/01/Azure-2.png&#38;quot; class=&#38;quot;attachment-us_1300_400 size-us_1300_400&#38;quot; alt=&#38;quot;Azure&#38;quot; loading=&#38;quot;lazy&#38;quot; decoding=&#38;quot;async&#38;quot; srcset=&#38;quot;https://arelium.de/wp-content/uploads/2024/01/Azure-2.png 1300w, https://arelium.de/wp-content/uploads/2024/01/Azure-2-300x92.png 300w, https://arelium.de/wp-content/uploads/2024/01/Azure-2-1024x315.png 1024w&#38;quot; sizes=&#38;quot;auto, (max-width: 1300px) 100vw, 1300px&#38;quot; /&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;w-separator size_medium&#38;quot;&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;wpb_text_column&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_wrapper&#38;quot;&#38;gt;Microsoft Azure ist eine Cloudplattform, die von Microsoft entwickelt wurde und eine breite Palette von Diensten bereitstellt, die(...)&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/section&#38;gt;&#60;/div&#62;"  href="https://arelium.de/glossar/azure/"  target="_blank"  data-gt-translate-attributes='[{"attribute":"data-cmtooltip", "format":"html"}]'  tabindex='0' role='link'>Azure</a>: Was heute m&#246;glich ist und was nicht Hast du dich schon mal gefragt, ob du deine komplette <a class="glossaryLink" aria-describedby="tt" data-cmtooltip="&#60;div class=glossaryItemTitle&#62;Microsoft Fabric&#60;/div&#62;&#60;div class=glossaryItemBody&#62;&#38;lt;img class=&#38;quot; wp-image-23172&#38;quot; src=&#38;quot;https://arelium.de/wp-content/uploads/2026/03/Glossarbilder1-300x92.png&#38;quot; alt=&#38;quot;&#38;quot; width=&#38;quot;1388&#38;quot; height=&#38;quot;426&#38;quot; /&#38;gt;&#38;lt;span role=&#38;quot;text&#38;quot;&#38;gt;&#38;lt;strong data-start=&#38;quot;1069&#38;quot; data-end=&#38;quot;1125&#38;quot;&#38;gt;Was ist Microsoft Fabric? &#38;lt;/strong&#38;gt;&#38;lt;/span&#38;gt;&#38;lt;span role=&#38;quot;text&#38;quot;&#38;gt;&#38;lt;strong data-start=&#38;quot;1069&#38;quot; data-end=&#38;quot;1125&#38;quot;&#38;gt;Definition, Funktionen und Aufbau&#38;lt;/strong&#38;gt;&#38;lt;/span&#38;gt;Microsoft Fabric ist eine cloudbasierte All-in-One-Datenplattform von Microsoft, die(...)&#60;/div&#62;" href="https://arelium.de/glossar/microsoft-fabric/" target="_blank" data-gt-translate-attributes='[{"attribute":"data-cmtooltip", "format":"html"}]' tabindex="0" role="link">Microsoft Fabric</a>-Umgebung genauso automatisiert und reproduzierbar aufsetzen kannst wie eine klassische <a class="glossaryLink"  aria-describedby="tt"  data-cmtooltip="&#60;div class=glossaryItemTitle&#62;Azure&#60;/div&#62;&#60;div class=glossaryItemBody&#62;&#38;lt;section class=&#38;quot;l-section wpb_row height_small&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;l-section-h i-cf&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;g-cols vc_row via_grid cols_1 laptops-cols_inherit tablets-cols_inherit mobiles-cols_1 valign_top type_default stacking_default&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_column vc_column_container&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;vc_column-inner&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_text_column&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_wrapper&#38;quot;&#38;gt;Was ist Azure?&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;w-separator size_medium&#38;quot;&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;w-image align_center&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;w-image-h&#38;quot;&#38;gt;&#38;lt;img width=&#38;quot;1300&#38;quot; height=&#38;quot;400&#38;quot; src=&#38;quot;https://arelium.de/wp-content/uploads/2024/01/Azure-2.png&#38;quot; class=&#38;quot;attachment-us_1300_400 size-us_1300_400&#38;quot; alt=&#38;quot;Azure&#38;quot; loading=&#38;quot;lazy&#38;quot; decoding=&#38;quot;async&#38;quot; srcset=&#38;quot;https://arelium.de/wp-content/uploads/2024/01/Azure-2.png 1300w, https://arelium.de/wp-content/uploads/2024/01/Azure-2-300x92.png 300w, https://arelium.de/wp-content/uploads/2024/01/Azure-2-1024x315.png 1024w&#38;quot; sizes=&#38;quot;auto, (max-width: 1300px) 100vw, 1300px&#38;quot; /&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;w-separator size_medium&#38;quot;&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;wpb_text_column&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_wrapper&#38;quot;&#38;gt;Microsoft Azure ist eine Cloudplattform, die von Microsoft entwickelt wurde und eine breite Palette von Diensten bereitstellt, die(...)&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/section&#38;gt;&#60;/div&#62;"  href="https://arelium.de/glossar/azure/"  target="_blank"  data-gt-translate-attributes='[{"attribute":"data-cmtooltip", "format":"html"}]'  tabindex='0' role='link'>Azure</a>-Infrastruktur? Also wirklich von Null auf, ohne ins Portal zu klicken, nur mit ein paar Zeilen Code? Das klingt verlockend,...</p>
<p>Der Beitrag <a href="https://arelium.de/infrastructure-as-code-mit-microsoft-fabric-und-azure/">Infrastructure as Code mit Microsoft Fabric und Azure</a> erschien zuerst auf <a href="https://arelium.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="arelium-article">
<h1 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 2.2rem; margin-bottom: 1.5rem; color: #242323; font-style: normal;">Infrastructure as Code für Fabric + Azure: Was heute möglich ist und was nicht</h1>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Hast du dich schon mal gefragt, ob du deine komplette Microsoft Fabric-Umgebung genauso automatisiert und reproduzierbar aufsetzen kannst wie eine klassische Azure-Infrastruktur? Also wirklich von Null auf, ohne ins Portal zu klicken, nur mit ein paar Zeilen Code? Das klingt verlockend, vor allem wenn du schon mit Infrastructure as Code (IaC) in Azure vertraut bist. Aber wie sieht das in der Praxis aus, wenn Fabric ins Spiel kommt? Genau darum geht’s in diesem Artikel: Wir schauen uns an, welche Möglichkeiten es aktuell gibt, wo noch Lücken sind und wie du trotzdem schon heute einen guten Teil deiner Fabric- und Azure-Umgebungen automatisieren kannst.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Microsoft Fabric und Azure: ein kurzer Überblick</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Bevor wir ins Detail gehen, lass uns kurz klarstellen, worüber wir sprechen.</p>
<p>Microsoft Fabric ist eine integrierte Data- und Analytics-Plattform, die Services wie Data Engineering, Data Science, Real-Time Analytics, Data Warehouse und natürlich Power BI in einer einheitlichen Umgebung bündelt.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Dank OneLake als zentralem Datenspeicher kannst du Daten aus verschiedensten Quellen zusammenführen. Falls du noch nicht so tief im Thema bist: Lies dir gerne unseren Überblick zu <a href="https://arelium.de/onelake-fuer-power-bi-desktop/">OneLake für Power BI Desktop</a> durch. Dort bekommst du schnell ein Gefühl, wie der zentrale Speicher funktioniert.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Azure hingegen ist der Cloud-Baukasten von Microsoft. Hier findest du alles von virtuellen Maschinen über Datenbanken bis hin zu KI-Diensten. In Azure ist Infrastructure as Code schon lange etabliert. Mit Tools wie ARM Templates, Bicep oder Terraform kannst du Ressourcen definieren, versionieren und automatisiert bereitstellen.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Was bedeutet Infrastructure as Code (IaC) im Kontext von Fabric?</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">IaC heißt, dass du deine Infrastruktur nicht manuell über Klicks im Portal aufbaust, sondern sie als Code beschreibst. Das bringt gleich mehrere Vorteile: Du kannst Änderungen nachvollziehen, Umgebungen reproduzieren und Deployments automatisieren.</p>
<figure></figure>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">In Azure funktioniert das mit Bicep oder Terraform hervorragend, aber bei Fabric sieht es aktuell noch etwas anders aus. Fabric ist zwar technisch eng mit Azure verwoben, allerdings gibt es, Stand heute, keine vollständige API- oder Template-Abdeckung, um jeden Aspekt einer Fabric-Umgebung per Code zu erstellen.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Was heute schon möglich ist</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Lass uns positiv anfangen: Es gibt einige Bereiche, die du bereits automatisieren kannst – teilweise direkt über Azure-Mechanismen, teilweise über Workarounds.</p>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">1. Kapazitäten und Workspaces in Fabric</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Über die Power BI REST API kannst du Workspaces anlegen, verwalten und Nutzerberechtigungen setzen. Da Fabric auf derselben Workspace-Logik wie Power BI aufsetzt, funktioniert dieser Weg auch hier. Mit einem Skript, das die REST API nutzt, kannst du z. B. automatisch ein Workspace-Gerüst für ein neues Projekt erstellen.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Kurzes Beispiel in PowerShell:</p>
<pre style="background-color: #f8f9fa; padding: 10px; border-radius: 5px; font-family: 'Consolas','Monaco', monospace; border: 1px solid #e9ecef; font-size: 0.9em;">$token = Get-PowerBIAccessToken

Invoke-RestMethod `
  -Uri "https://api.powerbi.com/v1.0/myorg/groups" `
  -Headers @{ Authorization = "Bearer $token" } `
  -Method Post `
  -Body @{ name = "Projekt_X_Fabric_Workspace" }
</pre>
<h3 style="font-family: 'Lucida Sans Unicode','Lucida Grande', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323;">2. Azure-Ressourcen für Fabric-Datenintegration</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Fabric nutzt im Hintergrund Azure-Ressourcen wie Data Lake Storage oder (je nach Szenario) Synapse-Elemente. Diese kannst du weiterhin per IaC in Azure bereitstellen. Ein Beispiel: Du kannst einen Azure Data Lake Storage Gen2 mit Bicep anlegen und ihn anschließend als Speicher im Fabric-Workspace konfigurieren.</p>
<pre style="background-color: #f8f9fa; padding: 10px; border-radius: 5px; font-family: 'Consolas','Monaco', monospace; border: 1px solid #e9ecef; font-size: 0.9em;">resource storageAccount 'Microsoft.Storage/storageAccounts@2022-09-01' = {
  name: 'fabricstorage${uniqueString(resourceGroup().id)}'
  location: resourceGroup().location
  kind: 'StorageV2'
  sku: {
    name: 'Standard_LRS'
  }
  properties: {
    isHnsEnabled: true
  }
}
</pre>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Mehr zu Speicheroptionen in Fabric findest du auch in unserem Artikel zu<br />
<a href="https://arelium.de/speichermoeglichkeiten-in-fabric/">Speichermöglichkeiten in Fabric</a>.</p>
<h3 style="font-family: 'Lucida Sans Unicode','Lucida Grande', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323;">3. Data Pipelines und Dataflows</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Fabric Data Factory (vergleichbar mit Azure Data Factory) erlaubt es, Pipelines zu erstellen. Allerdings kannst du diese aktuell nicht vollständig per IaC aufsetzen. Es gibt aber Export/Import-Mechanismen. Du kannst eine Pipeline als JSON exportieren und dann über die API oder das Portal importieren. Das ist zwar nicht so elegant wie ein reines IaC-Deployment, aber immerhin reproduzierbar.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Was (noch) nicht möglich ist</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Hier kommen wir zum spannenden Teil, und vielleicht auch zu deinem größten Aha-Moment.</p>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">Fehlende API-Abdeckung</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Viele Fabric-spezifische Objekte wie Lakehouses, Warehouses oder Real-Time-Analytics-Knoten lassen sich derzeit nicht einfach per API oder Template erstellen. Zwar gibt es Ansätze über Microsoft Graph oder Power BI REST, doch die sind oft auf Metadaten beschränkt. Das heißt: Du kannst zwar sehen, welche Objekte existieren, aber nicht jedes davon per Code anlegen.</p>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">Komplettes „Greenfield“-Deployment</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Ein vollautomatisiertes Setup „von Null auf Fabric“ – also inklusive Kapazität, Workspaces, Datenobjekte, Pipelines und Sicherheitseinstellungen – ist Stand heute nicht möglich. Du wirst immer einen Teil manuell im Portal ergänzen müssen. Das ist ein klarer Unterschied zu Azure, wo du theoretisch eine komplette Umgebung mit einem einzigen Terraform-Apply hochziehen kannst.</p>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">Sicherheit und Governance</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Fabric bringt spannende Governance-Features, etwa über Microsoft Purview. Diese lassen sich über IaC nur eingeschränkt konfigurieren. Zwar kannst du Purview in Azure automatisieren (mehr dazu in unserem Beitrag <a href="https://arelium.de/microsoft-purview/">Microsoft Purview – Data Governance</a>), aber die Anbindung an Fabric muss aktuell noch manuell erfolgen.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Workarounds und Best Practices</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Nur weil nicht alles geht, heißt das nicht, dass du auf Automatisierung verzichten musst. Hier ein paar Ideen, wie du heute schon effizient arbeiten kannst:</p>
<ul style="margin-bottom: 20px; padding-left: 30px;">
<li style="margin-bottom: 8px; line-height: 1.6;"><strong style="color: #2c3e50; font-weight: 600;">Hybrid-Ansatz</strong>: Automatisiere alles, was in Azure geht, und kombiniere das mit Skripten für Fabric-Workspaces.</li>
<li style="margin-bottom: 8px; line-height: 1.6;"><strong style="color: #2c3e50; font-weight: 600;">Template-Libraries</strong>: Halte deine Pipeline- und Dataflow-Definitionen als JSON-Versionen vor, um sie bei Bedarf schnell wieder einzuspielen.</li>
<li style="margin-bottom: 8px; line-height: 1.6;"><strong style="color: #2c3e50; font-weight: 600;">API-Wrapper</strong>: Nutze eigene Skripte, die REST-Calls bündeln, um wiederkehrende Aufgaben zu vereinfachen.</li>
<li style="margin-bottom: 8px; line-height: 1.6;"><strong style="color: #2c3e50; font-weight: 600;">Dokumentation als Code</strong>: Auch wenn du manuell klickst, dokumentiere jeden Schritt in Markdown – so kannst du ihn später leichter automatisieren, wenn die API verfügbar wird.26.</li>
</ul>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Ausblick: Was Microsoft in Zukunft liefern könnte</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Microsoft entwickelt Fabric rasant weiter. Daher ist es vermutlich nur eine Frage der Zeit, bis wir mehr API-Endpunkte und IaC-Unterstützung sehen. Gerade die Integration mit Azure DevOps oder GitHub Actions für CI/CD-Deployments wäre ein Gamechanger. Wenn dich das Thema DevOps interessiert, schau dir auch unseren Artikel <a href="https://arelium.de/was-bedeutet-eigentlich-devops/">Was bedeutet eigentlich DevOps?</a> an.</p>
<figure></figure>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Schluss</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Unterm Strich lässt sich sagen: Mit Microsoft Fabric kannst du heute schon einen Teil deiner Infrastruktur per Code aufbauen. Vor allem in den Bereichen, in denen Fabric auf klassische Azure-Ressourcen setzt. Vollautomatisierte End-to-End-Deployments sind jedoch noch nicht drin, da APIs und Templates fehlen. Aber genau hier liegt die Chance: Wer jetzt anfängt, erste Automatisierungen aufzubauen, ist bereit, sobald Microsoft die fehlenden Puzzlestücke liefert.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Call-to-Action</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Wenn du direkt loslegen willst, schnapp dir ein paar Azure-Bicep-Templates und bau die Grundinfrastruktur für deine Fabric-Projekte. Experimentiere mit der Power BI REST API für Workspaces und teste den Import/Export von Pipelines. Schau auch in unseren Beitrag <a href="https://arelium.de/security-in-microsoft-fabric/">Security in Microsoft Fabric</a> rein, um deine Deployments von Anfang an sicher zu gestalten.</p>
</div>
<p>Der Beitrag <a href="https://arelium.de/infrastructure-as-code-mit-microsoft-fabric-und-azure/">Infrastructure as Code mit Microsoft Fabric und Azure</a> erschien zuerst auf <a href="https://arelium.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://arelium.de/infrastructure-as-code-mit-microsoft-fabric-und-azure/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Cloud-Datenbanken – Dein Guide zu den besten Optionen in Azure</title>
		<link>https://arelium.de/cloud-datenbanken/</link>
		
		<dc:creator><![CDATA[Thomas Sobizack]]></dc:creator>
		<pubDate>Fri, 16 May 2025 09:47:17 +0000</pubDate>
				<category><![CDATA[Architektur]]></category>
		<category><![CDATA[Azure]]></category>
		<category><![CDATA[Blog]]></category>
		<category><![CDATA[Cloud]]></category>
		<category><![CDATA[Data Engineering]]></category>
		<category><![CDATA[Datenbank]]></category>
		<category><![CDATA[Business Intelligence]]></category>
		<guid isPermaLink="false">https://arelium.de/?page_id=21012</guid>

					<description><![CDATA[<p>Der Beitrag <a href="https://arelium.de/cloud-datenbanken/">Cloud-Datenbanken – Dein Guide zu den besten Optionen in Azure</a> erschien zuerst auf <a href="https://arelium.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></description>
										<content:encoded><![CDATA[<section class="l-section wpb_row height_auto"><div class="l-section-h i-cf"><div class="g-cols vc_row via_grid cols_1 laptops-cols_inherit tablets-cols_inherit mobiles-cols_1 valign_top type_default stacking_default"><div class="wpb_column vc_column_container"><div class="vc_column-inner"><div class="wpb_text_column"><div class="wpb_wrapper"><figure id="attachment_21033" aria-describedby="caption-attachment-21033" style="width: 300px" class="wp-caption alignright"><img loading="lazy" decoding="async" class="size-medium wp-image-21033" src="https://arelium.de/wp-content/uploads/2025/04/Azure-Datenbanken-300x300.jpg" alt="Azure-Datenbanken" width="300" height="300" srcset="https://arelium.de/wp-content/uploads/2025/04/Azure-Datenbanken-300x300.jpg 300w, https://arelium.de/wp-content/uploads/2025/04/Azure-Datenbanken-150x150.jpg 150w, https://arelium.de/wp-content/uploads/2025/04/Azure-Datenbanken-400x400.jpg 400w, https://arelium.de/wp-content/uploads/2025/04/Azure-Datenbanken-800x800.jpg 800w, https://arelium.de/wp-content/uploads/2025/04/Azure-Datenbanken.jpg 1024w" sizes="auto, (max-width: 300px) 100vw, 300px" /><figcaption id="caption-attachment-21033" class="wp-caption-text">Azure-Datenbanken</figcaption></figure>
<p>In unserer schnelllebigen und mobilen Welt sind <strong>Cloud-Datenbanken</strong> das Herzstück moderner IT-Architekturen. Egal ob für Webanwendungen, Analysen, IoT- Szenarien oder unternehmenskritische Systeme – Microsoft bietet in seiner Cloud-Umgebung Azure eine breite Palette an Datenbankdiensten. Versprochen, hier findest du für jede Anforderung die perfekte Lösung!</p>
<p>In diesem Beitrag bekommst du einen Überblick über die wichtigsten Azure-Datenbanken, ihre Anwendungsfälle und Vorteile.</p>
</div></div><div class="w-separator size_medium"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3><strong>Azure SQL-Datenbank <span style="color: #ffffff;">(Cloud-Datenbanken)</span></strong></h3>
<p>Die <strong>Azure SQL-Datenbank</strong> ist Microsofts vollständig verwaltete relationale Cloud-Datenbank, die auf dem SQL Server basiert.<br data-start="296" data-end="299" />Sie eignet sich besonders für moderne Cloud-Anwendungen, die sowohl Zuverlässigkeit als auch Skalierbarkeit erfordern, und das bei minimalem Wartungsaufwand.<br data-start="468" data-end="471" />Zudem profitiert man von automatischem Performance-Tuning, regelmäßigen Sicherheitsupdates sowie integrierter Hochverfügbarkeit, wodurch sie ideal für Entwickler ist, die sich nicht mit der zugrunde liegenden Infrastruktur beschäftigen wollen.</p>
<h4><strong>Merkmale:</strong></h4>
<ul>
<li>Vollständig verwaltet (PaaS)</li>
<li>Automatische Backups</li>
<li>Nahezu unbegrenzte Skalierung</li>
<li>Hochverfügbarkeit</li>
<li>Verschiedene Bereitstellungsmodelle: Single Database, Elastic Pool, Hyperscale</li>
</ul>
<h4><strong>Einsatzszenarien:</strong></h4>
<ul>
<li>Webanwendungen</li>
<li>SaaS-Plattformen</li>
<li>Unternehmensdatenbanken mit kleinen bis hohen Anforderungen</li>
</ul>
</div></div><div class="w-separator size_medium"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3><strong>Azure Cosmos DB <span style="color: #ffffff;">Cloud-Datenbanken</span></strong></h3>
<p class="" data-start="122" data-end="728">Bei der <strong>Azure Cosmos DB</strong> handelt es sich um Microsofts hoch skalierbare, global verteilte <strong>NoSQL-Datenbank</strong>, die speziell für Anwendungen entwickelt wurde, die sowohl eine niedrige Latenz als auch eine hohe Verfügbarkeit erfordern. Weil sie verschiedene APIs wie MongoDB oder Cassandra unterstützt, lässt sie sich flexibel in bestehende Systeme integrieren, sodass Entwickler je nach Bedarf auf vertraute Technologien zurückgreifen können.<br data-start="584" data-end="587" />Zudem ermöglicht die weltweite Verteilung der Daten eine konsistente Nutzererfahrung – unabhängig davon, wo sich die Nutzer befinden.</p>
<h4><strong>Merkmale:</strong></h4>
<figure id="attachment_21149" aria-describedby="caption-attachment-21149" style="width: 300px" class="wp-caption alignright"><img loading="lazy" decoding="async" class="size-medium wp-image-21149" src="https://arelium.de/wp-content/uploads/2025/05/Verschiedene-Azure-Datenbanken-300x300.jpg" alt="" width="300" height="300" srcset="https://arelium.de/wp-content/uploads/2025/05/Verschiedene-Azure-Datenbanken-300x300.jpg 300w, https://arelium.de/wp-content/uploads/2025/05/Verschiedene-Azure-Datenbanken-150x150.jpg 150w, https://arelium.de/wp-content/uploads/2025/05/Verschiedene-Azure-Datenbanken-400x400.jpg 400w, https://arelium.de/wp-content/uploads/2025/05/Verschiedene-Azure-Datenbanken-800x800.jpg 800w, https://arelium.de/wp-content/uploads/2025/05/Verschiedene-Azure-Datenbanken.jpg 1024w" sizes="auto, (max-width: 300px) 100vw, 300px" /><figcaption id="caption-attachment-21149" class="wp-caption-text">Es gibt ganz viele Datenbank-Typen in Microsoft Azure!</figcaption></figure>
<ul>
<li>Unterstützung verschiedener APIs: SQL (DocumentDB), MongoDB, Cassandra, Gremlin, Table</li>
<li>Niedrige Latenz bei Lese- und Schreiboperationen</li>
<li>Globale Verteilung und Echtzeit-Replikation</li>
</ul>
<h4><strong>Einsatzszenarien:</strong></h4>
<ul>
<li>Globale Web- oder Mobilanwendungen</li>
<li>IoT-Anwendungen</li>
<li>E-Commerce und Echtzeitanalysen</li>
</ul>
<h3></h3>
</div></div><div class="w-separator size_medium"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3><strong>Azure-Datenbank für PostgreSQL</strong></h3>
<p>Die <strong>Azure-Datenbank für PostgreSQL</strong> bietet eine vollständig verwaltete PostgreSQL-Umgebung auf Azure, wodurch sie ideal für Standardanwendungen sowie für <strong>hochskalierende</strong> Datenverarbeitung ist. Da <strong>PostgreSQL</strong> ein beliebtes Open-Source-Datenbanksystem mit einer großen Community ist, profitieren Nutzer von kontinuierlicher Weiterentwicklung und einer umfangreichen Unterstützung durch die Community.</p>
<h4><strong>Merkmale:</strong></h4>
<ul>
<li>Open-Source</li>
<li>Hochverfügbarkeit mit Zonen-Redundanz</li>
<li>Skalierbare Leistung und Speicher</li>
<li>Unterstützung von Citus (massiv parallele Verteilung)</li>
</ul>
<h4><strong>Einsatzszenarien:</strong></h4>
<ul>
<li>Geodatenverarbeitung (GIS)</li>
<li>Analyse- und Reporting-Szenarien</li>
</ul>
<h3></h3>
</div></div><div class="w-separator size_medium"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3><strong>Azure-Datenbank für MySQL</strong></h3>
<figure id="attachment_21156" aria-describedby="caption-attachment-21156" style="width: 255px" class="wp-caption alignleft"><img loading="lazy" decoding="async" class=" wp-image-21156" src="https://arelium.de/wp-content/uploads/2025/05/Komplexe-Datenbank-300x300.jpg" alt="" width="255" height="255" srcset="https://arelium.de/wp-content/uploads/2025/05/Komplexe-Datenbank-300x300.jpg 300w, https://arelium.de/wp-content/uploads/2025/05/Komplexe-Datenbank-150x150.jpg 150w, https://arelium.de/wp-content/uploads/2025/05/Komplexe-Datenbank-400x400.jpg 400w, https://arelium.de/wp-content/uploads/2025/05/Komplexe-Datenbank-800x800.jpg 800w, https://arelium.de/wp-content/uploads/2025/05/Komplexe-Datenbank.jpg 1024w" sizes="auto, (max-width: 255px) 100vw, 255px" /><figcaption id="caption-attachment-21156" class="wp-caption-text">Microsoft Azure Datenbank</figcaption></figure>
<p>Auch für<strong> MySQL</strong> bietet <strong>Azure</strong> einen vollständig verwalteten Dienst, der sich insbesondere auf die Themen Einfachheit, Sicherheit und Skalierbarkeit fokussiert.</p>
<p><br data-start="286" data-end="289" />Da MySQL im <strong>Webbereich besonders beliebt</strong> ist – insbesondere, wenn es um CMS- und E-Commerce-Systeme geht – findet es in diesen Bereichen eine entsprechend intensive Anwendung.</p>
<p>Somit eignet sich der <strong>Azure-Dienst</strong> ideal für Entwickler, die eine vertraute Datenbanktechnologie mit den Vorteilen einer Cloud-Plattform kombinieren möchten.</p>
<h4></h4>
<h4><strong>Merkmale:</strong></h4>
<ul>
<li>Kompatibel mit MySQL 5.7 und 8.0</li>
<li>Skalierbarkeit und automatische Patches</li>
<li>Flexible Server-Architektur mit mehr Kontrolle</li>
</ul>
<h4><strong>Einsatzszenarien:</strong></h4>
<ul>
<li>WordPress-Hosting</li>
<li>Webanwendungen kleiner bis mittlerer Größe</li>
</ul>
</div></div><div class="w-separator size_medium"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3><strong>Azure-Datenbank für MariaDB (Hinweis: wird eingestellt)</strong></h3>
<p>Bei<strong> Azure MariaDB</strong> handelt es sich um ein <strong>Fork</strong> (eine &#8222;Kopie&#8220; die unabhängig vom Original weiterentwickelt wurde) von MySQL das jedoch mit zusätzlichen Features ausgestattet ist. <strong>Microsoft stellt MariaDB jedoch </strong><strong>schrittweise ein</strong>. Bestehende Nutzer sollten zur Azure-Datenbank für MySQL oder einer VM (Virtuelle Maschine) -basierten Lösung migrieren.</p>
<h4><strong>Merkmale:</strong></h4>
<ul>
<li>Basiert auf MySQL</li>
<li>Integrierte Skalierung und Backup-Funktionen</li>
<li>Unterstützung für bekannte Tools</li>
</ul>
<h4><strong>Einsatzszenarien:</strong></h4>
<ul>
<li>Bestehende MariaDB-Anwendungen</li>
<li>Kleinere relationale Workloads</li>
<li>Web-Apps mit Open-Source-Stack</li>
</ul>
<h3></h3>
</div></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3><strong>Azure Synapse Analytics <span style="color: #ffffff;">(Cloud-Datenbanken)</span></strong></h3>
<p><strong data-start="151" data-end="281">Azure Synapse Analytics </strong>ist ein cloudbasierter Dienst, der Datenintegration, Big Data-Analyse und Data Warehousing kombiniert, wodurch eine umfassende Plattform für datengetriebene Anwendungen entsteht.<br data-start="361" data-end="364" />Synapse ermöglicht es, schnell Erkenntnisse aus großen Datenmengen zu gewinnen, indem es leistungsstarke Tools wie <strong>SQL</strong>, <strong>Apache Spark</strong> sowie den <strong>Data Explorer</strong> bereitstellt. Darüber hinaus kannst du mit Azure Synapse Daten aus verschiedenen Quellen integrieren, transformieren und analysieren, sodass du fundierte Entscheidungen auf Basis konsistenter und aktueller Informationen treffen kannst. Weil alle Komponenten eng miteinander verknüpft sind, lässt sich der gesamte Datenfluss effizient steuern und automatisieren. Für einen tieferen Einblick in Synapse empfehle ich den Beitrag meines Kollegen Tobias Adler: <a href="https://arelium.de/data-analytics-wiki/">Azure Synapse Analytics</a></p>
<h4><strong>Merkmale:</strong></h4>
<ul>
<li>T-SQL-basiertes MPP-Data Warehouse ( <strong data-start="18" data-end="51">Massively Parallel Processing)</strong></li>
<li>Integration mit Data Lake, Spark, Power BI</li>
<li>Serverless SQL und dedizierte Pools</li>
</ul>
<h4><strong>Einsatzszenarien:</strong></h4>
<ul>
<li>Datenanalyse</li>
<li>Echtzeitdatenintegration</li>
<li>Reporting und Business Intelligence</li>
</ul>
</div></div><div class="w-separator size_medium"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3><strong>Azure Data Explorer (Kusto) <span style="color: #ffffff;">Cloud-Datenbanken</span></strong></h3>
<p><strong>Azure Data Explorer (Kusto)</strong> ist eine leistungsstarke Datenanalyseplattform, die speziell für schnelle Abfragen auf großen Datensätzen entwickelt wurde.<br data-start="309" data-end="312" />Dabei nutzt die Plattform die <strong>Kusto Query Language (KQL)</strong> – eine Sprache, die nicht nur einfach zu erlernen, sondern auch sehr effizient ist (<strong><a href="https://arelium.de/sql-vs-kql/">hier</a></strong> findest du einen Vergleich zwischen <strong>SQL</strong> und <strong>KQL</strong>). Mit dem <strong>Azure Data Explorer</strong> kannst du Daten in Echtzeit verarbeiten und diese analysieren, wodurch er sich besonders für das Monitoring, die Sicherheitsanalyse sowie die Analyse von Nutzerverhalten eignet.<br data-start="737" data-end="740" />Außerdem integriert sich die Plattform nahtlos in andere Azure-Dienste wie Event Hubs, IoT Hub und Azure Monitor, sodass umfassende End-to-End-Szenarien realisierbar sind.</p>
<h4><strong>Merkmale:</strong></h4>
<ul>
<li>Kusto Query Language für große Datensätze</li>
<li>Echtzeitverarbeitung</li>
<li>Schnelle Abfragen über strukturierte und semi-strukturierte Daten</li>
</ul>
<h4><strong>Einsatzszenarien:</strong></h4>
<ul>
<li>Anwendungsüberwachung (App Insights)</li>
<li>IoT-Telemetrie</li>
<li>Security- und Log-Analytik</li>
</ul>
</div></div><div class="w-separator size_medium"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3><strong>SQL Server auf Azure Virtual Machines</strong></h3>
<p>Wenn du vollständige Kontrolle über deine Datenbankumgebung brauchst, dann ist der SQL Server auf Azure Virtual Machines eine gute Wahl. Diese IaaS-Option bietet eine Umgebung, die deiner On-Premises-Struktur gleicht und unterstützt alle SQL Server-Features.</p>
<h4><strong>Merkmale:</strong></h4>
<ul>
<li>Vollständige Admin-Kontrolle über Betriebssystem und SQL Server</li>
<li>Unterstützung aller SQL Server-Versionen</li>
<li>Integration in Azure Backup, Monitor etc.</li>
</ul>
<h4><strong>Einsatzszenarien:</strong></h4>
<ul>
<li>Legacy-Anwendungen</li>
<li>Komplexe SQL Server-Features (SSRS, SSIS)</li>
<li>Hybrid-Cloud-Szenarien</li>
</ul>
</div></div><div class="w-separator size_medium"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3><strong>Fazit: Welche Azure-Datenbank passt zu mir?</strong></h3>
<figure id="attachment_21150" aria-describedby="caption-attachment-21150" style="width: 300px" class="wp-caption alignleft"><img loading="lazy" decoding="async" class="size-medium wp-image-21150" src="https://arelium.de/wp-content/uploads/2025/05/Welche-Azure-Datenbank-soll-ich-nehmen-300x300.jpg" alt="" width="300" height="300" srcset="https://arelium.de/wp-content/uploads/2025/05/Welche-Azure-Datenbank-soll-ich-nehmen-300x300.jpg 300w, https://arelium.de/wp-content/uploads/2025/05/Welche-Azure-Datenbank-soll-ich-nehmen-150x150.jpg 150w, https://arelium.de/wp-content/uploads/2025/05/Welche-Azure-Datenbank-soll-ich-nehmen-400x400.jpg 400w, https://arelium.de/wp-content/uploads/2025/05/Welche-Azure-Datenbank-soll-ich-nehmen-800x800.jpg 800w, https://arelium.de/wp-content/uploads/2025/05/Welche-Azure-Datenbank-soll-ich-nehmen.jpg 1024w" sizes="auto, (max-width: 300px) 100vw, 300px" /><figcaption id="caption-attachment-21150" class="wp-caption-text">Welche Azure Datenbank soll ich nehmen?</figcaption></figure>
<p>Die Auswahl der passenden Cloud-Datenbank hängt von verschiedenen Faktoren ab. Dazu zählen zum Beispiel die Art der Anwendung, das Datenvolumen und die benötigte Geschwindigkeit. Auch Anforderungen an Sicherheit, Skalierbarkeit und Wartungsaufwand spielen eine wichtige Rolle.</p>
<h4>Je nach Einsatzzweck bieten sich unterschiedliche Azure SQL-Datenbanklösungen an:</h4>
<table>
<thead>
<tr>
<td><strong>Anforderung</strong></td>
<td><strong>Empfehlung</strong></td>
</tr>
</thead>
<tbody>
<tr>
<td>Relationale Web-App</td>
<td>Azure SQL-Datenbank</td>
</tr>
<tr>
<td>Migration von SQL Server</td>
<td>SQL Managed Instance oder Azure VM</td>
</tr>
<tr>
<td>Globale NoSQL-Anwendung</td>
<td>Azure Cosmos DB</td>
</tr>
<tr>
<td>Open-Source Stack (PostgreSQL)</td>
<td>Azure-Datenbank für PostgreSQL</td>
</tr>
<tr>
<td>Analytische Workloads</td>
<td>Azure Synapse Analytics</td>
</tr>
<tr>
<td>Log- und Telemetriedaten</td>
<td>Azure Data Explorer</td>
</tr>
</tbody>
</table>
</div></div><div class="w-separator size_medium"></div><div class="w-separator size_medium"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>Ganz gleich, ob du eine Beratung brauchst oder bereits konkrete Anforderungen hast – nimm einfach <a href="https://arelium.de/kontakt/">Kontakt</a> zu uns auf.</p>
<p>Wir von der <strong>arelium GmbH</strong> helfen dir gern.</p>
</div></div></div></div></div></div></section>
<p>Der Beitrag <a href="https://arelium.de/cloud-datenbanken/">Cloud-Datenbanken – Dein Guide zu den besten Optionen in Azure</a> erschien zuerst auf <a href="https://arelium.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Verkaufsanalyse mit Microsoft Fabric</title>
		<link>https://arelium.de/verkaufsanalyse-mit-microsoft-fabric/</link>
		
		<dc:creator><![CDATA[Thomas Sobizack]]></dc:creator>
		<pubDate>Wed, 19 Mar 2025 09:38:33 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[Cloud]]></category>
		<category><![CDATA[Microsoft Fabric]]></category>
		<category><![CDATA[OneLake]]></category>
		<category><![CDATA[Power BI]]></category>
		<category><![CDATA[Business Intelligence]]></category>
		<category><![CDATA[Controlling]]></category>
		<category><![CDATA[Datengetrieben]]></category>
		<guid isPermaLink="false">https://arelium.de/?page_id=20850</guid>

					<description><![CDATA[<p>Mit Fabric stellt Microsoft eine kontinuierlich weiterentwickelte, einheitliche Plattform bereit, die Datenintegration, Datenverarbeitung und Datenanalyse nahtlos verbindet. Die Verkaufsanalyse mit <a class="glossaryLink" aria-describedby="tt" data-cmtooltip="&#60;div class=glossaryItemTitle&#62;Microsoft Fabric&#60;/div&#62;&#60;div class=glossaryItemBody&#62;&#38;lt;img class=&#38;quot; wp-image-23172&#38;quot; src=&#38;quot;https://arelium.de/wp-content/uploads/2026/03/Glossarbilder1-300x92.png&#38;quot; alt=&#38;quot;&#38;quot; width=&#38;quot;1388&#38;quot; height=&#38;quot;426&#38;quot; /&#38;gt;&#38;lt;span role=&#38;quot;text&#38;quot;&#38;gt;&#38;lt;strong data-start=&#38;quot;1069&#38;quot; data-end=&#38;quot;1125&#38;quot;&#38;gt;Was ist Microsoft Fabric? &#38;lt;/strong&#38;gt;&#38;lt;/span&#38;gt;&#38;lt;span role=&#38;quot;text&#38;quot;&#38;gt;&#38;lt;strong data-start=&#38;quot;1069&#38;quot; data-end=&#38;quot;1125&#38;quot;&#38;gt;Definition, Funktionen und Aufbau&#38;lt;/strong&#38;gt;&#38;lt;/span&#38;gt;Microsoft Fabric ist eine cloudbasierte All-in-One-Datenplattform von Microsoft, die(...)&#60;/div&#62;" href="https://arelium.de/glossar/microsoft-fabric/" target="_blank" data-gt-translate-attributes='[{"attribute":"data-cmtooltip", "format":"html"}]' tabindex="0" role="link">Microsoft Fabric</a> stelle ich dir an einem Beispiel vor. Datengetriebene Welt In der datengetriebenen Welt ist eine effiziente Analyse der Verkaufszahlen und auch der Lagerbest&#228;nde entscheidend. Dies ist f&#252;r den Unternehmenserfolg unerl&#228;sslich. Unser Kunde aus...</p>
<p>Der Beitrag <a href="https://arelium.de/verkaufsanalyse-mit-microsoft-fabric/">Verkaufsanalyse mit Microsoft Fabric</a> erschien zuerst auf <a href="https://arelium.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Mit <strong>Fabric</strong> stellt Microsoft eine kontinuierlich weiterentwickelte, einheitliche Plattform bereit, die <strong>Dateninteg</strong><strong>ration</strong>, <strong>Datenverarbeitung</strong> und <strong>Datenanalyse</strong> nahtlos verbindet. Die Verkaufsanalyse mit Microsoft Fabric stelle ich dir an einem Beispiel vor.</p>
<h2><strong>Datengetriebene Welt</strong></h2>
<p>In der <strong>datengetriebenen Welt</strong> ist eine effiziente Analyse der Verkaufszahlen und auch der Lagerbestände entscheidend. Dies ist für den Unternehmenserfolg unerlässlich. Unser Kunde aus dem Handel hat mit uns eine Analyseplattform für die visuelle Aufbereitung seiner Verkaufsbestände entwickelt.</p>
<p>Sein Ziel bestand in der Verbesserung der Umsätze und in der Vorhersage von Nachfrageschwankungen. Gleichzeitig erreichten wir eine Optimierung der Lagerbestände.</p>
<h2><strong>Herausforderungen in der Verkaufs- und Lageranalyse</strong></h2>
<p>In den folgenden Zeilen zeige ich anhand unseres Kundenbeispiels, wie unser Einzelhändler <strong>Microsoft Fabric </strong>für Data Analytics benutzt.</p>
<figure id="attachment_20949" aria-describedby="caption-attachment-20949" style="width: 490px" class="wp-caption aligncenter"><img loading="lazy" decoding="async" class=" wp-image-20949" src="https://arelium.de/wp-content/uploads/2025/03/VerkaufsanalyseMitFabric.webp" alt="Tante Emma Laden mit Data Analytics" width="490" height="490" srcset="https://arelium.de/wp-content/uploads/2025/03/VerkaufsanalyseMitFabric.webp 1024w, https://arelium.de/wp-content/uploads/2025/03/VerkaufsanalyseMitFabric-300x300.webp 300w, https://arelium.de/wp-content/uploads/2025/03/VerkaufsanalyseMitFabric-150x150.webp 150w, https://arelium.de/wp-content/uploads/2025/03/VerkaufsanalyseMitFabric-400x400.webp 400w, https://arelium.de/wp-content/uploads/2025/03/VerkaufsanalyseMitFabric-800x800.webp 800w" sizes="auto, (max-width: 490px) 100vw, 490px" /><figcaption id="caption-attachment-20949" class="wp-caption-text">Tante Emma Laden mit Microsoft Fabric für Verkaufsanalyse</figcaption></figure>
<p>&nbsp;</p>
<p>Dabei steht der Unternehmer mit mehreren Filialen und einem Online-Shop vor verschiedenen Herausforderungen:</p>
<ul>
<li>Die zur Verfügung stehenden Daten stammen aus unterschiedlichsten Quellen: POS-Systeme, Lieferantendaten und IoT-Sensoren (zum Beispiel Temperaturmessung).</li>
<li>In den meisten Fällen haben die Unternehmen eine Verzögerung bei den Bestandsupdates, die zu Engpässen oder Überbeständen führen können.</li>
<li>Echtzeit-Analysen sind nicht möglich. Daher ist eine schnelle Reaktion auf Marktveränderungen nicht möglich.</li>
</ul>
<p>Wir haben unserem Kunden <a href="/microsoft-fabric/"><strong>Microsoft Fabric</strong></a> empfohlen. Damit hat er seine Probleme auf eine vernünftige Art und Weise in den Griff bekommen. Das Interessante daran ist, dass dies alles auf einer <strong>einzigen Plattform</strong> umsetzbar ist.</p>
<h2><strong>Betrachtung der vorhandenen Daten</strong></h2>
<p>Unser Einzelhändler bekommt die Daten aus den folgenden Systemen:</p>
<ul>
<li>Die <strong>Verkaufsdaten</strong> aus den Filialen, sowie aus dem Online-Shop werden in einer SQL-Datenbank in Azure gehalten.</li>
<li>Die <strong>Lieferantendaten</strong> werden über eine SFTP-Schnittstelle als CSV-Dateien zur Verfügung gestellt.</li>
<li>Die verschiedenen <strong>Temperaturdaten</strong> und <strong>Feuchtigkeitsdaten</strong> in den Lagern und Verkaufsräumen werden von IoT-Sensoren erfasst und bereitgestellt.</li>
</ul>
<h2><strong>Datenintegration mit Microsoft Fabric</strong></h2>
<p>Der Einzelhändler hat die <strong>arelium GmbH</strong> um Unterstützung gebeten. Unser Team hat gemeinsam mit ihm die folgende Lösung als die für ihn Beste herausgearbeitet:</p>
<ul>
<li>Das Beladen mit <strong>SQL</strong> und <strong>CSV-Dateien</strong> erfolgt vollständig automatisiert mit einer <strong>Data Factory Pipeline</strong>. Dabei speichert die Pipeline die Daten in einem OneLake.
<ul>
<li>Eine <strong>Azure Data Factory Pipeline</strong> ist eine Pipeline mit der Daten aus verschiedenen Quellen extrahiert, transformiert und anschließend in ein Zielsystem geladen werden können (ETL/ELT). Dabei gibt es Aktivitäten wie Kopiervorgang, Datentransformation oder Skriptausführung. Trigger oder Zeitpläne können diese automatisch ausführen.</li>
<li>Ein <strong>OneLake</strong> ist ein zentrales Datenspeicher- und Managementsystem innerhalb von <strong>Microsoft Fabric</strong>, das sich wie ein „OneDrive für Daten“ verhält. Es ermöglicht die einfache Speicherung und den Zugriff auf Daten aus verschiedenen Fabric-Analyse-Services. Durch die Verwendung des optimierten Delta-Parquet-Formats kann direkt auf integrierte Analyse-Engines zugegriffen werden.</li>
</ul>
</li>
<li><strong>Event Streams</strong> erfassen Sensordaten in Echtzeit und speichern diese im Lakehouse.
<ul>
<li>Ein <strong>Event Stream</strong> ist eine kontinuierliche Abfolge von Events (Ereignissen), die nahezu in Echtzeit erfasst, verarbeitet und analysiert werden. Diese Events aus verschiedenen Quellen stammen beispielsweise aus <strong>IoT-Sensoren</strong>, <strong>Logs</strong> oder <strong>Benutzerinteraktionen</strong>.</li>
</ul>
</li>
<li>Alle Komponenten sind <strong>Microsoft Fabric </strong>Bestandteile.</li>
</ul>
<h2><strong>Datenanalyse mit Microsoft Fabric</strong></h2>
<p>Für die Analyse und Verarbeitung der Daten bietet es sich an, die verfügbaren Daten mittels Notebooks zu bereinigen und zu aggregieren.</p>
<p>Ein <strong>Notebook</strong> ist eine interaktive Umgebung zur Datenverarbeitung, die Code, Text und Visualisierungen in einer Komponente kombiniert. Dabei wird eine Vielzahl an Sprachen wie <strong>PySpark</strong>, <strong>SQL</strong> und <strong>SparkR</strong> unterstützt. Notebooks sind tief in die Fabric-Datenarchitektur integriert. Nutzer können damit große Datenmengen analysieren, Transformationen durchführen und maschinelles Lernen anwenden, indem sie direkt auf den OneLake oder andere Fabric-Dienste zugreifen.</p>
<p>Anschließend werden die Daten in einem <a href="/schneller-zum-data-warehouse-cloud/"><strong>Data Warehouse oder Data Lake</strong></a> für schnelle SQL-Abfragen zur Verfügung gestellt.</p>
<p>Ein <strong>Data Warehouse</strong> ist eine zentrale, für die Speicherung und Analyse großer Mengen an strukturierten Daten optimierte Datenbank. Hier werden Daten aus verschiedenen Quellen integriert. Die Inhalte können für Berichte, Analysen und Business Intelligence bereitgestellt werden. Moderne Cloud-Data-Warehouses, wie das <strong>Microsoft Fabric Data Warehouse</strong>, bieten eine skalierbare Leistung und eine perfekte nahtlose Integration.</p>
<p>Bei der Auswertung der Fragen ergeben sich für den Geschäftsführer die typischen Fragen wie:</p>
<ul>
<li>Welche <strong>Produkte</strong> werden in welcher Filiale am besten verkauft?</li>
<li>Welche <strong>saisonalen Änderungen</strong> an der Produktnachfrage gibt es?</li>
<li>Gibt es Lagerbedingungen, die zu <strong>Warenverlusten</strong> führen?</li>
</ul>
<p>Bei der Beantwortung der Fragen können in <strong>Microsoft Fabric</strong> die verschiedensten Komponenten unterstützend für Data Analytics eingesetzt werden.</p>
<p>Nach einem intensiven Austausch mit unseren Beratern hat sich unser Kunde dazu entschieden, AutoML für die KI-gestützte Analyse der Daten zu verwenden. Dadurch ist es möglich Absatzprognosen basierend auf historischen Daten vorherzusagen.</p>
<figure id="attachment_20950" aria-describedby="caption-attachment-20950" style="width: 526px" class="wp-caption alignright"><img loading="lazy" decoding="async" class=" wp-image-20950" src="https://arelium.de/wp-content/uploads/2025/03/VerkaufsanalyseMitPowerBI.png" alt="Power bietet komfortable Möglichkeiten für die Verkaufsanalyse" width="526" height="518" srcset="https://arelium.de/wp-content/uploads/2025/03/VerkaufsanalyseMitPowerBI.png 578w, https://arelium.de/wp-content/uploads/2025/03/VerkaufsanalyseMitPowerBI-300x295.png 300w, https://arelium.de/wp-content/uploads/2025/03/VerkaufsanalyseMitPowerBI-406x400.png 406w" sizes="auto, (max-width: 526px) 100vw, 526px" /><figcaption id="caption-attachment-20950" class="wp-caption-text"><a href="https://learn.microsoft.com/de-de/power-bi/create-reports/sample-customer-profitability">Verkaufsanalyse Mit Power BI</a></figcaption></figure>
<h2><strong>Visualisierung und Reporting mit Power BI</strong></h2>
<p>Auch beim Visualisieren und beim Reporting bietet <strong>Microsoft Fabric</strong> durch die Integration von <strong>Power BI</strong> eine hervorragende Lösung. Mein Kollege Joel Galla hat in einem <a href="/power-bi/">ausführlichen Beitrag</a> aufgezeigt, was Power BI auszeichnet.</p>
<h2><strong>Fazit: Warum setze ich auf Microsoft Fabric?</strong></h2>
<p><strong>Microsoft Fabric</strong> bietet dir eine hervorragende End-to-End-Lösung für die Datenanalyse. Mit <strong>Fabric</strong> kann unser Einzelhändler Auswertungen fahren. Diese ermöglichen ihm Bestellungen zu optimieren, Lagerkosten zu senken und seine Umsätze zu steigern. Dazu braucht er nicht mehr verschiedene Plattformen einzusetzen.</p>
<p>Falls du tiefer in das Thema <strong>Microsoft Fabric</strong> eintauchen möchtest, schau dir einfach die anderen Blog-Beiträge an, die meine Kollegen und ich für euch zur Verfügung stellen.</p>
<p>Sprich uns gerne direkt an. Wir bei der <strong>arelium GmbH</strong> unterstützen dich gerne bei deinen Vorhaben und Projekten.</p>
<p>Der Beitrag <a href="https://arelium.de/verkaufsanalyse-mit-microsoft-fabric/">Verkaufsanalyse mit Microsoft Fabric</a> erschien zuerst auf <a href="https://arelium.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Datengetriebenes Controlling</title>
		<link>https://arelium.de/datengetriebenes-controlling/</link>
					<comments>https://arelium.de/datengetriebenes-controlling/#respond</comments>
		
		<dc:creator><![CDATA[Martin Kopp]]></dc:creator>
		<pubDate>Thu, 13 Mar 2025 13:08:36 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[Cloud]]></category>
		<category><![CDATA[Controlling]]></category>
		<category><![CDATA[Data Analytics]]></category>
		<category><![CDATA[Data Engineering]]></category>
		<category><![CDATA[Datengetrieben]]></category>
		<category><![CDATA[Microsoft Fabric]]></category>
		<guid isPermaLink="false">https://arelium.de/?p=20810</guid>

					<description><![CDATA[<p>Datengetriebenes Controlling: Von der Zahlenflut zur fundierten Entscheidung So war das mal In meinem Studium der Wirtschaftsinformatik hatte ich den betriebswirtschaftlichen Schwerpunkt Controlling. Damals war der Lehrstuhl an der Uni K&#246;ln ganz neu. Heute kaum vorstellbar, dass es den nicht schon viel fr&#252;her gegeben hat. In meinem Studium standen Ans&#228;tze wie Shareholder Value im Vordergrund....</p>
<p>Der Beitrag <a href="https://arelium.de/datengetriebenes-controlling/">Datengetriebenes Controlling</a> erschien zuerst auf <a href="https://arelium.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h2>Datengetriebenes Controlling: Von der Zahlenflut zur fundierten Entscheidung</h2>
<h3>So war das mal</h3>
<p>In meinem Studium der Wirtschaftsinformatik hatte ich den betriebswirtschaftlichen Schwerpunkt Controlling. Damals war der Lehrstuhl an der Uni Köln ganz neu. Heute kaum vorstellbar, dass es den nicht schon viel früher gegeben hat. In meinem Studium standen Ansätze wie <a href="https://en.wikipedia.org/wiki/Shareholder_value">Shareholder Value</a> im Vordergrund. Aber natürlich war die Interne Rechnungslegung auch ein großer Teil der Vorlesungen. Es gab aber auch schon sehr viele Kennzahlen, die für den Controller interessant waren: Return on Investment, Cash Flow, &#8230; oder <a href="https://en.wikipedia.org/wiki/Economic_value_added">Economic Value Added (EVA)</a>. Gerade der letzte Ansatz ist schon sehr mathematisch. Nicht kompliziert zu berechnen, aber doch mit einer Menge an Kennzahlen, die man berechnen kann. Fast alle Kennzahlen schauen dabei in die Vergangenheit. Wurden Budgets eingehalten, stimmt die Buchhaltung, haben wir Ziele erreicht etc.</p>
<h3>Und woher kommen die Zahlen?</h3>
<p>Ich habe mich damals schon gefragt, wo alle die Werte herkommen sollen, die in die Formeln einfließen. Später habe ich in der Praxis gelernt, dass es die Kennzahlen überall gibt, aber diese tatsächlich oft viel Arbeit mit sich bringen. Die Arbeit besteht dann meist aus Excel, Excel und noch ein wenig Data Warehouse mit Excel. Kann man so machen. Ist aber doch sehr fehleranfällig und ein echter Zeitfresser. Ein Blick in die Zukunft fällt da meist vollkommen herunter. Dabei ist doch gerade das so wichtig. Die Vergangenheit hilft mir nicht mehr. Ich will doch vorher schon steuernd eingreifen können.</p>
<p><img loading="lazy" decoding="async" class="wp-image-20816 alignright" src="https://arelium.de/wp-content/uploads/2025/02/Datengetriebenes_Controlling_Personen.png" alt="" width="728" height="485" srcset="https://arelium.de/wp-content/uploads/2025/02/Datengetriebenes_Controlling_Personen.png 1152w, https://arelium.de/wp-content/uploads/2025/02/Datengetriebenes_Controlling_Personen-300x200.png 300w, https://arelium.de/wp-content/uploads/2025/02/Datengetriebenes_Controlling_Personen-1024x683.png 1024w, https://arelium.de/wp-content/uploads/2025/02/Datengetriebenes_Controlling_Personen-600x400.png 600w" sizes="auto, (max-width: 728px) 100vw, 728px" /></p>
<p>An meiner Vorgeschichte kannst du schon erkennen, wohin ein datengetriebenes Controlling gehen soll. Heute reicht es einfach nicht mehr, nur zu wissen, was letzte Woche oder letzten Monat passiert ist. Unternehmen erwarten, dass das Controlling Entwicklungen proaktiv erkennt, Zusammenhänge aufzeigt und konkrete Handlungsempfehlungen liefert. Kurz gesagt: Es geht nicht mehr nur um Berichte, sondern um Entscheidungen. Wie komme ich aber dahin?</p>
<h3>Von der Rückschau zur Steuerung in Echtzeit</h3>
<p>Die größte Veränderung im Controlling der letzten Jahre liegt in der Art und Weise, wie mit Daten gearbeitet wird. Statt einmal im Monat einen Report zu erstellen, geht es darum, laufend relevante Kennzahlen im Blick zu haben und die richtigen Maßnahmen frühzeitig einzuleiten. Das war schon immer die Idee vom Controlling. Nur kommt es meist nicht dazu, eben weil sich Controller mit Kennzahlen, der Aufbereitung und der Vergangenheit beschäftigen.</p>
<h3>Datengetriebenes Controlling</h3>
<p>Genau hier kommt das datengetriebene Controlling. Weniger manuelle Datenauswertung, mehr Automatisierung – Routinetätigkeiten werden reduziert, sodass mehr Zeit für Analysen bleibt. Von statischen Reports zu dynamischen Dashboards – anstatt lange Tabellen zu durchforsten, lassen sich Daten flexibel visualisieren. Bessere Vorhersagen statt reiner Vergangenheitsanalysen – Künstliche Intelligenz und Algorithmen helfen, Muster zu erkennen und Entwicklungen zu prognostizieren. Echtzeit-Informationen statt Monatsberichte. Am Ende können Unternehmen schneller auf Veränderungen reagieren. Das hört ich alles toll an und sollte jeden Unternehmer dazu bringen sich mit dem Thema zu beschäftigen. Nur die meisten tun sich schwer, datengetrieben zu arbeiten. Meist liegt es an den folgenden Hürden:</p>
<ul>
<li><strong>Datensilos und fragmentierte Systeme</strong><br />
Viele Unternehmen haben Daten in unterschiedlichen Systemen (ERP, CRM, Buchhaltung, Produktion, Lagerverwaltung). Diese Daten sind oft nicht miteinander verknüpft und erschweren eine ganzheitliche Analyse. Viele haben natürlich ein Data Warehouse, aber das ist oft nicht komplett oder übergreifend oder es fehlen einfach immer wieder wichtige Informationen.</li>
<li><strong>Mangelnde Datenqualität</strong><br />
Fehlerhafte oder unvollständige Daten führen zu falschen Analysen. Häufig fehlen klare Prozesse zur Datenpflege, was den Wert der Analysen mindert.</li>
<li><strong>Komplexe IT-Infrastrukturen</strong><br />
Viele Unternehmen nutzen gewachsene Systeme, die nicht flexibel genug sind, um moderne Analysemethoden zu unterstützen.</li>
<li><strong>Fehlendes Know-how und Akzeptanz im Unternehmen</strong><br />
Datengetriebenes Arbeiten erfordert neue Kompetenzen – sowohl im Controlling als auch in den Fachbereichen. Oft fehlt das Wissen, wie man Daten effizient nutzt, oder die Bereitschaft, neue Tools einzusetzen.</li>
</ul>
<h3>Microsoft Fabric als Lösungsansatz</h3>
<p>Natürlich kann ein Tool alleine hier keine Wunder wirken. Es kann aber sehr wohl dabei helfen. Du benötigst eine Plattform, die Daten aus verschiedenen Quellen zusammenführt, automatisiert verarbeitet und einfach analysierbar macht. Microsoft Fabric ist ein Lösungsansatz, der genau hier ansetzt.</p>
<p>Anders als klassische BI-Systeme vereint Fabric Datenintegration, Analyse, Automatisierung und KI-gestützte Prognosen in einer zentralen Umgebung. Und genau hier arbeitet es an den Hürden aus dem letzten Abschnitt.</p>
<p>Das bedeutet:</p>
<ul>
<li>Alle Daten an einem Ort: Verknüpfung von ERP, CRM, Buchhaltung, Supply Chain und weiteren Systemen.</li>
<li>Echtzeit-Dashboards mit Power BI: Controlling kann aktuelle Entwicklungen jederzeit verfolgen und gezielt analysieren.</li>
<li>Automatisierte Datenverarbeitung: Routineaufgaben wie die Zusammenführung und Bereinigung von Daten laufen automatisch.</li>
<li>KI-gestützte Prognosen: Statt nur rückblickend zu analysieren, lassen sich Wahrscheinlichkeiten und Entwicklungen berechnen.</li>
</ul>
<p>Mit einem datengetriebenen Ansatz kann dein Unternehmen:</p>
<ul>
<li>Daten aus Einkauf, Lager und Produktion in Echtzeit zusammenführen.</li>
<li>Preisentwicklungen analysieren und Muster erkennen.</li>
<li>Prognosen für zukünftige Kostensteigerungen erhalten.</li>
<li>Frühzeitig alternative Lieferanten oder Einsparpotenziale identifizieren.</li>
</ul>
<p>Durch den Einsatz von Fabric lassen sich diese Schritte automatisieren und visuell in Power BI-Dashboards darstellen, sodass die Unternehmenssteuerung nicht im Nachgang reagieren muss, sondern vorausschauend handeln kann.</p>
<p><img loading="lazy" decoding="async" class="wp-image-20812 alignright" src="https://arelium.de/wp-content/uploads/2025/02/Datengetriebenes_Controlliing.png" alt="Datengetriebenes Controlling" width="493" height="493" srcset="https://arelium.de/wp-content/uploads/2025/02/Datengetriebenes_Controlliing.png 1024w, https://arelium.de/wp-content/uploads/2025/02/Datengetriebenes_Controlliing-300x300.png 300w, https://arelium.de/wp-content/uploads/2025/02/Datengetriebenes_Controlliing-150x150.png 150w, https://arelium.de/wp-content/uploads/2025/02/Datengetriebenes_Controlliing-400x400.png 400w, https://arelium.de/wp-content/uploads/2025/02/Datengetriebenes_Controlliing-800x800.png 800w" sizes="auto, (max-width: 493px) 100vw, 493px" /></p>
<h3>Fazit oder warum datengetriebenes Controlling die Zukunft ist</h3>
<p>Datengetriebenes Controlling ist mehr als nur eine technische Veränderung – es bedeutet einen neuen Anspruch an die Steuerung von Unternehmen. Statt nur Zahlen aufzubereiten, geht es darum, Entscheidungen aktiv zu unterstützen.</p>
<p>Wer sich heute mit echtzeitfähigen, integrierten und KI-gestützten Lösungen auseinandersetzt, kann schneller auf Veränderungen reagieren und sich einen klaren Wettbewerbsvorteil verschaffen.</p>
<p>Der Wandel ist nicht immer einfach – aber die Frage ist nicht, ob datengetriebenes Controlling kommt, sondern wann Unternehmen sich darauf einstellen.</p>
<p>Um nochmal auf mein Studium zurückzukommen: So habe ich mir das damals vorgestellt. Die vielen blumigen Worte unseres Professors zum Controlling (&#8222;Der Steuermann im Wind&#8220; oder &#8222;Ohne Controller kein Neugeschäft&#8220;) ergeben mit datengetriebenem Controlling viel mehr Sinn. Ich wünschte mir das wäre schon damals ein großer Bestandteil vom Controlling gewesen und ich wäre vielleicht in dem Bereich geblieben und hätte nicht doch wieder in die IT gewechselt.</p>
<p>Der Beitrag <a href="https://arelium.de/datengetriebenes-controlling/">Datengetriebenes Controlling</a> erschien zuerst auf <a href="https://arelium.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://arelium.de/datengetriebenes-controlling/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Azure SQL vs Fabric SQL</title>
		<link>https://arelium.de/azure-sql-vs-fabric-sql/</link>
					<comments>https://arelium.de/azure-sql-vs-fabric-sql/#respond</comments>
		
		<dc:creator><![CDATA[Joel Galla]]></dc:creator>
		<pubDate>Thu, 27 Feb 2025 10:22:40 +0000</pubDate>
				<category><![CDATA[Azure]]></category>
		<category><![CDATA[Blog]]></category>
		<category><![CDATA[Cloud]]></category>
		<category><![CDATA[OneLake]]></category>
		<category><![CDATA[Power BI]]></category>
		<category><![CDATA[SQL]]></category>
		<category><![CDATA[Microsoft Fabric]]></category>
		<category><![CDATA[SQl]]></category>
		<guid isPermaLink="false">https://arelium.de/?p=20789</guid>

					<description><![CDATA[<p>Der Beitrag <a href="https://arelium.de/azure-sql-vs-fabric-sql/">Azure SQL vs Fabric SQL</a> erschien zuerst auf <a href="https://arelium.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></description>
										<content:encoded><![CDATA[<section class="l-section wpb_row height_auto"><div class="l-section-h i-cf"><div class="g-cols vc_row via_grid cols_1 laptops-cols_inherit tablets-cols_inherit mobiles-cols_1 valign_top type_default stacking_default"><div class="wpb_column vc_column_container"><div class="vc_column-inner"><div class="wpb_text_column"><div class="wpb_wrapper"><p>Viele benutzen bereits Azure SQL Datenbanken und fragen sich: „Warum sollte ich eine SQL Datenbank in Fabric nutzen?“ Aber die meisten verstehen garnicht, dass es die falsche Frage ist. Azure SQL vs Fabric SQL gibt es nicht, denn beide sind das exakt selbe. Das entscheidende ist nicht die Technologie, sondern die Umgebung.</p>
<p>Um das zu verstehen, muss klar sein, dass eine SQL Datenbank in Fabric nicht in Fabric liegt. Wie im Bild zu sehen ist die SQL Datenbank in Fabric nur eine Azure SQL Datenbank welche in Echtzeit in den OneLake und damit Fabric gespiegelt wird. Die Technologie ist die gleich, wie beim Spiegeln einer schon existierenden Datenbank. Nur weil die Technik dieselbe ist, ist das Ergebnis nicht dasselbe.</p>
<h2>Azure SQL vs Fabric SQL – Ein Kostenvergleich</h2>
<p>Der erste Unterschied sind sie Kosten. Azure SQL Datenbanken kosten im laufenden Betrieb und die Datenmengen werden ebenfalls abgerechnet. Datenbanken in Fabric kosten ebenfalls eine Kleinigkeit für den Speicher, aber nichts im Betrieb. Es entstehen keine Zusatzkosten und alles ist mit den Fabric Lizenzen abgedeckt. Klingt nach einem eindeutigen Gewinner, oder? Falsch.</p>
<p>Der wichtigste Unterschied sind nicht die Kosten. Dafür musst du verstehen, wofür beide Datenbanken gedacht sind. Eine Azure SQl Datenbank kann überall eingesetzt werden. Eine Fabric Datenbank kann das auch, sollte es aber nicht. Azure ist viel weit laufender als Fabric. Eine Webapp sollte keine Fabric Datenbank nutzen, aber eine Azure SQL Datenbank ist genau das Richtige.</p>
<p>Microsoft Fabric ist eine Datenverarbeitungs- und Analyseplattform. Wenn Unternehmensdaten in einer gemeinsamen Plattform verarbeitet und verwaltet werden sollen, dann ist Fabric das Mittel der Wahl. Die SQL Datenbank in Fabric ist dann optimal. Alle Daten sind sauber, zentral und kostengünstig vereint. Das heißt nicht, dass eine Azure SQL Datenbank das nicht auch kann, aber die Fabric Datenbank ist hier überlegen. Eine Azure Datenbank kann immer noch in Fabric gespiegelt werden.</p>
<h2>Vorteile einer Fabric SQL Datenbank</h2>
<p>Wenn das Ziel Fabric ist, dann hat es noch einen weiteren Vorteil, die Datenbank direkt in Fabric anzulegen. Eine Azure SQL Datenbank hat eigene Rollen- und Sicherheitskonzepte. Diese Regeln werden auf dem Server eingerichtet und zusätzlich werden die Fabric Regeln angewendet. Aber wenn die Datenbank in Fabric angelegt wird, dann können alle Regeln in Fabric verwaltet werden. Es greifen immer noch die Microsoft Fabric Regeln, aber zusätzlich können die gleichen Regeln wie in Azure SQL eingerichtet werden. Aber das ist nicht das beste Feature.</p>
<p>Eine Fabric SQL Datenbank kann noch mehr. Die zugrundeliegende Technik ist dieselbe, aber die Einbindung ist es nicht. Mit der Einbindung meine ich, dass z.B. automatisch ein semantisches Modell erstellt werden kann, welches auch direkt in einem Power BI Bericht endet. Das Gleiche gilt für den Analyseendpunkt. Damit ist eine Fabric SQL Datenbank vollständig in Fabric integriert.</p>
</div></div><div class="w-separator size_medium"></div><div class="g-cols wpb_row via_grid cols_1 laptops-cols_inherit tablets-cols_inherit mobiles-cols_1 valign_top type_default stacking_default" style="--columns-gap:3rem;"><div class="wpb_column vc_column_container"><div class="vc_column-inner"><div class="w-popup w-btn-wrapper align_none"><button type="button" aria-label="Hier Whitepaper downloaden" class="w-popup-trigger type_btn w-btn us-btn-style_1"><span class="w-btn-label">Hier Whitepaper downloaden</span></button><div class="w-popup-overlay" style="background:rgba(0,0,0,0.85);"></div><div class="w-popup-wrap layout_default" role="dialog" aria-modal="true" aria-label="Hier Whitepaper downloaden" style="--title-color:var(--color-content-heading);--title-bg-color:var(--color-content-bg-alt);--content-color:var(--color-content-text);--content-bg-color:var(--color-content-bg);--popup-width:40%;--popup-padding:5%;"><button aria-label="Schließen" class="w-popup-closer" type="button"></button><div class="w-popup-box animation_fadeIn closerpos_outside without_title"><div class="w-popup-box-h"><div class="w-popup-box-content"><section class="l-section wpb_row height_auto"><div class="l-section-h i-cf"><div class="g-cols vc_row via_grid cols_1 laptops-cols_inherit tablets-cols_inherit mobiles-cols_1 valign_top type_default stacking_default"><div class="wpb_column vc_column_container"><div class="vc_column-inner"><div class="wpb_text_column"><div class="wpb_wrapper">				<div class="email_download_link">
						<form action="#" method="post" class="ed_form" id="ed_form_1776166924">
				<p><span class="name">Name *</span><br><input type="text" name="name" id="name" placeholder="Name" value="" maxlength="50" required/></p>				<p><span class="email">Email *</span><br><input class="" type="email" id="email" name="email" value="" placeholder="Email *"  maxlength="225" required/></p>																				<br />
				<input name="submit" class="submit" id="ed_form_submit_1776166924" value="Send Download Link" type="submit" />
				<span class="ed_form_spinner" id="loading-image" style="display:none;">
					<img decoding="async" src="https://arelium.de/wp-content/plugins/email-download-link/images/ajax-loader.gif" />
				</span>
				<input name="guid" id="guid" value="wqfpcd-dgcxrz-xdzfup-qtwvjd-hevcfy" type="hidden"/>
				<input type="text" style="display:none;" id="email_name" name="email_name" value="" type="hidden"/>
				<input name="form_nonce" id="form_nonce" value="c0869c0c90" type="hidden"/>
				<input name="name_mand" id="name_mand" value="YES" type="hidden"/>
				<input name="gdpr_mand" id="gdpr_mand" value="NO" type="hidden"/>
				<input name="phone_mand" id="phone_mand" value="" type="hidden"/>
			</form>	
			<span class="ed_form_message" id="ed_form_message_1776166924"></span>
		</div>
	
</div></div><div class="wpb_text_column us_custom_c3ed962a"><div class="wpb_wrapper"><p>*Mit dem Download dieser Datei, stimmen Sie zu, den arelium Newsletter zu erhalten. Sie können die Newsletter jedezeit wieder abbestellen.</p>
</div></div></div></div></div></div></section>
</div></div></div></div></div></div></div></div><div class="w-separator size_medium"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h2>Übersichtstabelle</h2>
<table>
<tbody>
<tr>
<td width="302">Azure</td>
<td width="302">Fabric</td>
</tr>
<tr>
<td width="302">Verwendbar für Alles</td>
<td width="302">Spezialisiert für Datenauswertung</td>
</tr>
<tr>
<td width="302">Es wird Azure benötigt</td>
<td width="302">Es wird Azure und Fabric benötigt</td>
</tr>
<tr>
<td width="302">Kosten für Speicher und Erreichbarkeit</td>
<td width="302">Nur Kosten für zusätzlichen OneLake Speicherplatz</td>
</tr>
</tbody>
</table>
</div></div><div class="w-separator size_medium"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>Falls du dich generell für das Thema Azure und Fabric interessierst, haben wir das Thema in einem YouTube Video behandelt. In diesem Video reden wir über die <a href="https://www.youtube.com/watch?v=Nlxb_VmqkyI">Unterschiede von Azure Synapse Analytics und Microsoft Fabric</a>. In anderen Blogbeiträgen haben wir auch über die <a href="/kostenvergleich-fabric-synapse/">unterschiedlichen Kosten von Synapse und Fabric</a> geschrieben.</p>
</div></div></div></div></div></div></section>
<p>Der Beitrag <a href="https://arelium.de/azure-sql-vs-fabric-sql/">Azure SQL vs Fabric SQL</a> erschien zuerst auf <a href="https://arelium.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://arelium.de/azure-sql-vs-fabric-sql/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Azure Databricks</title>
		<link>https://arelium.de/azure-databricks/</link>
		
		<dc:creator><![CDATA[Emil Vincazovic]]></dc:creator>
		<pubDate>Mon, 03 Feb 2025 13:14:08 +0000</pubDate>
				<category><![CDATA[Azure]]></category>
		<category><![CDATA[Blog]]></category>
		<category><![CDATA[Cloud]]></category>
		<category><![CDATA[Azure Databricks]]></category>
		<category><![CDATA[Databricks]]></category>
		<guid isPermaLink="false">https://arelium.de/?page_id=20566</guid>

					<description><![CDATA[<p>Der Beitrag <a href="https://arelium.de/azure-databricks/">Azure Databricks</a> erschien zuerst auf <a href="https://arelium.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></description>
										<content:encoded><![CDATA[<section class="l-section wpb_row height_auto"><div class="l-section-h i-cf"><div class="g-cols vc_row via_grid cols_1 laptops-cols_inherit tablets-cols_inherit mobiles-cols_1 valign_top type_default stacking_default"><div class="wpb_column vc_column_container"><div class="vc_column-inner"><div class="wpb_text_column"><div class="wpb_wrapper"><h3>Einführung in Azure Databricks</h3>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>Azure Databricks ist eine leistungsstarke Cloud-basierte Datenanalyse- und KI-Plattform, die auf Apache Spark basiert und in Zusammenarbeit von Microsoft und Databricks entwickelt wurde. Die Plattform richtet sich an Unternehmen, die große Datenmengen effizient verarbeiten und maschinelles Lernen einsetzen wollen. Als Teil der Azure Cloud ist Databricks nahtlos in Dienste wie Azure Data Lake Storage, Azure Synapse Analytics und Power BI integriert. Vor allem der Data Engineering- bzw. der Data Science-Part sind sehr gut in Databricks implementiert.</p>
</div></div><div class="w-separator size_small"></div><div class="w-image align_center meta_simple"><div class="w-image-h"><img decoding="async" width="1024" height="515" src="https://arelium.de/wp-content/uploads/2025/01/Screenshot-2025-01-09-083227-1024x515.png" class="attachment-large size-large" alt="Databricks Home Bildschirm" loading="lazy" srcset="https://arelium.de/wp-content/uploads/2025/01/Screenshot-2025-01-09-083227-1024x515.png 1024w, https://arelium.de/wp-content/uploads/2025/01/Screenshot-2025-01-09-083227-300x151.png 300w, https://arelium.de/wp-content/uploads/2025/01/Screenshot-2025-01-09-083227-795x400.png 795w, https://arelium.de/wp-content/uploads/2025/01/Screenshot-2025-01-09-083227-1200x603.png 1200w, https://arelium.de/wp-content/uploads/2025/01/Screenshot-2025-01-09-083227.png 1907w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></div><div class="w-image-meta"><div class="w-image-title">Databricks Home Bildschirm</div></div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3>Kostenstruktur von Azure Databricks</h3>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>Wie bei jedem Tool, spielen die Kosten eine große Rolle bei der Technologieauswahl. Die Kosten von Azure Databricks setzen sich aus mehreren Faktoren zusammen, wobei die wichtigsten Komponenten die <strong>Virtuellen Maschinen (VMs)</strong>, die <strong>Databricks Units (DBUs)</strong> und der <strong>Cluster-Typ</strong> sind. Auch die Wahl des Arbeitsbereichs (Standard, Premium, Enterprise) beeinflusst die Gesamtkosten. Schauen wir uns die einzelnen Posten etwas genauer an.</p>
</div></div><div class="w-separator size_small"></div><div class="w-image align_center meta_simple"><div class="w-image-h"><img decoding="async" width="1024" height="457" src="https://arelium.de/wp-content/uploads/2025/01/Screenshot-2025-01-09-083641-1024x457.png" class="attachment-large size-large" alt="" loading="lazy" srcset="https://arelium.de/wp-content/uploads/2025/01/Screenshot-2025-01-09-083641-1024x457.png 1024w, https://arelium.de/wp-content/uploads/2025/01/Screenshot-2025-01-09-083641-300x134.png 300w, https://arelium.de/wp-content/uploads/2025/01/Screenshot-2025-01-09-083641-896x400.png 896w, https://arelium.de/wp-content/uploads/2025/01/Screenshot-2025-01-09-083641-1200x536.png 1200w, https://arelium.de/wp-content/uploads/2025/01/Screenshot-2025-01-09-083641.png 1565w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></div><div class="w-image-meta"><div class="w-image-title">Kostenübersicht Databricks Workspace</div><div class="w-image-description">Über einen Zeitraum von 3 Monaten mit sehr sporadischer Nutzung</div></div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3>Virtuelle Maschinen (VMs)</h3>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>Virtuelle Maschinen (VMs) stellen die Rechenressourcen bereit, die für das Ausführen von Databricks-Clustern erforderlich sind. Bei der Erstellung eines Clusters wird eine oder mehrere VMs für die Ausführung des Clusters benötigt.</p>
<ul>
<li><strong>Preis pro VM-Stunde</strong>: Der Preis variiert je nach VM-Typ und Region, in der der Cluster ausgeführt ist. Azure bietet eine Vielzahl von VM-Typen, darunter <strong>Standard DS3 v2</strong>, <strong>Standard D4s v3</strong>, <strong>Standard F2s</strong>, etc. Der Preis für eine VM hängt von ihrer Größe und ihrer Region ab.</li>
<li><strong>Abrechnungseinheit der VM-Stunden</strong>: Ein VM-Cluster rechnet auf Stundenbasis ab, wobei der Preis je nach Größe und Art der VM variiert.</li>
<li><strong>Regionale Unterschiede</strong>: Die Kosten können in verschiedenen Azure-Regionen unterschiedlich sein. Einige Regionen bieten günstigere Preise, während andere aufgrund von Nachfrage oder zusätzlichen Dienstleistungen teurer sein können.</li>
</ul>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3>Databricks Units (DBUs)</h3>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>Eine <strong>Databricks Unit (DBU)</strong> ist eine Abrechnungseinheit für Rechenressourcen, die in Azure Databricks verwendet werden. DBUs messen die Leistung von Databricks-Clustern in Bezug auf den Verbrauch von Rechenressourcen.<br />
DBUs werden auf Stundenbasis berechnet, basierend auf der Art des Clusters und dessen Nutzung.</p>
</div></div><div class="w-separator size_small"></div><div class="w-hwrapper valign_top align_none"><div class="wpb_text_column"><div class="wpb_wrapper"><p><strong>Standard-Cluster</strong>: Diese Cluster sind für allgemeine Anwendungen und Datenverarbeitungsaufgaben gedacht. Der Preis liegt in der Regel bei etwa <strong>0,20 USD pro DBU pro Stunde</strong>.</p>
</div></div><div class="wpb_text_column"><div class="wpb_wrapper"><p><strong>Premium-Cluster</strong>: Diese Cluster bieten erweiterte Funktionen wie bessere Sicherheitskontrollen und höherwertige Rechenressourcen. Der Preis für Premium-Cluster liegt normalerweise bei <strong>0,40 USD pro DBU pro Stunde</strong>.</p>
</div></div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>DBUs werden auf der Grundlage der Größe und Art des Clusters berechnet. Ein größeres Cluster oder ein Cluster mit mehr Rechenressourcen verbraucht mehr DBUs.</p>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3>Cluster-Typen und Größe</h3>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>Die Art und Größe des Clusters, dass du verwendest, beeinflusst direkt die Kosten. Azure Databricks bietet verschiedene Cluster-Typen:</p>
</div></div><div class="w-separator size_small"></div><div class="w-hwrapper valign_top align_none"><div class="wpb_text_column"><div class="wpb_wrapper"><p><strong>Standard-Cluster</strong>: Diese Cluster bieten eine gute Leistung zu einem günstigeren Preis und eignen sich gut für allgemeine Workloads.</p>
</div></div><div class="wpb_text_column"><div class="wpb_wrapper"><p><strong>Premium-Cluster</strong>: Diese Cluster bieten zusätzliche Sicherheitsfunktionen, wie z. B. das Verschlüsseln von Daten im Speicher und erweiterte Netzwerksicherheitsfunktionen.</p>
</div></div><div class="wpb_text_column"><div class="wpb_wrapper"><p><strong>High-Concurrency Clusters</strong>: Diese Cluster sind für den gleichzeitigen Zugriff durch mehrere Benutzer oder Prozesse optimiert. Sie werden häufig in produktiven Umgebungen eingesetzt, wenn mehrere Benutzer gleichzeitig auf dieselben Daten zugreifen müssen.</p>
</div></div></div><div class="w-separator size_small"></div><div class="w-image align_center meta_simple"><div class="w-image-h"><img decoding="async" width="1024" height="543" src="https://arelium.de/wp-content/uploads/2025/01/Screenshot-2025-01-09-083929-1024x543.png" class="attachment-large size-large" alt="" loading="lazy" srcset="https://arelium.de/wp-content/uploads/2025/01/Screenshot-2025-01-09-083929-1024x543.png 1024w, https://arelium.de/wp-content/uploads/2025/01/Screenshot-2025-01-09-083929-300x159.png 300w, https://arelium.de/wp-content/uploads/2025/01/Screenshot-2025-01-09-083929-755x400.png 755w, https://arelium.de/wp-content/uploads/2025/01/Screenshot-2025-01-09-083929-1200x636.png 1200w, https://arelium.de/wp-content/uploads/2025/01/Screenshot-2025-01-09-083929.png 1702w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></div><div class="w-image-meta"><div class="w-image-title">Menü zur Cluster Erstellung in Databricks</div></div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3>Workspaces</h3>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>Azure Databricks bietet verschiedene Arbeitsbereichsoptionen, welche unterschiedliche Preise und Funktionen mit sich bringen.</p>
</div></div><div class="w-separator size_small"></div><div class="w-hwrapper valign_top align_none"><div class="wpb_text_column"><div class="wpb_wrapper"><p><strong>Standard-Arbeitsbereich</strong>: Dies ist der Basistarif und ist für viele Benutzer ausreichend. Die Kosten in einem Standard-Arbeitsbereich sind die niedrigsten.</p>
</div></div><div class="wpb_text_column"><div class="wpb_wrapper"><p><strong>Premium-Arbeitsbereich</strong>: Premium-Arbeitsbereiche bieten erweiterte Funktionen wie bessere Sicherheitskontrollen, API-Zugriff und mehr.</p>
</div></div><div class="wpb_text_column"><div class="wpb_wrapper"><p><strong>Enterprise-Arbeitsbereich</strong>: Dieser Bereich richtet sich an Unternehmen, die große und komplexe Datenumgebungen verwalten und skalierbare Datenlösungen benötigen. Der Enterprise-Arbeitsbereich bietet die vollständige Palette von Funktionen und Sicherheitsoptionen, ist jedoch auch teurer.</p>
</div></div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3>Automatisierte Jobs und Workflows</h3>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>Azure Databricks ermöglicht es dir, <strong>automatisierte Jobs</strong> für Datenverarbeitungsaufgaben zu erstellen. Man kann festlegen, wie oft der Job ausführt, welche Ressourcen man dafür benötigt.</p>
<p>Jobs, die regelmäßig ausgeführt werden (z. B. täglich oder wöchentlich), verursachen zusätzliche Kosten, da sie Cluster und DBUs verbrauchen. Diese Kosten sind jedoch abhängig von der Häufigkeit der Ausführung und der Größe der genutzten Ressourcen.</p>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3>Speicher</h3>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>Azure Databricks verwendet standardmäßig das <strong>Databricks File System (DBFS)</strong>, ein verteiltes Dateisystem. Dieses nutzt man für die Speicherung von Daten und Dateien in Databricks. Daten, die in DBFS gespeichert werden, werden im Azure Blob Storage oder Azure Data Lake Storage abgelegt. Die Kosten für diese Speicherlösungen hängen vom verwendeten Speichertyp und der Speicherregion ab.</p>
<p><strong>Sowohl der Azure Blob Storage als auch der Azure Data Lake Storage </strong>bieten günstige Optionen für die Speicherung von Daten, wobei die Kosten je nach Speichermenge und Zugriffsfrequenz variieren. Dieser Punkt sollte nicht vernachlässigt werden. Bei einer hohen Anzahl von <strong>Datenanforderungen aus dem Speicher </strong>(z. B. beim Trainieren von Modellen) entstehen höhere Kosten. Grund dafür ist, in welchem Segment die Daten in der Cloud gespeichert werden (Hot, Cold, Archive).</p>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3>Netzwerkkosten</h3>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>Wenn man Azure Databricks mit anderen Azure-Diensten wie <strong>Azure SQL Database</strong>, <strong>Azure Data Lake Storage</strong> oder <strong>Azure Synapse Analytics</strong> integriert, können <strong>Netzwerkkosten</strong> entstehen, die auf den Datentransfer und die Datenübertragung zwischen den Diensten zurückzuführen sind. So ist ein Thema dabei die <strong>Datenübertragungsgebühren.</strong> Es fallen Kosten für den Datentransfer zwischen verschiedenen Azure-Diensten oder über das Internet an. Diese Gebühren sind abhängig von der Menge an übertragenen Daten und der Region, in der die Daten verarbeitet werden.</p>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3>Überwachung und Logging</h3>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>Das Überwachen und Protokollieren von Aktivitäten in Databricks kann zusätzliche Kosten verursachen, insbesondere wenn umfangreiche Logs gespeichert oder wenn externe Überwachungsdienste (z. B. Azure Monitor) verwendet werden.</p>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3>Automatisiertes Machine Learning</h3>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>Azure Databricks bietet auch <strong>AutoML</strong>-Funktionen für die Automatisierung des Trainings von Machine-Learning-Modellen (mehr dazu später im Artikel). Die Nutzung dieser Funktionen kann zusätzliche Rechenressourcen (z. B. Cluster) beanspruchen, was die Kosten erhöht.</p>
</div></div><div class="w-separator size_small"></div><div class="w-image align_center meta_simple"><div class="w-image-h"><img decoding="async" width="837" height="905" src="https://arelium.de/wp-content/uploads/2025/01/Screenshot-2025-01-09-084131.png" class="attachment-large size-large" alt="" loading="lazy" srcset="https://arelium.de/wp-content/uploads/2025/01/Screenshot-2025-01-09-084131.png 837w, https://arelium.de/wp-content/uploads/2025/01/Screenshot-2025-01-09-084131-277x300.png 277w, https://arelium.de/wp-content/uploads/2025/01/Screenshot-2025-01-09-084131-370x400.png 370w, https://arelium.de/wp-content/uploads/2025/01/Screenshot-2025-01-09-084131-740x800.png 740w" sizes="auto, (max-width: 837px) 100vw, 837px" /></div><div class="w-image-meta"><div class="w-image-title">Menü vom AutoML in Databricks</div><div class="w-image-description">Beispiel für ein Klassifizierungsproblem</div></div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>Es gibt einige Kniffe, mit denen man Kosten sparen kann. Ein Beispiel dazu:</p>
<p>Wenn es ein Data-Team gibt, was in einem gemeinsamen Databricks Workspace arbeitet, können mehrere Personen ein und dasselbe Compute-Cluster nutzen. Somit kann man mit einer geschickten Cluster-Allokation, die Kosten an der Stelle reduzieren.</p>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3>Hauptmerkmale von Azure Databricks</h3>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>Azure Databricks bietet eine Vielzahl leistungsstarker Funktionen für die Verarbeitung großer Datenmengen und die Entwicklung von Machine-Learning-Modellen.</p>
<p>Im folgendem gehen wir auf die Hauptmerkmale von Databricks ein. Hier geht es vor allem um:</p>
<ul>
<li>Machine Learning</li>
<li>Datenverwaltung</li>
<li>Unity Catalog Metastore</li>
<li>Databricks Genie</li>
<li>Zugriffssteuerung</li>
</ul>
<p>Ein Punkt, der zwar schnell abgehakt werden kann, jedoch eine Erwähnung verdient, ist die kollaborative Notebookumgebung. Sie erlaubt die direkte Ausführung von Code in Python, Scala, R und SQL. Im Hintergrund liegt eine auf Apache Spark basierende Engine, die eine verteilte Verarbeitung großer Datenmengen ermöglicht.</p>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3>Machine Learning und Modelbereitstellung</h3>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h4>Modellentwicklung</h4>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>In Databricks gibt es zwei Möglichkeiten, ein Modell zu entwickeln. Die manuelle und die automatische. Bei der manuellen Entwicklung geht es darum, ein Machine-Learning-Modell mit Code zu trainieren. Welche Programmiersprache man dafür nutzt, ist de Engine egal. Dabei bleiben alle Komponenten eines ML-Laufs an einem selbst hängen. Das bedeutet: Standardisierung/Normalisierung, Skalierung, Kodierung, Hyperparameter Tuning etc. Ohne fundierte Kenntnisse auf diesem Gebiet ist es sehr schwierig, diesen Prozess manuell durchzuführen.</p>
<p>Die automatische Variante hingegen, das Automated Machine Learning (AutoML), ist ein Prozess, der die Modellentwicklung erheblich vereinfacht. Wie der Name schon sagt, wird einem hier viel Arbeit abgenommen. Alle manuellen Schritte werden beim AutoML durch automatische Schritte ersetzt. Diese Funktion ist ähnlich wie AutoML im <a href="https://arelium.de/azure-machine-learning-studio/">Azure Machine Learning Studio</a>. Wichtig zu erwähnen ist, dass der wichtigste Schritt, um ein gutes Modell zu erhalten, nicht von AutoML übernommen wird. Nämlich Daten von extrem hoher Qualität zu haben. Der Data Engineering Prozess davor muss also stattfinden, sonst gibt es im schlimmsten Fall Verzerrungen in den Ergebnissen, die das Modell am Ende ausspuckt.</p>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h4>Modellbereitstellung</h4>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>Nach dem Training können Modelle über REST-APIs als Endpunkte zur Verfügung gestellt werden. (Wie oben bereits erwähnt, entstehen für ein bereitgestelltes Modell Kosten). Das Bereitstellen ermöglicht eine einfache Integration von Maschine-Learning-basierten Vorhersagen in externe Anwendungen und Echtzeitsysteme. Der Zugriff auf die Modelle erfolgt über normale Requests. Man benötigt lediglich den Access Token, welchen man in Databricks als Workspace Admin konfigurieren kann.</p>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3>Datenverwaltung in Azure Databricks</h3>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>Das Databricks File System (DBFS) ist ein zentrales Speichersystem innerhalb von Azure Databricks, das speziell für den Umgang mit großen Datenmengen und die nahtlose Integration mit Apache Spark entwickelt wurde. DBFS dient als verteiltes Dateisystem und ermöglicht den Zugriff auf Dateien und Verzeichnisse innerhalb von Databricks-Notebooks, Jobs und Clustern. Es wird typischerweise verwendet, um Daten zu speichern und zu organisieren, die in Apache Spark verarbeitet werden sollen. Das DBFS ist sehr umfangreich und einer der wichtigsten Bestandteile von Databricks. Von daher gehen wir hier etwas intensiver drauf ein.</p>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h4>Zugriffsarten und Speicherorte</h4>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>DBFS stellt ein vereinfachtes Abstraktionsmodell für den Zugriff auf Dateien zur Verfügung. Es ermöglicht den Zugriff auf Dateien über Pfade, ähnlich wie bei herkömmlichen Dateisystemen. Beispielsweise kann eine Datei unter /dbfs/tmp/datei.csv abgelegt und von einem Notebook aus genutzt werden.</p>
<p>Obwohl DBFS intern in Azure Databricks verwendet wird, können Dateien auch im Azure Blob Storage oder Azure Data Lake Storage gespeichert werden. DBFS bietet einen abstrahierten Zugang zu diesen Speichern. Tatsächlich ist DBFS nicht nur eine eigene physische Speicherlösung, sondern ein Layer über Cloud-Speicher. Dies bedeutet, dass im Hintergrund immer ein Speicherkonto liegt. Ob es ein Blob Storage oder ein Data Lake Storage sind, spielt dabei keine Rolle.</p>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h4>Managed vs. Unmanaged (External) Tables</h4>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>Beginnen wir mit den <strong>Managed</strong> Tables. Wenn Daten in DBFS gespeichert werden und als Managed Tables verwendet werden, werden sowohl die Daten als auch die Metadaten vom Databricks-System verwaltet. Das bedeutet, dass beim Löschen der Tabelle sowohl die Daten als auch die Metadaten aus dem System entfernt werden.</p>
<p>Wenn Daten aus <strong>externen</strong> Quellen wie Azure Data Lake Storage (ADLS) oder Azure Blob Storage in DBFS eingebunden werden, bleiben die Daten an ihrem Ursprungsort gespeichert, und Databricks verwaltet nur die Metadaten. Dies bedeutet im Umkehrschluss: Beim Löschen einer Tabelle werden die Metadaten gelöscht, jedoch nicht die Daten, welche extern gespeichert werden.</p>
<p>Für die Anwender bedeutet das im Umkehrschluss, dass man bei jeder Tabelle abwägen sollte: Sollen meine Daten unter keinen Umständen gelöscht werden? Dann wählt man eine external Table. Hat man irgendwelche temporäre Tabellen, die nicht so wichtig sind, kann man auch Managed Tables wählen.</p>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h4>Lesen, Schreiben und Verwalten von Dateien</h4>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>DBFS erlaubt den einfachen Zugriff auf Dateien, die in Notebooks verarbeitet werden. Dateien können über Python, Scala oder SQL-Befehle gelesen und geschrieben werden. Mit dem dbutils-Toolkit können Benutzer direkt mit DBFS interagieren, um Dateien zu erstellen, zu löschen oder zu verschieben. (Zum Beispiel können Dateien in DBFS mit Spark-API oder Python-Methoden wie dbutils.fs.cp(), dbutils.fs.rm(), und dbutils.fs.mv() verwaltet werden.) Dies ist besonders nützlich in Automatisierungsszenarien und für das Management von Daten innerhalb von Databricks-Notebooks.</p>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h4>Verwendung von DBFS für Datenverarbeitung und Persistenz</h4>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>DBFS wird häufig als temporärer Speicherort für Daten in Spark-Anwendungen verwendet. Es kann auch verwendet werden, um große Mengen an Zwischen- und Endergebnissen von bspw. Machine-Learning-Modellen oder Analyseprozessen zu speichern. Aufgrund der Integration von Delta Lake kann DBFS auch als Speicherort für Delta-Tabellen genutzt werden, die ACID-Transaktionen und Zeitreisen unterstützen.</p>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3>Der Unity Catalog Metastore</h3>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>Der Unity Catalog ist eine der zentralen Komponenten des Datenmanagements. Dort werden die die Metadaten über Tabellen, Schemata und Berechtigungen verwaltet. Der Metastore ermöglicht eine zentrale Steuerung von Datenzugriffsrechten und Policies, was insbesondere in komplexen Datenlandschaften von Vorteil ist.</p>
<p>Um einen Metastore in Azure Databricks einzurichten, benötigt man sehr hohe Berechtigungen innerhalb der Azure und Databricks Landschaft. Man muss Workspace Admin in Databricks und Super (Global) Admin in Azure sein. Wenn man diese Berechtigungen besitzt, kann man zunächst einen Azure Data Lake Storage Gen2 Account anlegen. Innerhalb dieses Storage wird ein Container als zentraler Datenspeicher definiert. Nach der Einrichtung der entsprechenden Zugriffsrechte über eine Managed Identity oder einen Service Principal wird der Metastore im Azure Databricks Account Portal angelegt und mit den gewünschten Workspaces verknüpft. Dies bedeutet: Die Daten des Unity Catalog werden nicht innerhalb von Databricks, sondern extern gespeichert! Somit kann man die Zugriffsberechtigung zusätzlich über Azure steuern.</p>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3>Genie: Natürliche Sprachverarbeitung für Datenanalysen</h3>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>Ein weiteres innovatives Feature von Azure Databricks ist Genie, eine KI-basierte, codefreie Schnittstelle für die Datenanalyse. Fachanwender können Datenabfragen in natürlicher Sprache stellen, die von Genie in SQL-Abfragen umgewandelt werden.</p>
<p>Genie unterstützt nicht nur einfache Abfragen, sondern ermöglicht auch die Erstellung komplexer Visualisierungen und Berichte direkt aus den Daten. Darüber hinaus können Fachexperten sogenannte Trusted Assets erstellen, d.h. geprüfte, vordefinierte Abfragen, um die Konsistenz der Ergebnisse sicherzustellen. Dies spielt vor allem für große Unternehmen eine Rolle, die ein One-Reporting einführen wollen.</p>
<p>Grundsätzlich ist Genie also ein Chatbot, welcher uns Auskunft über unsere eigenen Daten gibt.</p>
</div></div><div class="w-separator size_small"></div><div class="w-image align_center meta_simple"><div class="w-image-h"><img decoding="async" width="623" height="295" src="https://arelium.de/wp-content/uploads/2025/01/Screenshot-2025-01-09-084355.png" class="attachment-large size-large" alt="" loading="lazy" srcset="https://arelium.de/wp-content/uploads/2025/01/Screenshot-2025-01-09-084355.png 623w, https://arelium.de/wp-content/uploads/2025/01/Screenshot-2025-01-09-084355-300x142.png 300w" sizes="auto, (max-width: 623px) 100vw, 623px" /></div><div class="w-image-meta"><div class="w-image-title">Fehlermeldung bei Benutzung von Genie</div><div class="w-image-description">Um Genie nutzen zu können, muss der Unity Catalog aktiviert sein</div></div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3>Zugriffssteuerung</h3>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>Der Zugriff auf Azure Databricks ist gut strukturiert und basiert auf verschiedenen Sicherheits- und Berechtigungsebenen. Diese Ebene der Kontrolle gewährleistet, dass nur autorisierte Benutzer auf Ressourcen zugreifen können, und ermöglicht eine feingranulare Verwaltung von Berechtigungen. Der Zugriff in Azure Databricks wird in mehreren Bereichen geregelt. Da dies ein wichtiger Punkt der Datensicherheit ist, gehen wir auf die Zugriffssteuerung intensiver ein.</p>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h4>Azure Active Directory (Entra ID) Integration</h4>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>Azure Databricks ist vollständig in <strong>Microsoft Entra ID</strong>, ehemals <strong>Azure Active Directory (AAD)</strong> integriert, was bedeutet, dass die Benutzeridentität und -authentifizierung durch Entra verwaltet werden. Benutzer müssen sich mit ihren Entra-Konten anmelden, um auf Databricks-Arbeitsbereiche zuzugreifen. Dies bietet eine zentrale Möglichkeit zur Verwaltung von Identitäten und zur Durchsetzung von Sicherheitsrichtlinien.</p>
<p>Durch die Entra Integration können Unternehmen dann Single Sign-On (SSO) oder auch Benutzer- und Gruppenzugriffsverwaltung benutzen. Somit ist die Authentifizierung vereinfacht.</p>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h4>Zugriffssteuerung auf Arbeitsbereiche</h4>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>Der Zugriff auf Azure Databricks ist in <strong>Arbeitsbereichen</strong> (Workspaces) organisiert. Arbeitsbereiche sind die primären Container, in denen alle Databricks-Ressourcen wie Notebooks, Cluster, Jobs und Daten gespeichert sind.</p>
<p><strong>Arbeitsbereichsrollen</strong></p>
<p>Innerhalb eines Arbeitsbereichs gibt es verschiedene Berechtigungsstufen, die man auf Benutzer oder Gruppen anwenden kann:</p>
</div></div><div class="w-separator size_small"></div><div class="w-hwrapper valign_top align_none"><div class="wpb_text_column"><div class="wpb_wrapper"><p><strong>Admin</strong>: Benutzer mit Administratorrechten haben vollständigen Zugriff auf alle Funktionen im Arbeitsbereich, einschließlich der Möglichkeit, Benutzer hinzuzufügen oder zu entfernen und Berechtigungen zu ändern.</p>
</div></div><div class="wpb_text_column"><div class="wpb_wrapper"><p><strong>Member</strong>: Mitglieder können Notebooks, Cluster und Jobs erstellen und verwalten, aber keine administrativen Aufgaben durchführen.</p>
</div></div><div class="wpb_text_column"><div class="wpb_wrapper"><p><strong>Viewer</strong>: Benutzer mit Viewer-Rechten können nur Notebooks und Dashboards anzeigen, aber keine Änderungen vornehmen.</p>
</div></div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p><strong>Arbeitsbereichs-ACLs (Access Control Lists)</strong></p>
<p>Access Contol Lists ermöglichen die feingranulare Steuerung von Berechtigungen auf Ressourcen wie Notebooks, Bibliotheken, Clustern und Jobs. ACLs sind ähnlich zu Gruppen, welche man in Azure anlegen kann.</p>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h4>Unity Catalog für feingranulare Berechtigungen</h4>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>Wie oben bereits beschrieben, ist der <strong>Unity Catalog</strong> eine zentralisierte Metadatenverwaltung für Databricks. Man verwendet diese insbesondere für den Zugriff auf Daten und Datenressourcen. Er ermöglicht eine präzise Steuerung des Zugriffs auf Daten auf der Ebene von Tabellen, Schemata und Datenbanken. Unity Catalog unterstützt die Verwaltung von Berechtigungen für Datenressourcen und Rollenbasierte Zugriffskontrollen.</p>
<ul>
<li><strong>Datenressourcen</strong>: Benutzer können detaillierte Zugriffssteuerungen auf Tabellen, Datenbanken und andere Datenressourcen definieren.</li>
<li><strong>Rollenbasierte Zugriffskontrolle (RBAC)</strong>: Unity Catalog nutzt RBAC, um den Zugriff auf Daten basierend auf Benutzerrollen zu steuern. Es können Rollen für Administratoren, Data Scientists, Data Engineers und andere definiert werden, um genau festzulegen, wer welche Daten sehen und bearbeiten darf.</li>
</ul>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h4>Cluster- und Notebook-Berechtigungen</h4>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>Databricks bietet die Möglichkeit, Berechtigungen auf einzelne <strong>Notebooks</strong> zu setzen. Benutzer können ein Notebook zum Lesen, Schreiben oder Bearbeiten freigeben. Dies hilft, die Zusammenarbeit zu erleichtern und gleichzeitig den Zugriff auf sensible Daten zu steuern.</p>
<p>Auch für <strong>Cluster</strong> gibt es detaillierte Berechtigungen. Benutzer können Cluster erstellen, starten oder stoppen, je nach den ihnen zugewiesenen Rechten. Die Berechtigungen werden auf Benutzer- oder Gruppenbasis gewährt.</p>
</div></div><div class="w-separator size_small"></div><div class="w-image align_center meta_simple"><div class="w-image-h"><img decoding="async" width="883" height="490" src="https://arelium.de/wp-content/uploads/2025/01/Screenshot-2025-01-09-085137.png" class="attachment-large size-large" alt="" loading="lazy" srcset="https://arelium.de/wp-content/uploads/2025/01/Screenshot-2025-01-09-085137.png 883w, https://arelium.de/wp-content/uploads/2025/01/Screenshot-2025-01-09-085137-300x166.png 300w, https://arelium.de/wp-content/uploads/2025/01/Screenshot-2025-01-09-085137-721x400.png 721w" sizes="auto, (max-width: 883px) 100vw, 883px" /></div><div class="w-image-meta"><div class="w-image-title">Beispiel für Berechtgungsvergabe in Databricks</div><div class="w-image-description">Hier wird gleich ein ganzer Ordner zur Berechtigung freigegeben</div></div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h4>Datenzugriffsrichtlinien und Verschlüsselung</h4>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>Alle Daten, die in Azure Databricks gespeichert und verarbeitet werden, sind standardmäßig verschlüsselt. Dies umfasst sowohl die Daten im ruhenden Zustand als auch die Daten während der Übertragung. Somit sind die hohen Sicherheitsstandards die Microsoft bietet, auch hier gegeben.</p>
<p>Zugriff auf Databricks kann zusätzlich auf Netzwerkebene durch <strong>Virtual Networks</strong> (VNets) und <strong>Network Security Groups (NSGs)</strong> eingeschränkt werden. Dies bedeutet, dass der Zugang zu Databricks von bestimmten IP-Adressen oder Subnetzen aus erfolgen kann.</p>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h4>Audit Logs und Überwachung</h4>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>Azure Databricks stellt umfassende <strong>Audit Logs</strong> bereit, die es Administratoren ermöglichen, den Zugriff und die Nutzung von Ressourcen innerhalb der Plattform zu überwachen. Wie im Abschnitt Kosten schon erwähnt, umfassen diese Logs Informationen zu Benutzeranmeldungen, Ressourcenzugriffen und Änderungen an Databricks-Ressourcen.</p>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h4>API- und Programmzugriff</h4>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>Azure Databricks bietet umfangreiche REST APIs, die es ermöglichen, Programme zu integrieren und Databricks-Operationen wie das Erstellen von Clustern, das Starten von Jobs oder das Hochladen von Dateien automatisch auszuführen. Die API-Authentifizierung erfolgt über ein <strong>Personal Access Token (PAT)</strong>, der für jede API-Anforderung erforderlich ist.</p>
<p>Für automatisierte Prozesse und Integrationen empfiehlt es sich, <strong>Service Principals</strong> oder <strong>Managed Identities</strong> zu verwenden, um den Zugriff auf Databricks-Ressourcen zu steuern, ohne dass Benutzeranmeldeinformationen erforderlich sind.</p>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3>Fazit: Ist Azure Databricks die richtige Wahl?</h3>
</div></div><div class="w-separator size_small"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>Zusätzlich zu den oben genannten Features gibt es noch viele weitere, die hier keine Nennung finden. Bspw. das automatische Cluster-Management, welches die Rechenleistung dynamisch an die aktuelle Datenlast anpasst, was sowohl die Effizienz als auch die Kostenkontrolle verbessert. Als Überblick reicht dieser Artikel jedoch erstmal aus.</p>
<p>Zusammenfassend kann man sagen, dass Azure Databricks eine leistungsstarke Plattform für datengetriebene Unternehmen ist, die Big Data Processing, Machine Learning und komplexe Datenanalysen auf einer zentralen Plattform vereinen möchten. Die Integration von Delta Lake, AutoML und Unity Catalog sorgt für Effizienz und Skalierbarkeit.</p>
<p>Für größere Unternehmen mit komplexen Datenlandschaften bietet die Plattform durch ihre Flexibilität und Rechenleistung viele Vorteile. Kleinere Unternehmen oder Projekte mit geringem Datenvolumen sollten jedoch die Kostenstruktur genau prüfen, um sicherzustellen, dass die Plattform den eigenen Anforderungen entspricht.</p>
<p>Falls Sie Hilfe bei der Implementierung in Databricks oder bei der Technologieauswahl haben, kontaktieren Sie uns gerne.</p>
</div></div></div></div></div></div></section>
<p>Der Beitrag <a href="https://arelium.de/azure-databricks/">Azure Databricks</a> erschien zuerst auf <a href="https://arelium.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
