top of page

Power BI: So vermeidest du Startfehler

Power BI kann dich schnell in Sicherheit wiegen: Du hast nach einem Nachmittag schon etwas, das aussieht wie ein fertiger Report. Und genau deshalb stolpern so viele Teams am Anfang. Nicht weil sie „Power BI nicht können“, sondern weil sie die Dinge überspringen, die erst später wehtun: sauberes Modell, klare Kennzahlen, Refresh, Rechte, Ordnung.


Wenn du Power BI nur für dich nutzt, fällt das kaum auf. Sobald du aber teilst, skalierst oder „das wird jetzt offiziell“ sagst, wird aus einem netten Prototyp schnell ein Problem, das Zeit frisst.

In diesem Beitrag findest du 10 Fehler, die wir beim Start immer wieder sehen – und pro Punkt eine klare Lösung, die du sofort anwenden kannst.


Power BI Dashboard Best Practices

Ohne Zielbild starten: „Wir bauen erstmal einen Report“

Der schnellste Weg zu einem Report, den niemand nutzt: einfach loslegen und hoffen, dass sich der Nutzen unterwegs ergibt. Dann entstehen Seiten um Seiten, aber keine klare Antwort auf die Frage, wofür das Ding da ist. Und wenn später jemand nachhakt:„Welche Entscheidung treffe ich damit besser?“, wird es dünn.


Die Gegenmaßnahme ist unspektakulär, aber mächtig: Starte mit Entscheidungsfragen statt Visuals. Drei reichen: „Wo verliere ich Marge?“, „Welche Produkte kippen?“, „Welche Region braucht Aufmerksamkeit?“ Dazu definierst du die KPIs einmal sauber (Owner, Formel, Granularität, Aktualität). Erst dann baust du Visuals. Das fühlt sich langsamer an – ist aber in der Realität der schnellste Weg zu Akzeptanz.


Datenmodell kommt später: One-Big-Table statt Star Schema

Viele behandeln das Datenmodell wie das Fundament eines Messestands: Hauptsache es steht, schön ist später. In Power BI rächt sich das: DAX wird unnötig kompliziert, Filter verhalten sich überraschend, Performance wird zäh – und jede kleine Änderung zieht neue Nebenwirkungen nach sich.


Die robuste Standardentscheidung heißt Star Schema: Fakten (Ereignisse wie Sales, Buchungen, Tickets) und Dimensionen (Beschreibungen wie Kunde, Produkt, Datum). Microsoft empfiehlt Star-Schema-Prinzipien ausdrücklich, weil sie Performance und Usability verbessern.


Praktisch heißt das: Klare Granularität in der Faktentabelle, Dimensionen mit eindeutigen Schlüsseln, Beziehungen sauber gesetzt. Das ist nicht „nice to have“, das ist die Grundlage dafür, dass du in drei Monaten noch weißt, was du da gebaut hast.


Many-to-Many und bidirektionale Filter als Schnellpflaster

Wenn Beziehungen nicht sofort „passen“, ist der Reflex oft: Many-to-Many aktivieren, Filterrichtung auf „beide“, weiter geht’s. Kurzfristig wirkt’s wie gelöst. Später kommen dann die Klassiker: doppelte Werte, Totals stimmen nicht, und niemand kann erklären, warum eine Filterung plötzlich eine völlig andere Tabelle beeinflusst.


Many-to-Many ist nicht grundsätzlich falsch – aber es ist ein Sonderfall, den du bewusst designen musst. Microsoft hat dafür eigene Guidance mit typischen Szenarien und Design-Optionen. In der Praxis ist die Lösung oft weniger „Power BI Trick“ und mehr „Modell klären“: Brauchst du eine Bridge-Tabelle? Ist die Granularität der Fakten sauber? Kannst du die Beziehung in ein klares 1:n übersetzen? Wenn du dir diese Fragen am Anfang stellst, sparst du dir später stundenlanges Debugging.


Power Query als Bastelstube – und Query Folding geht verloren

Power Query kann alles Mögliche. Genau das ist die Gefahr: ein paar Custom Columns hier, ein Sortieren dort, komplexe Schritte früh in der Kette – und plötzlich dauert der Refresh ewig, weil Power BI die Arbeit lokal macht statt in der Quelle.


Das Stichwort ist Query Folding: Power Query versucht, so viele Schritte wie möglich in eine einzige Abfrage zu übersetzen, die die Quelle ausführt. Microsoft beschreibt das Prinzip und die Best Practices sehr klar. Die alltagstaugliche Regel: Erst filtern und reduzieren (Zeilen/Spalten), dann joinen/aggregieren, und „Kosmetik“ ganz ans Ende. Wenn Folding weg ist, ist das kein Detail – es ist oft der Unterschied zwischen „läuft stabil“ und „Refresh ist jedes Mal ein Glücksspiel“.


Falscher Modus gewählt: Import vs. DirectQuery

„Wir brauchen Live-Daten“ ist ein teurer Satz, wenn er unreflektiert bleibt. DirectQuery klingt nach Echtzeit, bringt aber Einschränkungen und hängt stark davon ab, wie schnell die Quelle auf viele kleine, interaktive Abfragen reagiert. Microsoft beschreibt, wann DirectQuery sinnvoll ist und welche Limitationen du einkalkulieren solltest.


Pragmatische Empfehlung: Import ist der Default, weil du Performance und Modellfreiheit bekommst. DirectQuery (oder Hybrid/Composite) ist eine Architekturentscheidung, wenn Latenz wirklich kritisch ist oder Datenmengen/Refresh-Fenster es erzwingen. Wenn du unsicher bist: Starte mit Import, messe, und wechsle nur mit klarem Business-Need.


Implizite Measures und Calculated Columns überall

Drag & Drop ist am Anfang bequem: Power BI erstellt implizite Kennzahlen, und du bekommst schnell Balken und Karten. Das Problem kommt später: Sobald Kennzahlen fachlich komplex werden (YTD, Vorjahr, Sondereffekte), ist Logik verteilt, schlecht dokumentiert und schwer wiederverwendbar.


Die Lösung ist simpel: Explizite Measures als Standard. Dann liegt die Kennzahlenlogik an einem Ort, ist benennbar, kommentierbar und testbar. Calculated Columns sind nicht „böse“, aber sie gehören gezielt eingesetzt (Attribute auf Zeilenebene), nicht als Ersatz für Measures. Wenn du das als Teamregel etablierst („Keine KPI ohne Measure“), steigt die Qualität sofort – ohne neue Tools, ohne neue Prozesse.


Auto Date/Time anlassen – und Datumslogik wird inkonsistent

Auto Date/Time ist ein Notfallpflaster: für schnelle Exploration okay, für ernsthafte Modelle oft Gift. Du bekommst versteckte Datumstabellen, Time-Intelligence wird unklar, und das Modell bläht sich still und heimlich auf. Microsoft empfiehlt, Auto Date/Time nur bei simplen Anforderungen aktiv zu lassen und sonst eine eigene Date-Dimension zu verwenden.


In der Praxis heißt das: eine echte Date Table (inkl. Geschäftskalender, Wochenlogik, ggf. Feiertage), und alle Fakten hängen daran. Das wirkt wie Extraarbeit – aber es verhindert genau die nervigen Diskussionen später: „Warum stimmt YTD nicht?“ oder „Wieso hat dieser Report andere Monatsgrenzen?“


Refresh & Gateway erst zum Go-live ernst nehmen

„Im Desktop klappt’s doch“ ist kein Betriebsmodell. Sobald du veröffentlichst, kommen Credentials, Gateway, Zeitpläne, Limits – und auf einmal steht das Projekt, obwohl der Report „fertig“ war. Microsoft beschreibt Refresh-Konzepte und Best Practices sowie die konkrete Konfiguration von Scheduled Refresh (inkl. Gateway-Aspekten).


Wenn Datenmengen größer werden, ist Incremental Refresh oft der Punkt, an dem aus „geht irgendwie“ ein stabiler Betrieb wird. Microsoft zeigt dafür die notwendigen Schritte (u. a. RangeStart/RangeEnd und die Policy). Eine einfache Go-live-Regel aus der Praxis: Refresh läuft eine Woche stabil (inkl. Service) – erst dann Rollout.


Rechte falsch verstanden: Workspace ≠ Build ≠ Datenzugriff (RLS)

Hier brennen viele Teams unnötig Zeit: Man vermischt Zusammenarbeit im Workspace mit Datenzugriff. Dann bekommen zu viele Edit-Rechte, und plötzlich greift RLS nicht so, wie man dachte. Wichtig ist: Workspace-Rollen sind Kollaboration, nicht automatisch Security. Microsoft beschreibt die Rollen (Admin/Member/Contributor/Viewer) und weist explizit darauf hin, dass der Viewer-Rolle bei RLS eine besondere Bedeutung zukommt.


Der entscheidende Stolperstein: Wenn jemand im Workspace Admin/Member/Contributor ist, hat er Edit-Rechte am semantischen Modell – und RLS gilt dann nicht. Das steht so auch in der Microsoft-Dokumentation. Zusätzlich solltest du „Build Permission“ bewusst vergeben: Wer darf auf dem semantischen Modell neue Inhalte bauen? Microsoft erklärt, was Build Permission ermöglicht und warum sie relevant ist.


Wenn du das trennst (Viewer für Konsum, Build gezielt, Edit nur für wenige), verschwinden viele „Security-Probleme“ sofort.


Power BI Governance: Warum ohne Standards Chaos entsteht

Ohne ein kleines Governance-Set passiert immer dasselbe: Wildwuchs, KPI-Dubletten, und irgendwann traut niemand mehr den Zahlen, weil es zu viele Varianten gibt. Governance muss nicht schwer sein – aber sie muss existieren.


Zwei Funktionen in Power BI helfen extrem, ohne dass du gleich ein Monster-Prozess wirst: Endorsement (Promoted/Certified), um vertrauenswürdige Inhalte sichtbar zu machen. Microsoft beschreibt, wie Endorsement dabei hilft, „gute“ Inhalte auffindbar zu machen und zu markieren. Und Sensitivity Labels, um Inhalte zu klassifizieren und Exporte/Downloads entsprechend zu schützen. Microsoft beschreibt, wie Labels in Power BI wirken – auch beim Export in Dateien.


Wenn ihr zusätzlich sauber zwischen Dev/Test/Prod arbeiten wollt, sind Deployment Pipelines der pragmatische Weg, Releases kontrolliert zu machen.

Fazit: Weniger Chaos, mehr Vertrauen in Zahlen

Power BI scheitert selten an Visuals. Es scheitert daran, dass Modell, Betrieb und Verantwortlichkeiten unterschätzt werden. Wenn du beim Start drei Dinge richtig machst, bist du schon sehr weit: Star Schema als Default, Refresh früh stabilisieren (inkl. Incremental Refresh, wenn nötig), und Rechte sauber trennen (Workspace-Rolle vs. Build vs. RLS).


Der Rest ist dann kein „großes Projekt“, sondern Disziplin in kleinen Entscheidungen. Und genau die entscheiden am Ende, ob Power BI für euch ein schneller Hebel wird – oder ein Dauerbaustellen-Tool.

Der nächste sinnvolle Schritt

Power BI entfaltet seinen Nutzen erst dann vollständig, wenn Dashboards sauber aufgebaut, Datenmodelle durchdacht und Kennzahlen klar definiert sind.Genau diese Grundlagen entscheiden darüber, ob Berichte genutzt oder ignoriert werden.


Wenn du Power BI strukturiert aufsetzen oder bestehende Lösungen verbessern willst, unterstützen wir dich mit:


So wird aus einem funktionierenden Bericht eine belastbare Analytics-Lösung.

bottom of page