YOUR ROAD
TO SUCCESS
DATENPLATTFORM FÜR DEN HANDEL MIT ERNEUERBAREN ENERGIEN
Datengetriebene Entscheidungen und Risikomanagement durch einen zentralen Delta Lake in der Azure Cloud.
Eine zentrale Herausforderung im Handel mit erneuerbaren Energien besteht darin, die Daten aus unterschiedlichen Unternehmensbereichen und Drittanbietern zusammenzuführen, um den Lifecycle der Produkte und ihre Risiken korrekt abbilden zu können und ein abteilungsübergreifendes Reporting zu ermöglichen.
Dies gelingt nur durch eine zentrale und automatisierte Datenplattform.
THE FEEDBACK
THE CHALLENGE
Die Produktion von Solar- und Windenergie ist stark von wetterbedingten Schwankungenabhängig. Um diese Herausforderung zu bewältigen und eine effektive Handelsplanung zu ermöglichen, sind tagesaktuelle Wetterdaten unerlässlich.
Eine Folge davon ist, dass Solar und Windparks über ein virtuelles Kraftwerk (VK) ausgesteuert werden müssen (d.h. ihre Leistung muss ggf. künstlich gesenkt werden), um sowohl eine Über- als auch Unterproduktion zu vermeiden und somit den Bilanzkreisausgleich zu gewährleisten. Vertragskunden erwarten für diese Aussteuerung eine Kompensation, was eine Integration der VK-Daten in die Geschäftsprozesse erforderlich macht.
Die Volatilität des so gewonnenen Stroms wirkt sich direkt auf die Preise an den Strombörsen aus und hat somit, unter anderem durch den Handel am Spot-Markt, einen signifikanten Einfluss auf den Bilanzkreisausgleich und das Risiko-Hedging. Die aktuellen Preise müssen dafür in Echtzeit den Händlern zur Verfügung stehen.
Die Produktion erneuerbarer Energien spielt eine entscheidende Rolle bei der Verwirklichung einer klimaneutralen Energiewende. Dies wird durch die Ausstellung von Herkunftsnachweisen (HKNs) unterstützt, die eine umweltfreundliche Herkunft einer bestimmten Strommenge garantieren. Durch den Handel mit HKNs kann Graustrom „vergrünt“ werden, indem Kompensationen für nicht nachhaltig erzeugten Strom geleistet wird.
Fazit: Für den Handel mit erneuerbaren Energien ist eine solide Datengrundlage für Handelsentscheidungen und Risikoabschätzungen unerlässlich und erfordert daher eine Integration aller relevanter Datenquellen.
KEY
BENEFITS
Zentralisierter, einheitlicher und qualitätsgesicherter Zugang zu Daten
Aufbrechen von Datensilos
Sprengung von Limitationen bzgl. Speicherplatz und Rechenkapazität
Effizientes Umsetzen von Reportings
Grundlage für datengetriebene Geschäftsentscheidungen gelegt
Voraussetzung für den effizienten Einsatz von KI
THE SOLUTION
Gemeinsam mit unserem Kunden haben wir eine Lösung entwickelt, die auf dem Aufbau eines zentralen Delta-Lakes in der Azure Cloud basiert. Dieser fungiert als einheitliche Datengrundlage, die es verschiedenen Fachabteilungen ermöglicht, Daten untereinander auszutauschen und in ihr Reporting einfließen zu lassen, einschließlich solcher aus dem virtuellen Kraftwerk, Kundendaten, Vertragsdaten, CRM und dem Green-Book-Management, sowie Daten von Drittanbietern wie Wetterdaten und Strombörsen.
Die Vorteile des Hyper-Scalers liegen in seiner Flexibilität und Kostenersparnis, da er die Integration beliebig großer Datenmengen in unterschiedlichsten Formaten ermöglicht und durch den Delta-Lake-Ansatz Sicherheit durch ACID-Transaktionen gewährleistet.
Anstatt isolierte Lösungen für einzelne Fachabteilungen anzubieten, konzentrieren wir uns auf die Bereitstellung von Datenprodukten für alle. Dies fördert auch eine technische Vereinheitlichung und Standardisierung der Lösungen und Schnittstellen und ermöglicht eine reibungslose Datenverarbeitung mit der benötigten Rechenleistung durch den Hyperscaler, unabhängig davon, ob es sich um Batch- oder Echtzeitverarbeitung handelt. Das Pay-As-You-Go-Modell bietet zudem Flexibilität in Bezug auf die Anpassung der Plattform an verschiedene Use-Cases.
Insgesamt trägt Delta Lake dazu bei, die Datenqualität, Zuverlässigkeit und Leistung zu verbessern, um Unternehmen fundierte Entscheidungen auf der Grundlage ihrer Daten zu ermöglichen.
TOOLS
Azure Synapse Analytics / AWS Glue
Azure Blob Storage / AWS S3
Azure Functions / AWS Lambda
THE RESULT
Durch die nahtlose Integration der wesentlichen und am häufigsten genutzten Datenquellen der Fachabteilungen kann der Kunde nun schnell und auf einer einheitlichen Daten- und technologischen Grundlage Reportings für das Risikomanagement, den HKN-Handel und das Portfoliomanagement erstellen.
Wir haben den Kunden dabei unterstützt, die Anforderungen seiner Fachbereiche an die Datengrundlage zu verstehen und die erforderlichen Quellen erfolgreich anzuschließen. Die vorhandene Speicherkapazität ermöglichte es uns, eine solide Grundlage historischer Daten bereitzustellen, die eine rückwirkende Bewertung von Datenquellen und Entscheidungen ermöglichte.
Durch den Einsatz von Rechenclustern, Serverless-Services und die Orchestrierung seiner ETL-Pipelines konnten wir den Prozess zudem kosteneffizient und automatisiert gestalten. Es ist wichtig zu betonen, dass der Aufbau einer solchen Plattform selten als endgültig abgeschlossen betrachtet werden kann. Daher ist es entscheidend, von Anfang an klare Anforderungen an Dokumentation, automatisierte DevOps-Prozesse, Code-Qualität, Monitoring und Standardisierung zu stellen. Um diesen Ansprüchen gerecht werden zu können, benötigt es Zeit. In einem Projekt muss daher ein Gleichgewicht gefunden werden zwischen:
- Schnelle Umsetzung von Anforderungen einzelner Fachbereiche, um einen direkten Nutzen für bestimmte Unternehmensbereiche liefern zu können.
- Investitionen in die Datenplattform, um langfristig effiziente, skalierbare und wartbare Lösungen entwickeln zu können.
Um einen Ausgleich herstellen zu können, sollten Plattform-Teams agil und mit klaren Prioritäten arbeiten. Ein transparenter und direkter Austausch mit den Fachbereichen und technischen Experten des Unternehmens ist dabei, aufgrund der zentralen Position des Teams, von entscheidender Bedeutung, um Erfolg zu haben.