PVPublic!

Photovoltaik | Energie 4.0 | Elektromoblität

Big Data: Was das ist und warum sie der neue Rohstoff ist.

Big Data als Name heißt eigentlich nur eine große Menge an Daten. Das macht den Begriff etwas „zu einfach“, sodass nicht genügend Bemühungen gibt, meiner Meinung nach, um so einen anscheinend einfachen Begriff gut zu erklären. Man müsste nicht alles verstehen, aber sollte eine Vorstellung haben, was wirklich passiert, wenn Big Data in unserem Alltag eingesetzt wird. Manche verwechseln sie mit „Deep Learning“, manche mit „Künstlicher Intelligenz“.

Gerade weil die meisten nicht wirklich wissen, was mit den „Großen Daten“ passiert, hat man auch tendenzielle Angst vor diesem gefühlt allmächtigen Tool. Als wäre Big Data gleich Big Brother, der alles überwacht. (Das funktioniert in gewisser Weise so, aber nicht ganz.) Ich will niemand überreden, dass Big Data sicher wäre, oder sogar einfach gut oder böse wäre. Ich bin selbst einfach der Meinung, dass man oft nur Angst hat, wenn man etwas nicht richtig kennt. Wenn man etwas gut kennt, dann kennt man die Vorteile und Risiken und kann man entsprechend handeln.

Big Data Big Brother
Big Data wird (noch) sehr negativ wahrgenommen.

Darum will ich in diesem Beitrag eine sehr einfache Erklärung liefern, damit jede/r danach den Begriff versteht, wie Big Data funktioniert.

Besonders für die PV Industrie sollte man darüber informiert sein, weil PV Industrie selbst ebenfalls eine komplexe Industrie ist. Nachdem die Grundbegriffe geklärt sind, werde ich noch ein paar Beispiele nennen, wo sie für PV eingesetzt werden kann.

Wie immer eine Übersicht, worum es geht:

  • Was ist Big Data? Die 4 Eigenschaften, die Big Data beschreiben.
  • Beispiele aus der heutigen Zeit, wie Big Data funktioniert.
  • Warum Daten der neue Rohstoff ist.
  • Wie groß müssen die Daten sein, um Big Data zu sein?
  • Wofür braucht man Big Data bei der PV Industrie?
  • Beispiele für PV Industrie, die bereits mit Big Data funktionieren.

Was ist Big Data?

„Big Data“ ist die neue Wissenschaft, menschliches Verhalten zu verstehen und vorherzusagen, indem große Mengen unstrukturierter Daten untersucht werden. Big Data wird auch als „Predictive Analytics“ bezeichnet.

Ich vergleiche jetzt die Daten, die momentan vorhanden sind, mit Wasser. Die Menge an Daten, die wir selbst produzieren, nämlich die persönlichen Daten, sind so wenig wie Tropfen. Die Daten Menge von Unternehmen sehen etwas anders aus. Manche Unternehmen haben eine Menge wie ein Teich, manche wie Facebook haben eine Menge wie ein großer See.

Wenn Du jetzt fragst: Was wäre dann ein Ozean? Google? Dann fragst Du genau richtig. Denn einen Ozean gibt es noch nicht. Ein Ozean braucht Wassertropfen, Flüsse und Seen, um ein Ökosystem zu bilden. Ohne diese gäbe es keinen Ozean. Genau so ist es für Big Data. Das führe ich gleich noch weiter.

Wenn die ersten Flüsse und Seen enstehen, entstehen Fische und weitere Organismen dabei. Wir können durch Aquakultur sie züchten und vermehren. Genau so ist es mit Daten. Unternehmen und Organisationen, die große Datenmenge besitzen, können in diesen Daten neue Ressourcen bilden, die davor nicht da waren.

Und wenn diese Daten Wassertropfen, Flüsse und Seen verbunden werden und ein Ökosystem bilden, können große Ozeane entstehen und vielfältige Kreaturen entstehen, die davor nicht da waren.

Die 4V Eigenschaften

Es gibt eine bekannte „4V“ Beschreibung – Volumen, Variety, Value und Velocity. Wir bleiben bei den Aquakulturen. Big Data als Ozean muss diese Eigenschaften erfüllen.

Big Data: Diese 4 Voraussetzungen müssen erfüllt werden
4 V Beschreibungen erklärt, was Big Data definiert.
  • Volume – Volumen
    Das ist ziemlich leicht nachvollziehbar. Nur mit einer großen Menge ist ein Ozean möglich. Wenn die Daten miteinander verbunden sind und Zusammenhänge bilden, bilden sich dabei mit diesen Zusammenhängen auch neue Daten. Jede Datenänderung führt zu neuer Daten. Dieser Prozess ist nur möglich, wenn die Datenvolumen groß genug ist.
  • Variety – Vielfalt
    So wie ein Ozean Vielfalt von Lebewesen erfasst, müssen Daten von Big Data ebenfalls eine Vielfalt besitzen. Je vielfältiger, desto vollständiger wird die Berechnung, da die Zusammenhänge konkreter werden. Damit hat man mehr Kombinationen von Möglichkeiten, als mit einem homogenen Datenpool. Darum ist es auch wichtig, andere Formate zu involvieren, z.B. Videos, Bilder oder Audio Dateien. Je mehr Formate und vielfältige Inhalte, desto vollständiger werden die Daten.
  • Veracity – Richtigkeit
    Ozean hat weniger Problem damit, aber im Pool der Daten schwimmen einige falsche Daten. Je richtiger die Daten, desto wertvoller sind sie. Darum ist es auch extrem wichtig bei Big Data, dass es sich um richtige Daten handelt.
  • Velocity – Geschwindigkeit
    Wie schnell man aus den Daten neuen Daten erzeugen kann, ist es ebenfalls sehr wichtig. Denn Zeit ist kritisch. Daten können alle korrekt sein, aber wenn sie veraltet sind, sind sie nicht mehr korrekt. Und wenn man zu langsam arbeitet, kann man aus den richtigen Daten falsche Ergebnisse liefern, weil man zu langsam war. Darum ist die Geschwindigkeit ebenfalls so wichtig.

Wie verarbeitet man diese Daten?

Der Prozess, dass neue Kreaturen und Lebewesen im Wasser entstehen, kann man mit dem Prozess von Datenverarbeitung bei Big Data vergleichen. Man findet die im Wasser versteckten Ressourcen, reinigt sie und wertet sie aus. Man sammelt diese und mischen sie zusammen, bis man mit diesen Daten etwas erschöpft, was nützlich ist.

Dabei ist es wichtig, auf diese 4V zu achten.

Wenn verschiedene Flüsse und Seen miteinander verbinden, verbinden sich ihre Kreaturen im Wasser, und sie können sich vermehren und wieder neue Spezies entwickeln. So kann man sich vorstellen, wie Big Data ebenfalls neue Daten ständig kreieren.

Gibt es Beispiele in der heutigen Zeit?

Big Data wird zur Zeit bereits in vielen Industrien eingesetzt, auch wenn nicht jede/r von uns gleich so wahrnimmt.

Eine typische Industrie ist schon die E-Commerce Industrie. Sowohl Amazon, als auch Zalando verwenden die Daten, um ein möglichst individuelles Kundenportrait über jeden User Verhalten zu bilden.

2017 (re)launchte Alibaba die neue Tmall App, mit dem Funktion „tausenden Gesichtern“. D.h. jede/r Kunde/in, der/die den App ansieht, sieht ein anderes Interface.

Dir ist sicher auch schon aufgefallen, dass Dein Amazon Konto andere Produkte zeigt, als wenn Du nicht eingeloggt bist. Oder, wenn Deine Freunde sich einloggen. Sie zeigen unterschiedliche Produkte, weil sie spezifisch an Dich angepasst sind.

Genau so wie Youtube Channel oder Netflix: Die Video Empfehlungen für jede/n ist individuell. Niemand bekommt die gleiche Empfehlungen, da sie basiert auf Deine Chroniken sind. Je mehr Videos Du Dir ansiehst, desto besser kennen sie Deine Präferenzen.

Im Bereich Marktforschung gibt es schon viele Unternehmen, die Big Data als Produkt verkaufen. Sie können von Kunden beauftragt werden, um bestimmte Verhaltensanalyse und Vorhersage zu treffen. Hier führe ich diesen Bereich nicht weiter, weil es irgendwann zu abstrakt wird.

Wie können Daten als Rohstoff dienen?

Big Data Witz

Die Vorstellung, dass man Daten, wie Geburtsdatum, Webseite Besuche, Bewegungsradius, App Anwendungen, etc… als Rohstoff verwenden kann, ist für die meisten noch unvorstellbar. Auch für die, die daran glauben, dass es Unternehmen gibt, die es tun, wissen nicht unbedingt, wie es funktioniert. Allgemein glauben die meisten Menschen, dass es da was passiert, aber was genau, wissen auch nur die wenigsten.

Rohstoff ist wertvoll, aber auch erst nach der ersten industriellen Revolution. Denn Rohstoff ist (bisher) Treibkraft, womit man Maschinen betreiben kann. Vor der industriellen Revolution wurde alles mit Menschenkraft getrieben, der Nutz von Rohstoff ist dann auch sehr gering.

Genau so sind Daten in unserer heutigen Zeit. Die Suche nach der Energie wird zwar nicht aufhören, solange Menschen noch keine ausreichend, unerschöpfliche Energiequelle gefunden hat. Dennoch sind konventionelle Energien nicht mehr das Einzige, was die Wirtschaft treibt. Was die Wirtschaft treibt, ist Wachstum, und die Ursache war bei der industriellen Revolution die Energie (damals Fossilenergie, heute suchen wir erneuerbare Energie). IT bringt heute so viel Wachstum wie noch nie in der menschlichen Geschichte. Diese drückt sich ausschließlich mit Daten aus.

Die IT Industrie ist noch nicht so weit wie die Dampfmaschinen, die so eindeutig zeigen konnten, wie die Erfindung Mehrwert schöpfen können mit Kohle. Und das macht es für die Hersteller noch schwieriger zu begreifen, was ihnen diese Daten nützen können und vor allem wie.

Damit Daten zum Rohstoff wird, müssen Daten direkt Mehrwert schaffen. Diese drückt sich heute in 4 Bereiche aus.

4 Bereiche, wo Daten heute schon Mehrwert schöpfen

  • Kunden und Zielgruppe analysieren und Customized Services anbieten.
    Beispiele: E-Commerce, Werbe-Industrie
  • Simulation von Modellen oder Situationen, um neue Märkte zu finden und Rendite sichern.
    Beispiele: Finanzdienstleistungen, Marktforschung
  • Verbindung zwischen Abteilungen finden und stärken, um Wertschöpfungskette zu vervollständigen, verfeinern oder neu zu bilden, um Effizienz zu steigern.
    Beispiele: Thyssenkrupp z.B. verwndet Big Data in der Aufzugswartung. Wer Lust hat, kann den Beitrag lesen: Big Data in der Aufzugswartung
  • Produkte und Zusammenhänge finden, um Kosten zu senken.
    Viele SaaS (Software as a Service) Unternehmen bieten diese Dienstleistung an. Aber das einfachste Beispiel ist Netflix mit „House of Cards“. Die Show wäre nur mit Hilfe von Big Data möglich gewesen.

Woher kommen die Daten bei Big Data? 3 Bereiche

  • Enterprise Data: Diese entstehen in CRM (Customer Relationship Management) Systeme, ERP (Enterprise Ressource Planing) Datenbank, oder sie sind Daten aus Buchhaltung etc. Diese Daten sind interne Daten von Unternehmen.
  • Machine generated Data: Diese Daten werden automatisch generiert durch Maschinen. In der Regel entstehen sie durch Sensoren oder Protokollen und Transaktionen.
  • Social Data: Diese sind durch Social Media Plattformen wie Facebook, Twitter oder Anwendungen wie Google. Social Data dokumentieren die User Daten und analysieren sie auch.

Wie können konventionelle Hersteller Big Data einsetzen?

Die Antwort ist einfach und kompliziert: Sie müssen in IT investieren. Digitalisierung ist ein Begriff, der schon zu oft gesprochen wurde. Aber es muss noch passieren. Es gibt keine Formel dafür. Wenn Du gerade diese Herausforderung hast, kommentier unten mit Deinem konkreten Problem. Ich mache dann noch eine Recherche daraus und suche Unternehmen aus, die die Probleme möglicherweise lösen können.

Von wieviel Daten spricht man, wenn man von Big Data spricht?

Der Kern bei „Big Data“ ist nicht „groß“, sondern … man kann fast das hauptsächlich als „chaotisch“ bezeichnen. Wenn es um Big Data geht, geht es um die 4V, Volumen ist nur eine der Eigenschaften. D.h., alleine die große Menge von Daten reicht es nicht, etwas als „Big Data“ zu bezeichnen. Der Name heißt so, nur weil es einfacher ist. Sonst müssten wir „Big and diverse and correct and fast Data“ nennen. Aber korrekter wäre das so, daher lässt sich diese Frage nicht mit einer einfachen Zahl beantworten.

Mit einer großen Menge von Daten, die vielfältig, korrekt sind und schnell gesammelt werden, kann man mit der Berechnung starten. Diese Berechnung verwendet heute oft die Technik „Deep Learning„. Hier will ich nicht zu tief einsteigen, was das macht. Das kannst Du noch in dem separaten Beitrag lesen. Schnell gesagt geht es bei Deep Learning darum, dass Maschinen lernen, Zusammenhänge zwischen den Daten zu finden, mit einem ähnlichen Wahrnehmungsprozess wie ein Mensch. Dieser Prozess bildet Neuronen nach, die bestimmte Punkte stimulieren können. Und das Lernen ermöglicht Verbindung zwischen den Neuronen.

Computer versucht daher stets, Verbindungen zwischen Daten zu finden. Je mehr Verbindungen, desto mehr Zusammenhang kann ein Computer sehen. Bei einer großen Mengen von Zusammenhängen ist es möglich, Vorhersagen zu tätigen, was passieren kann, auch wenn in diesem Moment kein Zusammenhang da ist.

Und wenn Du unbedingt eine Zahl davor setzten willst, würde ich für den heutigen Stand sagen, dass sie die Stufe Petabyte und Exabyte erreichen müsste, um etwas als „Big Data“ zu bezeichnen. (Aber denk daran, allein diese Zahl reicht nicht!)

Wie groß ist eine Petabyte und Exabyte?

Vielleicht kennst Du das schon, aber vollständigkeitshalber liste ich die Einheiten noch auf:

EinheitAbkürzungUmrechnung zur nächst kleineren Einheit
ByteB1 Byte = 8 bit
KilobytekB1 kB = 1024 Byte
MegabyteMB1 MB = 1024 kB
GigabyteGB1 GB = 1024 MB
TerabyteTB1 TB = 1024 GB

Und eine Petabyte führt das einfach weiter:
1 Petabyte = 1024 Terabyte
1 Exabyte = 1024 Petabyte

Aber damit ist es noch nicht ganz klar, weil wir meistens nur mit Megabyte, Gigabyte und höchstens Terabyte zu tun haben.

Wer Computer kauft und auf den Speicher schaut, weiß meistens, dass heute 1 oder 2 Terabyte by Arbeitsspeicher eines Computers keine Besonderheit mehr. Eine Festplatte kann heute meistens diese Größe speichern. Mit einer Terabyte kann man 200.000 Fotos speichern, oder 200.000 Lieder.

Big Data: Festplatte Speicher

1 Petabyte benötigt dafür Speicher, die man nur in Rechenzentren kennt. Etwa so. Je nach Größe kann man von ca. 2 Stücken davon ausgehen.

Big Data: Server
2 Solche Schränke können die Größe sein, um 1 Petabyte zu speichern.

https://www.zhihu.com/question/23896161

Wofür braucht man Big Data für PV Industrie?

Für die PV Industrie kann Big Data richtig viel Nutzen bringen, wenn PV Experten sich damit auseinander setzt. Denn Strom ist eine fundamentale Infrastruktur. In Infrastrukturen sitzen Daten. Sie entstehen permanent bei der Produktion und Anwendung und bilden individuell für jeden Kunden ein eigenes Profil.

Ich will nun Beispiele nennen, die auf Internet of Things basiert sind. Wenn Du Dich mit Internet of Things, Deep Learning nicht auskennst, und dies Beiträge noch nicht gelesen hast, würde es sehr helfen, dass Du den zuerst liest. Denn die Grundlagen sind in den beiden Artikeln ganz gut beschrieben.

In einer Welt, wo alles mit Internet verbunden sind und selbst Daten erzeugen und liefern können, können das die Bestandteile der PV Infrastruktur ebenfalls. D.h., jede Solarzelle könnte bewegbar sein auf einer Solarpanel, die selbständig nach der Sonne dreht, je nach der Sonnenstrahlung. Das können sie machen, weil sie ständig die Sonnenstrahlung messen und berechnen, somit wird eine viel stärkere Effizienz produziert.

Basiert darauf, dass Daten in großer Volumen, vielfältig und korrekt in Echtzeit geliefert werden, können (Super)Computer viel Verwendung für sie finden.

Ein paar Beispiele aus der PV Industrie, die bereits jetzt Big Data als Dienstleistung anbieten:

SolarGIS

Firmen wie SolarGIS verwendet jetzt schon Daten aus Sonnenstrahl, Wetterstationen und geographischen Eigenschaften der Regionen, um Vorhersage über die Effizienz und Finanzierbarkeit der Solaranlagen zu treffen. Sie simulieren mit ihren Daten verschiedene Statistiken, die man sonst nur hinterher erfassen kann.

Und davon gibt es noch einige Unternehmen, die Prognose machen können, ohne, dass Investition getätigt wurde. Damit werden Risiken der neuen PV Projekte deutlich geringer und erleichtert die Finanzierung.

Geostellar

Geostellar z.B. macht etwas ähnliches. Sie behaupten sich als „Google der Solarwirtschaft“. Mit gekauften Daten bewerten sie das Potenzial einer Region oder eines Antrags. Diese Daten umfassen sowohl geografische Bedingungen wie das lokale Klima, Sonnenstrahlstunden, Temperaturen und Regenquoten des ganzen Jahres, aber auch „Nutzerverhalten“ wie z.B. Stromverbrauch. Darüber hinaus noch weitere Faktoren wie z.B. die lokale Politik zur Unterstützung der Solarwirtschaft, z.B. Einspeisevergütung, durchschnittliche Bank Kredite, aber auch noch Einkaufspreise und Lieferkosten einzelner PV Elemente.

Online sammeln sie Daten von Usern, die Interessen zeigen, neue PV Anlagen zuzulegen. Mit ihren Datenbank helfen sie den Usern, eine eigene Einschätzung zu liefern, ob es sich bei ihnen lohnt, und wenn ja, wie viel Kosten sie erwarten dürfen und wie die Rendite sein wird. Mit diesen Daten vervollständigen sie ihre Datenbank weiterhin und setzen diese Daten wieder in Big Data ein. Gleichzeitig bieten sie Optionen für Kunden, um Finanzierung und PV Planung zu machen. Sie sind eigentlich ein typischer IT Vermittlungsservice, um den PV Sektor zu bedienen.

iSolarCloud 4.0

iSolarCloud 4.0 ist das, was Alibaba bereits 2015 gestartet hat. Aliyun (Alli Cloud bedeutet es) brachte gemeinsam mit 阳光能源, der größte Wechselrichter Anbieter Chinas, ein Kraftwerksbetriebs- und Wartungsmanagementsystem namens „iSolarCloud 4.0“ heraus. Aliyun verwaltet und verwendet Daten von 1500 Photovoltaik Kraftwerken, die Sungrow betreut. Sie führen ebenfalls mit Big Data Vorhersagen im Wetter, Leistungsberechnung, Fehlfunktionen und natürlich, Vorhersage über Stromproduktion.

Auch wenn es jetzt noch kein konkretes Unternehmen das anbietet, ist Strompreis Vorhersage mit Big Data etwas, was sehr interessant werden kann. Der Bedarf ist bereits da – in China wurden mehrere Anfragen aus verschiedenen Regionen gesendet, um ein System, ähnlich wie eine Auktion, basiert auf Big Data zu ermöglichen. D.h., Anbieter würden anhand der zu erwartenden Peak Stunden Gebote abgeben, um Strom verkaufen zu können.

Chi Zhang

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert