Ende vergangenes Jahr erhielten wir eine Anfrage, ob wir für die Energy Hackdays 2019 unsere Daten der Plattform Swiss Energy Planning zur Verfügung stellen würden. Klar würden wir die Daten bereitstellen. Als ich mich über den bevorstehenden Event des Vereins Opendata.ch informierte und die spannenden Challenges betrachtete, begann ich bereits an Umsetzungsideen herumzudenken. Mit einigen der Fragestellungen haben wir uns gar bereits im Rahmen des Aufbaus von SEP befasst. So warf ich bei einem Kaffee mit unserem geoimpact Team die Frage auf, ob wir nicht gleich teilnehmen könnten. Nach einer gefühlten Stunde angeregter Diskussion über mögliche Lösungsansätze für die Challenges war für uns klar, wir müssen da hin.
Ich packe in meinen Rucksack
Über Hackathons hatte ich bisher nur am Rande mal etwas gelesen. Ohne jegliche Vorstellung packte ich also meinen Rucksack für die bevorstehenden zwei Tage. Denn wir entschieden uns für alle Fälle eine Übernachtung in Brugg zu buchen. Doch was muss ich mitnehmen? Der Laptop war gesetzt. Ein paar frische Klamotten, die Zahnbürste und ein paar Snacks, man weiss ja nicht ob es da auch ausreichend Verpflegung gibt. Unser vierer Team Giuseppe, Peter, Thilo und ich traf sich am Freitagmorgen am Bahnhof in Brugg. Im Hightechzentrum Aargau eingetroffen waren wir erst einmal überrascht über das grosse Willkommensbuffet mit Kaffee & Gipfeli. Es stellte sich heraus, dass ich nicht auf der Anmeldeliste eingetragen bin, zu meinem Glück stellte das aber für die Organisatoren kein Problem dar. Als ich bei der Begrüssung erfuhr, dass rund die Hälfte noch nie an einem Hackathon teilgenommen haben, war ich ein wenig beruhigt und entspannter. Nach den Pitches der Herausforderungen war für unser Team klar, an welcher Problemstellung wir arbeiten wollen. Wir eilten gemeinsam zur Challenge «R - maximize pv power on SBB areas». Die SBB besitzt über die ganze Schweiz verteilt Immobilien und hat sich zum Ziel gesetzt, mit eigenen PV-Anlagen auf ihren Immobilien einen Beitrag zur Energiestrategie 2050 zu leisten. Nun ging es darum herauszufinden, wie gross dieses Potenzial tatsächlich ist und welche Möglichkeiten sich für die SBB mit dem neuen Gesetz über Zusammenschlüsse zum Eigenverbrauch ergeben können. Das war genau unser Ding, denn wir durften bereits flächendeckende ZEV-Analysen für Netzgebiete von Energieversorgungsunternehmen durchführen. Wie wir feststellten, stoss die Challenge auch bei weiteren Teilnehmern auf grosses Interesse. Um uns herum formierte sich ein Team von schlussendlich acht Personen. Matthias von der SBB gab uns ein paar weitere Detailinfos zu den Daten und nun konnte es losgehen.
Forming – Storming – Norming – Performing
Der Teambildungs-Prozess verlief bei uns wie im Bilderbuch nach der Theorie von Bruce Tuckman. Wir stellten im Arbeitsbereich ein paar Tische zusammen, packten unsere Laptops aus, versorgten uns mit Energie (Strom & Kaffee) und formierten uns mit einer kurzen Vorstellungsrunde und einer Kurzeinführung zur Thematik ZEV, welche ich aufgrund meiner Masterthesis in diesem Bereich übernahm. Danach erlebte unser Team eine ausgeprägte Storming-Phase. Verschiedene Personen mit den unterschiedlichsten Fähigkeiten und auch Erwartungen kamen an unserem Tisch zusammen. Die Analysten wollten ein umfangreiches Konzept entwerfen und die Entwickler sofort die Daten in ihre Systeme einlesen. Es entstanden hitzige Diskussionen und es ging chaotisch zu und her, bis wir uns auf ein gemeinsames Vorgehensmodell einigten. Wir einigten uns darauf, die Analyse auf unserem SEP-Framework durchzuführen. Dies würde es uns ermöglichen, innert kürzester Zeit Daten georeferenziert zu analysieren und dies visuell über die ganze Schweiz darzustellen. Wir teilten das Team in die drei Teilbereiche Daten, Modell und Visualisierung auf. Damit hoffte ich nun auf eine Performing-Phase.
Mittlerweile war es späterer Nachmittag und es war bereits ein enormer Zeitdruck spürbar. Nachdem jeder Teilbereich eine Stunde damit verbrachte, einen Lösungsansatz zu entwerfen, haben wir uns im Plenum wieder getroffen. Dort mussten wir feststellen, dass die Ansprüche der Teammitglieder an das Analysemodell divergierten. Zurück auf das Feld «Storming», bedeutete dies für das Team. Nach weiteren ausführlichen Diskussionen konnten wir uns gemeinsam auf ein minimales Analysemodell einigen, welches in der vorgegebenen Zeit umsetzbar sein sollte.
Datenanalyse unter Extrembedingungen
Nun ging es darum, die SBB Areale in unser System einzulesen und die Stromverbräuche mit den Gebäuden von SEP zu verknüpfen, um sie georeferenziert analysieren zu können. Dies war die Aufgabe unserer Datenspezialisten im Team. Bald darauf kam die Meldung, dass die gelieferten Areale aufgrund von fehlerhaften Daten nicht eingelesen werden können. Peter liess nicht lange mit einer Lösung auf sich warten und zog die Parzellen-Daten von SEP für die Analyse hinzu. Es war dunkel und einzelne Teammitglieder verabschiedeten sich für die verdiente Nachtruhe. Das Datenteam setzte sich zum Ziel, noch bis zur Nachtruhe die Daten georeferenziert im System zu haben. Wir kämpften mit den klassischen Problemen eines jeden GIS-Spezialisten, das Adressmatching. Um 11 Uhr nachts entschieden wir uns dann, unser Hotel aufzusuchen, um dort die Arbeiten fertig zu stellen. Unterwegs genehmigten wir uns doch noch ein Bier, als wir die Türe unseres «Business-Apartments» aufschlossen, staunten wir nicht schlecht. Auf engstem Raum drängten sich ein Doppelbett, ein Schlafsofa und zwei Zusatzbetten. Daneben hatte es kaum genügend Platz, dass wir gemeinsam zu viert im Zimmer stehen konnten. Wir liessen uns davon nicht länger aufhalten und machten uns daran, knieend mit dem Laptop auf der Bettkante oder auf dem Sofa sitzend, die rund 2000 Adressen mit unserem Datensatz von über 2 Mio. Adressen zu vergleichen. Die ersten Versuche mussten wir aufgrund der begrenzten Datenmenge, welche wir über das Hotel WLAN beziehen konnten, aufgeben. Um Ein Uhr morgens hatten wir das Fuzzy-Matching erfolgreich abgeschlossen. Noch während wir weiter diskutierten schliefen wir ein und erwachten früh morgens teilweise noch mit Kleidern und Schuhen wieder auf.
Endspurt unter Höchstleistung
Wie wir nach dem Eintreffen des gesamten Teams zurück an unserem Arbeitsplatz erfuhren, waren wir nicht die einzigen, welche eine Nachtschicht geschoben hatten. So hatten wir bereits die ersten Analyseresultate zusammen. Nun ging es noch darum, die Analysen zusammenzuführen, das Gesamtanalysemodell auf die Daten anzuwenden und in einer App zu visualisieren. Gestärkt waren wir allemal nach dem zweifachen Frühstück im Hotel und an den Hackdays. Doch wir wussten, dass die Zeit drängt, bereits in sechs Stunden mussten wir die Ergebnisse präsentieren. In den nächsten Stunden war unser Team auf Höchstleistung und Effizienz getrimmt. Die Arbeiten wurden ohne längere Abstimmungen selbstbestimmt aufgeteilt und jeder wusste, was zu tun war. Es war erfreulich die rasanten Fortschritte zu sehen. Trotzdem fühlte ich mich total gestresst und um einiges nervöser, als vor einer wichtigen Prüfung. Denn ich wusste, dass ich die Ergebnisse präsentieren werde und wollte ein gutes Resultat abliefern. Eine halbe Stunde vor der finalen Präsentation trugen wir die Ergebnisse zusammen. Es war faszinierend, welch umfangreiche Analyseresultate wir in diesem diversifizierten Team innerhalb der kurzen Zeit zu Stande gebracht haben. Es war fast zu schade, dass uns für die Präsentation der Resultate nur drei Minuten zur Verfügung standen. So entwarfen gemeinsam einen Storyplot für den dreiminütigen Pitch der Ergebnisse. Danach musste nur noch die App deployed werden. Nach dem Deployment um 14.40 Uhr erkannten wir tatsächlich noch einen Fehler in der App. Wir standen vor der Entscheidung, den Fehler zu belassen oder zu riskieren, dass wir aufgrund eines Fehlers im Deployment überhaupt kein Resultat präsentieren können. Wir entschieden uns für die Risikovariante, was meinen Puls noch erhöhte.
Der Pitch zum Schluss
Um punkt 15 Uhr war die App online. Die anderen Teams starteten mit ihren Pitches. Ich war beeindruckt von den unterschiedlichen Ansätzen, welche die Teams genutzt haben, um die Fragestellungen zu beantworten. Kein Resultat war vergleichbar mit einem anderen und aus meiner Sicht sind alle von grossem Wert für die Challenge-Auftraggeber. In unserem Pitch zeigten wir zu Beginn das Gesamtpotenzial an Solarstrom, welches auf den SBB Arealen zu geringen Kosten realisierbar ist, es sind rund 153 GWh. Nach einer kurzen Grafik zu den gesetzlichen Möglichkeiten der ZEV-Bildung auf SBB Arealen konnte ich dann die visualisierten Resultate für einzelne Areale in der SEP Web-App schweizweit demonstrieren und den Nutzen sowie den möglichen Beitrag zur Energiestrategie 2050 beleuchten. Danach war auch schon der nächste Pitch an der Reihe. Ich war danach ein wenig enttäuscht, dass die wohl über 160 intensiven Arbeitsstunden, welche unser Team in dieser kurzen Zeit leistete, nur drei Minuten der Aufmerksamkeit von den Zuschauern erhalten konnte. Doch die Resultate sind für mich nur ein Teil der Erfahrungen, welche ich aus diesem Hackathon mitnehme.
Resümee
Über 100 Personen wenden zwei Tage lang ihre Energie, ihre Zeit sowie ihr Fachwissen freiwillig und unentgeltlich dafür auf, Lösungsansätze für wichtige Fragestellungen im Zusammenhang mit einer nachhaltigen Energieversorgung in der Schweiz zu finden. Das alleine hat grossen Respekt verdient. Von dieser kurzen und intensiven Zeit nehme ich einiges mit. Die vielen spannenden Lösungsansätze erlaubten einen Blick über den Tellerrand hinaus, ich lernte vieles über die Psychologie der Menschen und die Teambildung, über effiziente Zeitoptimierung und agile Vorgehensweisen. Zudem konnte ich spannende Kontakte knüpfen und mich mit den Teilnehmern über verschiedenste Themen austauschen. Die Teilnahme an den Energy Data Hackdays 2019 war eine sehr bereichernde Erfahrung, welche ich gerne weiterempfehlen kann.
Zuhause angekommen, musste ich dann feststellen, dass ich von meiner Packung einzig den Laptop und die Zahnbürste verwendet habe, dies spricht sicherlich für die Organisation dieses grossartigen Events. In diesem Zusammenhang geht mein Dank an den Verein Opendata.ch und das Hightechzentrum Aargau, sowie an die Sponsoren.
Resultate und Beschreibung unseres Hacks: https://hack.opendata.ch/project/335
Comments