EARTH DIARY

Was wäre, wenn die Welt ihr eigenes Bild malen könnte? Ein Bild, das alle Aspekte des Lebens veranschaulicht. Ein objektives Abbild menschlicher und natürlicher Ereignisse. Eine in Echtzeit generierte Visualisierung ihrer Gefühle.

Das Projekt „EARTH DIARY“ beschäftigt sich mit der Frage wie ein kollektives, allumfassendes, flüchtiges und stets im Wandel stehendes Stimmungsbild der Welt autonom generiert und visualisiert werden kann. Das vorliegende Fototagebuch ist ein visuelles Sammelband, das die tägliche Entwicklung globaler Ereignisse als „Weltbilder“ festhält.

Für das Stimmungsbild wurden verschiedene Parameter aus dem menschlichen und natürlichen Bereich entnommen, um eine große Bandbreite an Daten abzudecken und eine mögliche Vernetzung dieser untereinander zu erkennen. Ein wichtiger Hauptbereich ist, wie die Natur das menschliche Befinden beeinflusst, sowohl in Form von Wetterereignissen als auch Naturkatastrophen.

Die Umsetzung von „EARTH DIARY“ besteht aus drei Ebenen. Datenerhebung und -verarbeitung in Echtzeit, Machine Learning und die Übersetzung dieser Elemente in eine visuelle Sprache. Als Schnittstelle zur Datenerhebung wurden Application Programming Interfaces (APIs) genutzt. Mit den API-Schnittstellen wurden Wetter-, Naturkatastrophen-, Luftqualität- und Amerikanische Börsendaten ausgelesen. Um ein emotionales Gesamtbild der Welt zu erfassen, wurde eine Twitter Sentimet Analyse zusätzlich durchgeführt. Der Aufbau der Twitter API ist dahingehend besonders, dass die Daten länderspezifisch und darüber hinaus nur die aktuell am meisten genutzten Hashtags abgefragt werden konnten.
Alle aus den APIs gewonnen Daten wurden in eine visuelle Ebene übersetzt. Dafür war es notwendig die Informationen als Dezimalzahl auszugeben, den Wert anzugleichen und in ein Grauwertbild (Noise) zu übertragen. Jeder Datensatz wird einem Parameter der Noise zugewiesen, wodurch sich diese kontinuierlich, den Daten entsprechend, verändert.

Der weitere Gestaltungprozess befasste sich mit dem Einbinden von Machine Learning. CycleGan und Pix2Pix, beides Machine Learning Modelle, wurden mit den Bildern der vorhandenen Noise trainiert. Im zweiten Durchlauf verschmilzt die Noise Struktur mit aktuellen Nachrichtenbilder, die zusätzlich zugeführt wurden. Dadurch entstanden von einer AI eigenständig gestaltete Bilder. Für die Projektfinalisierung diente das Programm Touchdesigner als Verbindungsstelle für alle vorangegangenen Arbeitsschritte, sodass diese in Echtzeit miteinander agieren können. Die visuelle Vollendung wurde ebenfalls in diesem Programm erarbeitet.

6 Kommentare

👏🏼🔥

Diese Bilder sind so stark!

So krass, wir ihr aus den vielen Daten so spannende Visuals erzeugt habt!

einfach geil

So so ästhetisch !! Hammer

sehr nice!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.