►Um was geht es in deinem Projekt? Mein Projekt ‹Traumwelten› ist ein Versuch, meine Träume mithilfe von Bildgenerierungen per Artificial Intelligence [AI, englisch für künstliche Intelligenz, KI] zu visualisieren, mit dem Ziel meine surrealen Erfahrungen erfolgreicher kommunizieren zu können. Außerdem habe ich mich theoretisch damit auseinandergesetzt, welche Verbindung historisch zwischen künstlicher Intelligenz und den neurologischen Ursachen, warum wir träumen, besteht. ►Woher hast du deine Inspiration genommen? Im Laufe des Semesters habe ich begonnen, ein Traum-Tagebuch zu führen, in dem ich jeden Morgen in kurzen Stichpunkten meinen Traum, so gut es ging, festgehalten habe. Das hat mir auch geholfen, an den inneren Bildern des Traums festzuhalten, von denen einige nach dem Aufwachen immer noch sehr präsent waren. Aus diesen Träumen habe ich die meiste Inspiration gezogen und sie als Vorbild für meine Bilder verwendet. ►Wie hast du die Bilder umgesetzt? Kannst du von deinem Gestaltprozess erzählen? Welche Tools hast du genutzt? Im ‹AI Creative Kitchen›-Kurs, in dem das Projekt entstanden ist, haben wir mit Stable Diffusion gearbeitet, was unter anderem die Text-to-Image und Image-to-Image Bildgenerierung möglich macht. Dort hat man sehr flexible Möglichkeiten, Modelle auszutesten und verschiedene Parameter anzupassen, um ein individuelles Ergebnis zu erzeugen. Das erste Bild [Wasserhahn] ist in einem mehrstufigen Prozess zwischen Photoshop, Image-to-Image-Prompting und ControlNet entstanden. Mit ControlNet hat man die Möglichkeit, verschiedene Informationen eines Bildes in das Bildergebnis mit einfließen zu lassen. Ich habe beispielsweise die depthmap benutzt, welche die Tiefe des eingegebenen Bildes analysiert und in Kombination mit einem Prompt ein neues Bild generiert. Das heißt, im Falle meines ersten Bildes habe ich mithilfe meines Traum-Tagebuchs eine Fotomontage in Photoshop erstellt, die meinem Traum so nah wie möglich kommen sollte. Die Fotomontage habe ich mit der depthmap von ControlNet analysieren lassen und mit von mir entwickelten Prompts ergänzt. Das Ergebnis wurde am Ende noch in Photoshop optimiert und mit einem Upscaler auf eine höhere Auflösung gebracht, um für den Druck geeignet zu sein. Nachdem dieser Prozess für andere Träume überhaupt nicht funktioniert hat [insbesondere das Starten mit einer Fotomontage], bin ich für die restlichen Bilder zu einer anderen Vorgehensweise gewechselt. In dem neuen Prozess habe ich das Anfangsbild durch Text-to-Image mit einem individuellen Prompt generiert. Dieses Anfangsbild habe ich dann durch Inpainting ergänzt. Beim Inpainting wählt man einen Bereich des eingegebenen Bilds aus, um auf diesen einen neuen Prompt anzuwenden und somit neue Elemente hinzuzufügen. Auch diese Bilder habe ich zum Schluss in Photoshop bearbeitet und mit einem Upscaler vergrößert. ►Wie funktioniert Gestaltung in Zusammenarbeit mit künstlicher Intelligenz? Während des Prozesses musste ich mich von der Idee lösen, meine Träume eins zu eins abbilden zu können. In meinem Fall habe ich auch gelernt, dass es destruktiv sein kann, mit einer starren Vorstellung oder einem konkreten Bild wie einer Fotomontage zu starten. Die besten Ergebnisse habe ich erzielt, als ich auch der KI ihre Freiheiten gelassen habe und es sich mehr zu einer Kollaboration entwickelt hat, während mir die Stärken und Schwächen von Stable Diffusion bewusst wurden. Es gab zum Beispiel immer wieder Elemente, die ungenau dargestellt wurden oder keinen Sinn ergeben haben. Diese Fehler haben sich aber letztendlich gut in das Traumkonzept eingefügt, da meine Träume auch immer eine ungenaue und surrealistische Komponente hatten. ►Ist KI die Zukunft des Designs? Als Nicht-Expertin im Bereich KI kann ich nur von meinen Erfahrungen und neu gewonnenen Einstellung durch das Arbeiten mit KI berichten. Aus meiner Perspektive ist es ein weiteres Tool, das Gestalter*innen benutzen können, um ihre Visionen zu realisieren. KI-Tools können uns Arbeit abnehmen, die uns bisher am kreativen Prozess gehindert oder für das wir bestimmtes Fachwissen benötigt haben. Ich benutze zum Beispiel KI-Audio-Optimierung, Image Upscaler, Bild- und Textgenerierung, um mir meinen kreativen Prozess zu erleichtern. Prof. Peter Kabel hat im Kurs die aktuelle KI-Welle mit der Erfindung des Heimcomputers und den ersten Grafik-Programmen verglichen. Wie auch damals verkürzen wir durch den technologischen Fortschritt die Zeit zwischen Idee und Umsetzung, erweitern den Horizont der möglichen Ergebnisse und senken die Hürden des kreativen Schaffens. Es ist unmöglich vorherzusagen, wohin sich KI noch entwickelt. Meiner Meinung nach sollten wir aber nicht vergessen, dass immer noch wir – die Gestalter*innen – die treibende Kraft und damit die Zukunft des Designs sind.
►