Tag 2 des Reshape Forums an der Hochschule für Gestaltung Schwäbisch Gmünd (photo: eignerframes)

Eröffnungsrede von “Reshape forum for Artificial Intelligence in Art and Design” (Mai 2023)

Alexa Steinbrück
10 min readJun 5, 2023

--

Im Frühjahr 2023 hatte ich die Gelegenheit eine Konferenz an der Hochschule für Gestaltung Schwäbisch Gmünd zu kuratieren.

Vom 10.-12. Mai 2023 fand dort die dritte KITeGG summer school statt. Unter dem Titel “reshape — forum for AI in Art and Design” luden wir zahlreiche internationale Expert*innen ein um einen Überblick über die zahlreichen Arten zu erhalten, in denen KI für Designer*innen relevant ist.

Der folgende Text ist eine Rede, die ich anlässlich der Eröffnung der Konferenz am 10. Mai in der Aula der HfG hielt!

reshape (1)

reshape ist der Name einer Funktion in der Programmiersprache Python, genauer gesagt in der Programmierbibliothek numpy, die bei so gut wie allen KI-Programmen Einsatz findet.

Was man mit numpy machen kann, ist Zahlenakrobatik: Es enthält Funktionen für das Arbeiten mit Vektoren, also Listen von Zahlen und Matritzen. Im Machine Learning wird alles in Zahlen abgebildet, Wörter genauso wie Bilder, Klänge und Bewegungen. Und diese Vektoren sind das, was in ein neuronales Netz hineingeht. Die Funktion reshape kann die Form dieser Vektoren verändern, z.B. aus einem 1-dim Vector, einen 2-dim Vector machen oder einen 3-dim Vector.

Die Funktion reshape “ändert die Form, ohne den Inhalt zu ändern” heißt es in der Dokumentation von numpy.

Source: https://www.w3resource.com/numpy/manipulation/reshape.php

reshape (2)

Die Konferenz auf der Sie gerade sind heißt auch reshape — Unser Slogan “reshape the landscape of art and design” — reiht sich umstandslos ein in die Rhetorik von der wir in letzter Zeit häufiger umgeben sind wenn es um KI geht: “disruption”, “revolutionize”, “blowing up”, “turn upside down”, “massive news” — Wir erleben gerade einen neuen KI-Hype.

Es ist ein wenig verwunderlich und fühlt sich an wie ein Deja Vu, denn die letzte Welle des KI-Hypes/KI-Sommers ist noch gar nicht so lang her, ca. 2014 mit dem Durchbruch der Technik des Deep Learnings.

Im Zentrum dieses neuen KI-Sommers steht “Generative AI”, also Systeme wie Stable Diffusion oder ChatGPT, die in der Lage sind realistische Artefakte wie Bilder oder Text, zu generieren.

Karl Sims: Evolved Virtual Creatures

Generative AI is nothing new

Aber auch “Generative AI” gibt es schon länger und Künstler*innen und Designer*innen haben von jeher damit gearbeitet (wenn auch mit wechselnden technischen Grundlagen):

  • 1980-er Jahre: Harold Cohen + sein Programm “AARON”, das erste mal dass KI-Technologien in die Welt der Computerkunst eingeführt wurden. Das Programm konnte Farben und Formen verstehen und generieren. Hier sieht man Cohen beim “ausmalen”
  • 1990er-Jahre: Karl Sims — Evolved Virtual Creatures (benutzt Evolutionäre Algorithmen)
  • 2015 Deep Learning, early adopters: Addie Wagenknecht, Alex Champandard, Alex Mordvintsev, Alexander Reben, Allison Parrish, Anna Ridler, Gene Kogan, Georgia Ward Dyer. Golan Levin, Hannah Davis, Helena Sarin, Jake Elwes, Jenna Sutela, Jennifer Walshe, Joel Simon, JT Nimoy, Kyle Mcdonald, Lauren McCarthy, Luba Elliott, Mario Klingemann, Mike Tyka, Mimi Onuoha, Parag Mital, Pindar Van Arman, Refik Anadol, Robbie Barrat, Ross Goodwin, Sam Lavigne, Samim Winiger, Scott Eaton, Sofia Crespo, Sougwen Chung, Stephanie Dinkins, Tega Brain, Terence Broad and Tom White.

Der Künstler+Researcher Memo Akten war einer dieser “early adopters”. Seine Videoarbeit “Learning to see” (2017) ist ein gutes Beispiel: Hier sieht man wie Akten in Echtzeit sein Videoinput in ein Neuronales Netz füttert, was diese Bilddaten daraufhin interpretiert. Eine Art semantischer Style-Transfer.

Memo Akten: Learning to see (2017)

Die Arbeit von Künstler*innen war auch immer ein Experiment mit den Unzulänglichkeiten, den Gaps und den Glitches dieser Technologien, die oft direkt aus der akademischen KI-Forschung kamen und von ihnen “zweckentfremdet” wurden.

Oft mussten sie über ein technisches Tiefenverständnis dieser Systeme verfügen um sie derartig benden und twisten zu können. Auch wenn Algorithmen open source verfügbar waren, so musste man als Designer*in sich doch relativ tief “hinein-nerden”.

Transformiere eine low-fidelity Website-Skizze in funktionales HTML (möglich mit GPT-4)

Eine Revolution der Zugänglichkeit

Was die jetzige Revolution ausmacht, ist eine Revolution der Zugänglichkeit und Verfügbarkeit. Die Technologien haben sich der Breite der Menschen geöffnet.

Sie haben ein neues Interface bekommen, was für jede*n benutzbar ist, und dieses Interface heißt menschliche Sprache (Natural Language).

Dieser KI-Hype fühlt sich nun sogar fast berechtigt an! Konkrete Folgen sind in verschiedenen Bereichen bereits spürbar. Es ist ein enormer Schub an Innovationen mit einer unglaublichen Geschwindigkeit .

Ein paar Innovationen aus den letzten 2 Monaten (März — April 2023):

  • VQGAN-CLIP: Hier ist ein Vergleich der Qualität generierter Bilder vor 1 Jahr — und dem state of the art im April 2023 namens “stable diffusion XL”
  • NVIDIA Video generation: https://www.youtube.com/watch?v=3A3OuTdsPEk Hier ist eine Auflösung von 2000x1000 pixel erreichbar
  • GPT-4 wurde veröffentlicht. Dieses Sprachmodell ist multimodal, d.h. es kann Bilder “verstehen” (Beispiel Skizze von Website → funktionierender Website Code, oder auch komplette Rezepte auf der Basis von Fotos von Mahlzeiten ableiten)
  • Das Llama Sprachmodell von Meta (mit GPT-3 vergleichbar) läuft auf Laptop CPU, Smartphone und sogar auf einem Raspberry Pi (Link)

Bei der letzten KITeGG summerschool (November 2022, HfG Offenbach), war Stable Diffusion (veröffentlicht im August 2022) die Technologie und die Revolution über die alle sprachen: Endlich konnte jedermensch einfach durch eine Textbeschreibung beliebige Bilder generieren.

3 Monate später, im November 22 kam ChatGPT raus und hat seither alles auf den Kopf gestellt. Mit ChatGPT haben wir quasi den “Stable Diffusion Moment” erlebt, nur für Large Language Models (LLMs).

Ok wow, GPT-3 Konkurrent Llama von Meta läuft sogar auf einem Raspberry Pi

Large Language Models (LLMs)

Large Language Models sind neuronale Netze mit mehreren Milliarden Parametern die mithilfe von großen Mengen Text trainiert wurden. LLMs finden Muster in diesen großen Mengen Text und lernen die statistische Wahrscheinlichkeit, mit der ein Wort auf das nächste Wort folgt.

Diese Technik klingt ersteinmal so banal wie die Autocomplete-Funktion auf unseren Handys, und doch ergibt sich eine erstaunliche Komplexität daraus:

LLMs können Texte zusammenfassen, übersetzen, Essays generieren, wissenschaftliche Papers verfassen, funktionierenden Code schreiben, Ideen generieren, und Sie selbst werden wahrscheinlich ihre ganz eigenen Geschichte erzählen können, wie sie ChatGPT genutzt haben und überrascht waren!

Man geht teilweise sogar so weit davon zu sprechen, dass diese Systeme “Reasoning” beherrschen (also logische Schlussfolgerungen ziehen können) — ein heiliger Gral der KI Forschung.

Diese überraschenden Fähigkeiten haben dazu geführt, dass es nun eine Anzahl von Leuten gibt die behaupten wir hätten “AGI” (Artificial General Intelligence) erreicht oder würden zumindest kurz davor stehen. Und ab diesem Punkt im Diskurs ist es schwer von Science Fiction zu unterscheiden. Man spricht von KI, als hätte wäre es ein Wesen mit einem eigenen Willen, und einer eigenen Agenda.

Vielleicht haben Sie von dem Open letter gehört “Pause Giant AI Experiments”, der von prominenten Personen unterschrieben wurde. Darin wird gefordert dass große KI-Labore eine Pause in ihrer Forschung einlegen, so dass die Gesellschaft und Regulatoren Schritt halten können.

Dieser Brief hat viel Kritik geerntet, Emily Bender, eine bekannte KI-Forscherin im Bereich Natural Language Processing, schrieb auf Twitter, er würde nur so von KI-Hype und Mythen triefen. Außerdem rührt er von einer Ideologie her, die sich “Longtermism” nennen, die eine ganz spezielle Agenda für die Zukunft der Menschheit haben.

Wenn wir in diesen KI-Systemen der automatisierten Mustererkennung ein echtes Gegenüber, ein denkendes Wesen vermuten, dann ist es vielleicht so wie wenn Tiere in einen Spiegel schauen. Der Journalist James Vincent nennt das den “AI mirror test”.

GIF: Xavier Hubert-Brierre via Tenor

Bestehen wir den “KI Spiegel Test”?

Der Spiegeltest wird in der Verhaltenspsychologie dazu benutzt herauszufinden, ob ein Lebewesen/Tier über ein Ich-Bewusstsein verfügt. Es gibt ein paar Variationen dieses Tests aber im Kern ist die Frage: Erkennt sich das Lebewesen im Spiegel selbst, oder denkt es, es wäre ein anderes Lebewesen?

Wir sind als Menschheit gerade kollektiv mit einem Spiegeltest konfrontiert, und der Spiegel nennt sich Large Language Models.

“The reflection is humanity’s wealth of language and writing, which has been strained into these models and is now reflected back to us. We’re convinced these tools might be the superintelligent machines from our stories because, in part, they’re trained on those same tales. Knowing this, we should be able to recognize ourselves in our new machine mirrors, but instead, it seems like more than a few people are convinced they’ve spotted another form of life.”

Vergleicht man diese Art des Diskurses über KI mit dem (technischen) reshape-Begriff vom Anfang, so liegen da doch Welten dazwischen! Und zwischen diesen 2 Extrem-Polen stehen nun auch Designer*innen und Künstler*innen.

Ich denke, es ist gerade eine ziemlich aufwühlende Zeit für Kreative.

Wie fühlt sich das alles für Designer*innen an?

Auf der einen Seite möchten wir gern KI als ein Tool sehen: Bildgeneratoren sind praktische Tools um Ideen zu visualisieren oder renderings zu erzeugen. Sprachmodelle können Interaction-Designer*innen beim Coden helfen, damit sie schneller Prototypen bauen können, etc. Und jeden Tag schießen neue Tools/Integrationen/Verbesserungen aus dem Boden. Die Innovationsgeschwindigkeit ist immens.

Auf der anderen Seite sehen wir uns medial immer wieder konfrontiert mit dem Narrativ einer allgemeinen Intelligenz, einer Vorstufe zur Superintelligenz, die komplexe Designaufgaben mit einer Effektivität und Kreativität löst als man es selber je tun könnte. Von “KI ersetzt zu werden” ist seit kurzem ein Sorge von kreativen Berufen geworden wie Designer*innen und Software Entwickler*innen.

Es ist wirklich paradox: Einerseits verspricht die Technologie “Superkräfte für Kreative”, auf der anderen Seite fürchten eben jene Kreative um ihre Relevanz und Zukunft.

Was will das Reshape Symposium?

Wir wollen mit dieser Konferenz einen differenzierteren Blick einnehmen auf die verschiedenen Berührungspunkte von Design und KI-Technologie, abseits von den neu erstarkten KI-Mythen und schwarz-weiß Sichten von KI-Replacement.

Wir möchten KI-Systeme und ihre technischen Eigenschaften differenziert betrachten, statt generalisierend von “einer KI” zu sprechen.

Wir fragen uns: Wo liegt die Verantwortung von Designer*innen, was ist ihre Rolle, und wie können sie den Verlauf der KI-Entwicklung mitbestimmen?

Die Konferenz wird diese Themen von 3 Achsen her beleuchten:

  1. Designing for AI (Designing AI systems)
  2. AI for Design (Creative AI)
  3. Teaching AI (to creatives)

Designing for AI (Designing AI systems)

Hier geht es das Design von KI-basierten Interfaces und Produkten, beispielsweise Systeme, die über Gestenerkennung oder Spracheingabe funktionieren, oder das Design von generativen Interfaces selbst und Integrationen.

Was sind hier die Herausforderungen und Möglichkeiten? Was ist der breitere gesellschaftliche Kontext dieser Technologien? Was müssen Designer*innen wissen, um diese Systeme verantwortungsvoll zu gestalten?

Für diese Fragen haben wir eine Reihe von Talks vorbereitet:

  • Nadia Piet — Gleich morgen früh spricht Nadia Piet über Praktiken, um die User Experience für KI-basierte Systeme und Interfaces zu gestalten
  • Catherine Breslin — Anschließend kommt ein Talk von Catherine Breslin über Conversational Design, darüber wie Maschinen und Menschen konversieren, und wie LLMs die Zukunft von Sprachassistenten verändern werden
  • Ploipailin Flynn — Anschließend geht es bei Ploipailin Flynn um die dunklen Seiten von Mustererkennung und wie gesellschaftliche Muster wie Rassismus notorisch von KI-basierten Systemen reproduziert werden, und um Design-Strategien um damit umzugehen
  • Emily Saltz spricht über synthetic media, also KI-generierte Artefakte, die in Zukunft immer mehr Teil unseres Alltags werden und was das für das Produktdesign bedeutet

AI for Design (Creative AI)

Wie lassen sich KI-Technologien als Werkzeuge in den kreativen Werkzeugkasten von Künstler*innen und Designer*innen integrieren? Wie kann KI der Ideenfindung dienen, und menschliche Kreativität fördern, anstatt sie zu einzuengen und zu verflachen? Wie “liegen diese Werkzeuge in der Hand”?

Hier freuen wir uns auf einen Talk des Design-Studios oio am Donnerstag nachmittag, die aus einem schicken tinyhouse mitten in London heraus arbeiten. In ihren Workflows setzen sie auf “post-human collaboration” und entwickeln Produkte und Tools für eine “less boring future”.

Außerdem wird uns Tom White — einer dieser “early adopters” von KI-Technolgien für kreative Nutzung, wird uns von seinen Experimenten mit Machine Vision erzählen und seinen neuesten Projekten.

Teaching AI (to creatives)

Das ist ja die Leitfrage von dem KITeGG Projekt: Wie kann man das Thema KI an Kreative, insbesondere an Design und Kunst studierende vermitteln? Welches Wissen, welche Skills sind wichtig?

Auf welcher Komplexitätsebene bewegt man sich? Von den technischen Basics (Wir erinnern uns an die Python-Funktion reshape) hin zu high-level Konzepten und ethischen Fragen wie Bias, Privatsphäre oder IP Rechten: Welcher Grad von Tiefe ist realistisch zu erreichen?

Wie kann man ein Gespür für KI-Usecases entwickeln? Wie vermittelt man die Fähigkeit die Vorteile und Risiken bewusst einzuschätzen und zu entscheiden, wann KI-basierte Technologien nicht genutzt werden sollten?

Dafür haben wir 2 Panels vorbereitet: “AI Industry” und “KITeGG — Learnings from 1 year of AI education at design schools”. Nicht zu vergessen sind auch die Workshops von Anfang der Woche, deren Ergebnisse am Freitag vorgestellt werden!

Ich freue mich auf die kommenden 2,5 Tage Konferenz mit Ihnen! Auf tolle Gespräche und Austausch zwischen verschiedenen Disziplinen!

Reshape Konferenz Website: https://reshapeforum.hfg-gmuend.de/

Mehr zu KITeGG: https://gestaltung.ai

--

--

Alexa Steinbrück
Alexa Steinbrück

Written by Alexa Steinbrück

A mix of Web Development, Machine Learning and Critical AI discourse. I love dogs and dictionaries.

No responses yet