KI-Lab

Das KI-Lab ist im Fachbereich Kunst an das Lehrgebiet Elektronische Medien angedockt. Im KI-Lab geht es in der Auseinandersetzung mit Systemen Künstlicher Intelligenz nicht nur um die bloße Anwendung der Technologie für die eigene Praxis, sondern um ein tiefer gehendes Verständnis der dahinterstehenden Prozesse und deren Reflexion. Durch praxisnahe Kritikfähigkeit werden Künstler:innen und Gestalter:innen dazu befähigt, vorhandene Tools nicht nur nach vorgegebenen Weisen zu nutzen, sondern auch nach eigenen Bedürfnissen zu modifizieren. Diese kritische Auseinandersetzung mit KI ist in Anbetracht ihrer rasanten Ausbreitung in der Gesellschaft dringend notwendig. Die künstlerische / gestalterische Forschung von KI-Systemen eignet sich aufgrund ihrer sinnlichen Erfahrbarkeit und Offenheit gegenüber den Resultaten für diese Aufgabe besonders gut. Dazu verbinden wir Theorie und Praxis, Kunst und KI, Technik und Gestaltung.
Gefördert durch das Bundesministerium für Bildung und Forschung im Rahmen des Verbundprojekts „KITeGG - KI greifbar machen und begreifen: Technologie und Gesellschaft verbinden durch Gestaltung“.
Weitere Informationen unter: https://gestaltung.ai/
-
Prof. Alexander Oppermann
T +49 (0)69.800 59-220
Westflügel, Raum D101
Leon-Etienne Kühr
Wissenschaftlicher Mitarbeiter
Leitung KI-Lab
Hauptgebäude, Raum 307
Mattis Kuhn
Wissenschaftlicher Mitarbeiter
Leitung KI-Lab
Hauptgebäude, Raum 307
Johanna Teresa Wallenborn
Wissenschaftliche Mitarbeiterin
Algorithms in Context
T +49 (0)69.800 59-220
Wintersemester 2024/25
Text Synthesizer. Playing with Language.
Im Kurs »Text Synthesizer. Playing with Language« entwickeln wir verschiedene Synthesizer zum Generieren von Texten. Wir beginnen mit der Anwendung von Python-Libraries zur Analyse von Sprache, um daraus Texte zu erzeugen. Wir rechnen mit Worten in Form von Word Embeddings. Wir nutzen Large Language Models (LLM) zum Generieren von Code, aber auch Literatur. Wir personalisieren LLMs durch System Prompts und Template Designs. Wir experimentieren mit Image-to-Text Modellen um Texte aus Bildern zu schreiben. Wir übertragen Texte in Sprache mit Text-to-Speech Modellen. Im Anschluss an diese Workshops nutzen wir die letzten Wochen des Semesters zur individuellen Ausarbeitung eines eigenen Text-Synthesizer, experimentellen/literarischen Text oder Song(text).
Mittwoch, 14:00 - 16:30
Generating Surveillance | from vision to synthesis
Die Fähigkeit, Bilder oder sogar Videos zu generieren, ist eng mit den Aufgaben des Maschinellen Sehens verknüpft. Im Kurs »Generating Surveillance | from vision to synthesis« wollen wir diesen Schritt vom Sehen zum Generieren durch praktische Übungen in python nachvollziehen. Ausgehend von vorhandenem Videomaterial nutzen wir Methoden der Computer Vision wie Klassifizierung, Segmentierung, Maskengenerierung, Objekterkennung und die Erstellung von Bildbeschreibungen, um bestehende Bewegtbilder zu verändern oder völlig neue Kompositionen zu schaffen. Auf dieser Grundlage kombinieren wir generative KI mit diesen Techniken, um Objekte zu ersetzen, neue Frames zu generieren oder vorhandene Bilder zu manipulieren. Neben den praktischen Übungen setzen wir uns mit Themen wie Anti-Surveillance-Kunst, Aktivismus und der Problematik von DeepFakes auseinander. Wir beleuchten Fragen zur Privatsphäre und wie unsere alltäglichen Daten – etwa durch soziale Medien, Smartphones oder öffentliche Kameras – unbewusst in Trainingsdatensätzen für KI-Systeme enden. Ziel des Kurses ist die Entwicklung eines eigenen kleinen Programms, das automatisch ein Video erzeugt und im Rahmen eines KI-Abends vorgestellt wird.
Donnerstag, 14:30 - 17:00
KI-Abend

KI-Abend zum »Correlations — Forum for AI in Art & Design« Symposium 2024
Foto: Cheesoo Park
Neben Kursen und einem offenen Lab veranstalten wir in unregelmäßigen Abständen KI-Abende, um bei Drinks und Snacks über Projekte aus Kunst und Gestaltung, aktuelle Entwicklungen und Paper zu sprechen. Der Abend ist offen für Alle, auch Interessierte, die nicht der Hochschule angehören. Er dient als Plattform, um KI-Themen zu besprechen. Die Inhalte der Abende können partizipativ mitgestaltet werden, beispielsweise können Paper, Tools oder Projekte vorgestellt und besprochen werden. Wenn ihr Vorschläge habt, meldet euch gerne bei uns: kuhn@hfg-offenbach.de, kuehr@hfg-offenbach.de
KI & Fotografie
Das Thema dieses Abends ist KI & Fotografie. Wir beginnen mit dem Vortrag „Fotografie ohne Fotografie“ von Florian Albrecht-Schoeck (Künstlerischer Mitarbeiter im Lehrgebiet Fotografie der HfG Offenbach). Wo fängt Fotografie an und wo hört sie auf? Ist ein mit KI und Machine Learning erstelltes Bild, welches visuell alle Merkmale einer Fotografie aufweist, dann auch eine? Welche Gemeinsamkeiten und Widersprüche existieren zwischen analogen sowie digitalen fotografischen Prozessen und KI-basierten Bilder-Erstellungen? Was hat das alles mit Höhlenmalerei, Evolutionstheorien, dem 20. Jahrhundert, Drachen, Gesellschaft, Kunst, Verantwortung und der HfG zu tun?
Diese und weitere Themen wird Florian Albrecht-Schoeck in seinem Vortrag „Fotografie ohne Fotografie“ behandeln. Neben einem Einblick in seine aktuelle künstlerische Forschung und Arbeit zu den Themen Fotografie, KI, Machine Learning und Fotogrammetrie, zeigen Studierende aus dem aktuellen Kurs „No way Back“ ihre Arbeiten, Projekte und Herangehensweisen im Kontext von Fotografie, KI und Kunst. Dies in Verbindung mit sehr innovativen und individuellen künstlerischen Herangehensweisen.
12. Februar 2025, 18 Uhr
Hauptgebäude, Raum 307
Do. 2. Mai 2024, 18 Uhr – Das Lab sagt Hallo!
Do. 23. Mai 2024, 18 Uhr – KI und Literatur
Do. 20. Juni 2024, 18 Uhr – KI und Krieg
Mi. 20. November 2024, 18 Uhr – KI und Robotik
Do. 12. Dezember 2024, 19 Uhr – KI und Zukünfte
Mi. 29. Januar 2025, 19 Uhr – KI und Sexismus
Mi. 12. Februar 2025, 18 Uhr – KI und Fotografie
Studentische Arbeiten
j00n — ELIZA bot (2024)
“What I had not realised is that extremely short exposures to a relatively simple computer program could induce powerful delusional thinking in quite normal people.” – Joseph Weizenbaum – Computer Power and Human Reason (1976)
Die interaktive Installation »bl00t - ELIZA bot« erforscht Interaktionen mit einem sprechenden Chatbot. Eine Adaption des ELIZA-Chatbots von Joseph Weizenbaum aus dem Jahr 1966 spricht mit einer Echtzeit-KI-Stimme und reagiert auf die getippten Benutzereingaben. Der einfache ELIZA-Algorithmus ermöglicht eine latenzfreie Interaktion. Die Stimme des Roboters verstärkt den (ELIZA-)Effekt.
Raspberry PI 5, Python, Piper (text-to-speech), light sensor
Elise Olenina — Draw Me a Circle (2024)
Im Schaffensprozess sind wir häufig stark von den Tools abhängig, die wir nutzen. Sie können den Prozess so beeinflussen, dass die ursprüngliche Idee verloren gehen kann. Um dieses Feld zu untersuchen, hat Elise Olenina eine Reihe von Befehlen formuliert, die typischen Aufgaben im Designprozess entsprechen, etwa das Erstellen eines Objekts, dessen Neuordnung, das Hinzufügen weiterer Elemente, das Positionieren in bestimmten Formen usw. Diese Eingabeaufforderungen wurden von einem Large Language Model verarbeitet, das aus Code und Text, jedoch nicht aus Bildern gelernt hat. Die Ausgaben erfolgen als SVG-Codes, welche als statische und animierte Vektorgrafiken gezeigt werden.
In Form von Prompts versucht Elise Olenina ihren kreativen Gestaltungsprozess nachzuahmen. Wie strukturieren wir Dinge? Wie schaffen wir Ordnung und wie gehen wir mit Chaos um? Welche Kriterien unterscheiden menschliche Arbeit von maschineller? Und kann die Sprache unsere Intentionen während des Gestaltungsprozesses sichtbar machen?
LLM, Paper, Display

Zhichang Wang — Stuhl (2024)
Foto: Cheesoo Park
Zhichang Wang — Stuhl (2024)
Die interaktive Installation Stuhl nutzt KI-Echtzeit-Generierung zur Erweiterung des Design-Prozesses von
Stühlen auf Basis der Thonet-Stühle. Besucher*innen können auf einem Grafiktablett frei zeichnen oder skizzieren.
Egal ob spontane Linien oder einfache Skizzen – das System regt die Vorstellungskraft an und unterstützt dabei, individuelle Thonet-Stühle zu gestalten. Ein ComfyUI-Workflow sorgt dafür, dass der Generierungsprozess reibungslos und schnell abläuft und das KI-System Bildanfragen effizient verarbeiten kann. Es basiert auf dem Grundmodell SDXL von Stability AI und verwendet ein speziell trainiertes LoRA-Modell sowie das LCM-Modell für Bildgenerierung in Echtzeit.
Insbesondere bei Zeichnungen, die den Formen von Stühlen sehr nahe kommen, schafft es das KI-System, durch Interpretation der Linien einen Stuhl zu designen, der dem Stil der Zeichnung entspricht.
Computer, monitor, graphics tablet, Stable Diffusion (SDXL), Custom Model, ComfyUI, Python
...
Kalender
9. November 2022 bis 12. Februar 2025KI-Abend: KI & Fotografie
18:00 Uhr, Raum 307KI-Abend: KI & Sexismus
19:00 UhrKI-Abend: KI & Zukünfte
19:00 Uhr, Raum 307Correlations – Forum für KI in Kunst und Design
bis 13. DezemberKI-Abend: KI & Robotik
18:00 Uhr, Raum 307KI-Abend: KI und Literatur
18:00 Uhr, Raum 307KI-Abend: Das Lab sagt Hallo!
18:00 UhrCorrelations – Forum für KI in Kunst und Design
bis 11. NovemberNews
Hessisches Zentrum für Künstliche Intelligenz wird bundesweites KI-Servicezentrum
Das Bundesministerium für Bildung und Forschung (BMBF) hat das hessische Zentrum für Künstliche Intelligenz hessian.AI, zu dem auch die HfG Offenbach gehört, dazu ausgewählt, eines von bundesweit vier KI-Servicezentren zu werden. Das hochschulübergreifende hessische...
KI-Labor an der HfG
Zum Sommersemester 2022 ist unter der Leitung von Prof. Alex Oppermann, Lehrgebiet Elektronische Medien, das neue KI-Labor an der Hochschule für Gestaltung (HfG) Offenbach an den Start gegangen.