RAISE (Research on Artificial Intelligence in Sound and Musical Expression)
Im Rahmen des Forschungsprojekts RAISE werden die Wechselwirkungen und Zusammenhänge zwischen Künstlicher Intelligenz (KI), Sound und musikalischen Ausdrucksformen erforscht. Dies beinhaltet sowohl die Untersuchung bereits etablierter Machine Learning-Frameworks und KI-basierter Anwendungen im Bereich der Klangerzeugung und -bearbeitung, als auch die Entwicklung von speziellen Tools für die KI-gestützte Verarbeitung von Audiosignalen.
Ziel des Forschungsprojekts ist es, KI-basierte Technologien für Soundschaffende mit unterschiedlichen Kompetenzniveaus zugänglich und nutzbar zu machen, insbesondere für Personen, die nur wenig bis keine Vorkenntnisse im Bereich maschinelles Lernen oder Programmierung haben. Es sollen verschiedene Einstiegspunkte für Akteur_innen aus unterschiedlichen Bereichen der Tonproduktion ermittelt und angeboten werden, um Kreativen den Zugang zu den meist komplexen KI-Technologien und die Interaktion mit diesen zu erleichtern. Das Forschungsteam sammelt, analysiert, testet und parametrisiert hierfür ein breites Spektrum aktueller KI-Technologien im Bereich Sound. Verschiedene interaktive und generative Systeme, Audio-Plugins, neuronale Netzwerke für die Klassifikation, Verarbeitung und Synthese von Audiomaterial sowie KI-basierte Kompositionsmethoden und webbasierte Anwendungen werden dabei auf ihre technischen, funktionalen, ethischen und soziokulturellen Eigenschaften untersucht. Die Ergebnisse werden schließlich katalogisiert und in einer interaktiven Datenbank zusammengeführt, die als frei verfügbare Web-Anwendung einen zentralen Einstiegspunkt für KI-interessierte Kreative schaffen soll.
Leitung
Prof. Alexander Oppermann
Wissenschaftliche Mitarbeiter_innen
Bastian Kämmer
Joscha Berg
Zeno Lösch
Maciej Medrala
Charlotte Simon
Johanna Teresa Wallenborn
Studentische Mitarbeiter_innen
Sara Volpe, Elisa Deutloff, Robin Stern
Verlinkungen
Basierend auf den Erkenntnissen der Forschung an bereits etablierten KI-Frameworks und -Tools im Sound-Bereich, werden eigene KI-basierte Audioanwendungen entwickelt. Durch diesen überwiegend empirischen Teil der Forschungsarbeit soll ein besseres Verständnis für wichtige Parameter, Fragestellungen und Kriterien bei der Entwicklung von KI-basierter Audio-Software geschaffen werden. Darüber hinaus wird erprobt, wie kritische Elemente der Datensatzerstellung, der Dokumentation und des Entwicklungsprozesses ethisch, fair und transparent gestaltet werden können.
Das Projekt verfolgt einen partizipativen Ansatz, bei dem Künstler_innen und Kreative aus verschiedenen Bereichen der Musikszene aktiv in den Entwicklungsprozess einbezogen werden. Dies ermöglicht es, ihre Perspektiven und Anforderungen zu berücksichtigen und zu evaluieren, wie die entwickelten Anwendungen einen Mehrwert für ihre kreative Praxis bieten können. Unterstützt wird dieser Ansatz durch einen Feedback-Loop: Mithilfe einer Online-Umfrage werden Erfahrungswerte und Positionen zur Arbeit mit KI erhoben. Diese Daten fließen in die Forschung- und Entwicklungsprozesse ein. Die Forschungsergebnisse, sowie die eigens entwickelten Anwendungen werden den Befragten in einer Test- und Evaluierungsphase zur Verfügung gestellt, um nochmals Anpassungen vorzunehmen und schließlich zu validieren, ob und inwieweit die untersuchten und entwickelten Frameworks und Anwendungen zugänglich gemacht werden konnten.
Ein weiterer Schwerpunkt ist die Dokumentation des Forschungsprozesses, die die Erstellung eigener Datensätze und die sorgfältige Dokumentation aller verwendeten Datensätze umfasst. Die im Projekt verwendeten Datensätze werden mit Hilfe des »Datasheet for Datasets«-Ansatzes (Gebru et al. 2018) erfasst und im Rahmen der Publikation der Forschungsergebnisse veröffentlicht, um Nachvollziehbarkeit und Transparenz zu gewährleisten.