KI & Musik/Klangkunst Teil 3: How Black is the box?

 

Teil 3: How black is the box?

von Anke Eckardt

Im abschließenden Teil dieser kurzen Serie an Texten zu Künstlicher Intelligenz liegt der Fokus auf Künstlicher Intelligenz im Bereich aktueller Musik und Kunst. Wer sind die Akteur:innen und wie agieren sie im Umgang mit KI?

An Ausschreibungen zu künstlerischen Projekten auf der Basis von KI mangelt es derzeit nicht. So sind nur zum Beispiel vom Schaufler Lab an der Technischen Universität Dresden auch für das Jahr 2022 wieder künstlerische Residenzen geplant, die einen Beitrag zum Forschungsschwerpunkt des Labs leisten: Artificial intelligence as factor and consequence of societal and cultural change. Über die Bewerbungen der aktuell laufenden Ausschreibung werden u.a. der Kanzler der TU Dresden gemeinsam mit dem Rektor der Hochschule für Bildende Künste Dresden und dem Künstlerischen Direktor der Ars Electronica entscheiden; dies macht deutlich, dass Künstlerische Forschung hierbei an der Schnittstelle zwischen Wissenschaft, Kunst und Technologie verortet wird. (Schaufler Lab, 2021) Das Wissenschaftsjahr 2019, eine Initiative des Bundesministeriums für Bildung und Forschung gemeinsam mit Wissenschaft im Dialog, widmete sich gleich bundesweit dem Thema der Künstlichen Intelligenz. Als Teil dieser Strukturförderung wurden u.a. im Bereich der Musik Mensch-Maschine-Kompositionen über den Wettbewerb Beats & Bits ausgeschrieben. (Beats & Bits, 2019) Neben dem Titel des Projekts lassen auch die Kooperation mit der berlin music comission, der SPEX, laut.de, dem RollingStone, dem musikexpress und weiteren unterstützenden Partnern Rückschlüsse auf die popkulturelle Verortung dieses KI-Wettbewerbs zu. Das Komponieren mit KI ist darüber hinaus in diversen musikalischen und künstlerischen Kontexten präsent. Genannt seien beispielhaft für das breite musikalische Spektrum Justine Emard, Marcus Schmickler und Julian Rohrhuber, Artemi-Maria Gioti mit Gerhard Eckel und Kosmos Giannoutakis, Alexander Schubert, Jenna Sutela mit Memo Akten und Damien Henry, Marco Donnarumma, Holly Herndon mit Jules LaPlace und Mat Dryhurst, Mouse on Mars mit Birds on Mars, Moritz Simon Geist, Antwood, Quadrature mit Christian Losert, Damian T. Dziwis, Peter Beyls, Lawrence Lek, Tomomi Adachi mit Andreas Dzialocha und Marcello Lussana, Semi-Conductor, Martino Sarolli, Jennifer Walshe mit Memo Akten und Jon Leidecker, Peter Kirn, George E. Lewis, Palle Dahlstedt, Taryn Southern, Av3ry usw. Ein separater, diese Serie an Texten ergänzender Appendix listet aktuelle künstlerische Projekte in Musik wie auch Bildender Kunst. Was all diesen Projekten in ihrer auffälligen Diversität gemeinsam ist: als Barometer eines kulturellen Wandels ermöglichen sie es uns, eine Art von Vokabular aufzubauen, die für die Erzählung der jüngsten Geschichte notwendig ist. Um so häufiger zugleich Musik und Kunst KI integrieren, um so wichtiger erscheint es mir, Möglichkeiten der Differenzierung abzuwägen. Auf welche Weisen wird KI in künstlerische Projekte integriert bzw. welche Indikatoren stehen uns dafür zur Verfügung? Wieviel Einblick haben bzw. geben die jeweiligen Akteur:innen? How black is the box?

 

NOWNESS VERSUS LONG-TERM FORM

Inspiriert von einem Gespräch zwischen George E. Lewis, Scot Gresham-Lancaster und Palle Dahlstedt (siehe Teil 1 dieser Serie) erscheint mir die Analyse unterschiedlicher Zeitlichkeiten von Bedeutung, und zwar konkret in Hinblick auf die kompositorische Form. Welche Rolle kommt diesbezüglich einem autonomen System zu, das auf maschinellem Lernen beruht?

So stellt sich einerseits die Frage, inwiefern mithilfe neuronaler Netzwerke künstlerisches Material vorproduziert wurde, welches später arrangiert, geschichtet und wiedergegeben wird oder ob vielmehr eine Art der KI eine generative Komposition bzw. ein generatives Format in Echtzeit erzeugt, wie beispielsweise in der Improvisation. Ein Gedanke zu dem Konzept der Echtzeit vorab: Die Idee der unmittelbaren Signalübertragung erweist sich als Illusion, sie ist weder wahr noch technologiebasiert möglich, zumal das Gehirn bzw. das Subjekt in seiner Wahrnehmung auch eine eigene Zeitlichkeit mit sich bringt. Jeder Prozess benötigt Zeit, wir haben es mit einer medientechnisch und physiologisch verzögerten Datenübertragung zu tun, mit einer Art von Delay und Nachhall. Da das menschliche Ohr zeitempfindlicher als das menschliche Auge operiert, sind Verzögerungen von Klang im Umgang mit Maschinen sogar noch eher wahrnehmbar. (vgl. Ernst, 2021) Innerhalb eines generativen Projektes ist Echtzeit in ihrer Verzögerung, sprich Zeit als Variable in das prozessuale Agieren integriert, vorproduziert kann diese als sekundär betrachtet werden, die Kontrollmöglichkeiten bleiben uneingeschränkt. Die Beschreibungen der meisten künstlerischen Projekte bleiben opak in Bezug darauf, ob Material mittels neuronaler Netze vorab erzeugt wurde oder ob maschinelles Lernen die Form eines Werkes prägt.

In die Zukunft blickend, möchte ich eine weiterführende Frage stellen und zwar ob und inwiefern ein neuronales Netzwerk in der Lage sein wird, über die Erzeugung von Datenmaterial hinaus komplexe Formen in Bezug auf die Gesamtstruktur einer Komposition bzw. eines Kunstwerkes zu generieren und darin evtl. verschiedene Varianten von Zukunft zu antizipieren. Hierbei könnten sich künstlerisch neue Möglichkeitsräume eröffnen. Dazu im Gespräch George E. Lewis, Scot Gresham Lancaster und Palle Dahlstedt, der beginnt:                                               
Long-term form has always been a problem with all kinds of AI [...] I mean you cannot have that kind of semantic relationship to the outside world.                                                                 
Als Beispiel führt Dahlstedt ein aktuelles Konzert von George E. Lewis an, dessen 1987 entwickelte Voyager-Software 2020 im Haus der Kulturen der Welt mit dem Voyager Interactive Music System und Magda Mayas jeweils am Klavier realisiert wurde. Es handelte sich um einen improvisierten Dialog, bei dem digitale Synthese live zum Tragen kommt. Palle Dahlsted beobachtete:          
It was a so very nice reaction of Magda to sit down and wait and basically your system is playing... but it doesn't have the whole picture of her as a musician, I guess, because that's too big.
George E. Lewis erwidert darauf:                                                                                                   
I have a bit of a different position there. [...] we routinely come into situations in the world, where we don't know what's going to happen. You don't know who the people are you are working with, we don't know what they're going to do. And yet, we have to act anyway and we do manage to succeed in those situations because of our abilities to react to an understanding and frame conditions. I don't see, why long-term form should be a problem. If you are trying to create something, that interacts with other people, you have to respond to the immediate situation. It's a bit like Game of Life.                                                               
Oder wie Scot Gresham-Lancaster es ausdrückt:
We as composers are not looking for that, we are not looking for large forms, they are all happening in the timescale of the moment, they are happening in the NOW.                          
Für an Improvisation ausgerichtete Musik mag das zutreffen, schnell zeigen sich bei dem ausschließlich situativ ausgerichteten Ansatz jedoch Grenzen, beginnend bereits innerhalb der unmittelbaren Interaktion mit KI. So konstatiert auch Lewis:
AI developers spend a lot of time on machine vision, but not on interactivity, play and sharing sonic signals.
Markanter noch setzen aktuelle neuronale Netzwerke Grenzen in Bezug auf komplexe künstlerische Narrative, Palle Dahlstedt erklärt:                                                                                   
Our machine learning systems, they don't have that sort of complex model of the outside world regarding the large form. [They] are optimising towards creating things, that have exactly the same statistical properties as the human created [input], but they don't emulate process, there is no creative process.
Dem stimmt auch Scot Gresham-Lancester zu:                                                                 
We are trying to tell a story, this is the human intervention. Machines can t do this narrative.
Der aktuelle Bezugsrahmen bleibt laut Dahlstedt daher:                                                       
The lack of representation of the outside world means, that it [the implementation of AI] still will be pattern generation for quite a while.
(vgl. Lewis, Dahlstedt, Gresham-Lancaster, 2020)

Für Limitationen im Umgang mit offenen Formen gibt es aktuell auch einen einfachen technischen Grund: offene Formen sind für ein neuronales Netz kaum zu berechnen, weil es nicht weiss, wo das Ende des Datensets ist. In Hinblick auf die absehbare Einführung von intrinsisch komplex operierenden Quantencomputern werden sich voraussichtlich neue künstlerische Möglichkeitsräume eröffnen. Die Vermutung liegt nahe, um so ausgereifter das Werkzeug, um so eher bilden sich in Bezug auf diverse Zeitlichkeiten (vorproduziert/situativ/vorausschauend in Hinblick auf Form) auch unterschiedlich komplexe künstlerische Handschriften heraus.

 

CONDITIONS VERSUS CONSTRAINTS

Welche Rolle spielt des Weiteren Varianz/Veränderung in den Strukturen eines in der Musik oder Kunst zum Einsatz gebrachten neuronalen Netzwerkes bzw. ein Aspekt, der in dem Zusammenhang ebenso relevant wird, wie stark ist der Varianz einschränkende Grad der kulturellen Konditionierung durch die der KI zugrunde liegenden Entscheidungen? Einführend dazu Palle Dahlstedt:
Theres a certain amount of information, that we [as humans] can take in or we will consider it
noise. Or, if it's too little information - thats a 600 years long piece by John Cage - we will probably get bored. There's this bandwidth and all AI music and every AI art is directed towards human perception, human measurements. And it's done in that way by adhoc constraints. If I would take off to make something for itself, it would happily play 20.000 notes per second. It [AI] is a generative space as much as it is restricted. […] The sort of forms, that come out of humans interacting, are very much generated, maybe not constrained, by the conditions under which we live or act.
Welche Auswirkungen ergeben sich daraus in Bezug auf die Varianz bzw. Vorhersehbarkeit musikalischen bzw. künstlicheren Outputs durch maschinelles Lernen? George E. Lewis antwortet vor dem Hintergrund seines Voyager-Projektes:                                                                              
I was contravening an entire superstructure of good practices for music, which actually turned out to be only good practices for a certain kind of Eurocentric thinking about music...                      
Das Aufgreifen eurozentrisch geprägter Kultur, es ließe sich auch behaupten, die Wiederholung einer konditionierten Praxis bzw. die Reproduktion des bisher Erfolgreichen oder auch Konsensualen durch das neue Hilfsmittel KI, scheint auch in künstlerischen Zusammenhängen eine eher sichere Bank zu sein. Hier zeigt sich ein Maß an Berechenbarkeit, schon allein aufgrund dessen das Ausbrechen aus diesem Paradigma attraktiv erscheint. Lewis dazu:                                       
So once you realize, you were doing that, you were free to create a good practice for you. So what the cultural aspects of AI is for example with the AI programs that think, all black people are criminals.
Scot Gresham-Lancaster ergänzt:
... and western music bias by the Magenta project, which is the AI music project of Google, which has got this thing of trying to do Chopin “Polonaise” all the time, because that's what the learning base they have is.
Palle Dahlstedt schließt ab:
I mean it all depends on the context. Conclusion is, that one very important evaluation criterion is the change. So it's always evaluated, if there's a strong sequence bias, so it's a value, weighted in terms of how it's different from what you just heard.
(vgl. Lewis, Dahlstedt, Gresham-Lancaster, 2020)

Wie immer im Zusammenhang mit KI ist die Auswahl der Trainingsdaten entscheidend, darüber hinaus u.a. die implementierten Entscheidungsmöglichkeiten. Inwieweit musikalisch oder künstlerisch am Ende Konditioniertes reproduziert wird oder Formate und Kontexte durch KI hinterfragt bzw. sogar (radikal) aufgebrochen werden, zeigt den Grad der Agency auf, die der Maschine im künstlerischen Gesamtzusammenhang eines Projektes letzten Endes zugestanden wird. Dem kann entgegengehalten werden, dass sich in der KI lediglich der per se vorhandene human bias niederschlägt, Datensätze und zwar auch jene, mit denen KI trainiert wird, bilden jeweils Vergangenheit ab. Das Argument gilt, doch darüber hinaus auch:
Aus Sicht der Kunst erschöpft sich Komposition sicherlich nicht in der Produktion neuer Musik-Stücke entlang etablierter und definierter Vorstellungen davon, was Musik ist. (Klien, 2019)

 

OPTIMISATION VERSUS DISRUPTION

[... denn] Kunst ist nicht Produktentwicklung innerhalb gesetzter Grenzen, sondern Reflexion, Politik & Aktion am freien Feld. [...] Die Vermutung liegt nahe, dass Aktivitäten mit genau vor-definierten Zielen eher Dienstleistungen denn Kunstschaffen sind. Damit soll nicht behauptet werden, Kunst wäre etwas in sich Höheres, Wertvolleres oder Entrücktes, sondern eben einfach ganz etwas anderes. Kunst muss sich stets mit seinen Bedingungen auseinandersetzen und kann sich nicht damit begnügen, ein Pflichtenheft an Anforderungen umzusetzen. [...] All dies bedeutet keinesfalls, dass computergestützte Ansätze zur Algorithmisierung und Automatisierung kompositorischen Tuns aus künstlerischer Sicht prinzipiell uninteressant wären. [...] AI in Händen von KünstlerInnen eröffnet ein reiches Feld an Möglichkeiten zur spielerischen Befragung und Umverteilung von Autorität in der musizierenden Gemeinschaft zwischen Individuum, Abstraktion und Algorithmus. Hier tritt AI als vielgestaltiges Werkzeug zur Produktion und konzeptueller Hintergrund zur Reflexion von neuartigem künstlerischen Tun auf. (Klien, 2019)

Nun führt der Versuch, mittels KI über eine Produktentwicklung innerhalb gesetzter Grenzen künstlerisch hinauszugehen, direkt zu der Frage, auf welche Weise mit welchen Werkzeugen gearbeitet wird. Klien beschreibt die Nutzung existierender KI basierter Software kommerziell ausgerichteter Unternehmen wie folgt:
Jede Interaktion mit Software bedeutet immer auch Interaktion mit den IngenieurInnen, die ein Interface, eine Spielwiese dynamisch zur Verfügung stellen und deren Annahmen und Konzepte über kompositorische Arbeit die Möglichkeiten der Werkzeuge fundamental prägen. Innerhalb der ex- und impliziten Vorgaben kann die Kundschaft kreativ sein. Wir interagieren mit ‘übergeordneten’ oder zugrundeliegenden, geheimen Regeln, über die wir uns selbst kaum Einfluss zutrauen. Wir agieren so unterstützt und eigentlich auch im Dienst von Algorithmen und Vorschriften jener Firmen, die uns die Werkzeuge zur Verfügung stellen. Die Befolgung manch solcher Regeln, die man selbst weder gemacht, erdacht noch verstanden, aber stets schon vor-autorisiert hat, erscheint als quasi-mystische Praxis in daten-kapitalistischem Kontext. (Klien, 2019)

Vorannahmen in Bezug auf das Komponieren werden nur zum Beispiel im Vergleich existierender KI-Software von Google und Ableton deutlich. Greift man auf die von Google der kreativen Gemeinschaft open source zur Verfügung gestellte KI-Plattform Magenta/Tensorflow zu (siehe Anm.1), ergibt sich daraus ein spezifischer, vergleichsweise komplexer Möglichkeitsraum, zumindestens für diejenigen, die auch mit der Programmiersprache Python umgehen können (siehe Anm.2). Mittels Tensorflow lässt sich RAW Audio generieren, sprich die Wellenformen, ja das Material selbst kann unmittelbar erzeugt werden. Ableton hingegen operiert im Rahmen ihres kostenlosen KI basierten Tools Magenta-Studio in der nicht kostenfreien Umgebung Ableton Live mit Midi:
Mit Magenta Studio können Sie mit MIDI-Daten arbeiten, direkt in Ihrer Ableton Live Session-Ansicht. Sie können neue Clips erstellen – manchmal beginnen Sie mit bestehenden Clips, die Sie importiert haben – und das Gerät gibt die Ergebnisse als MIDI aus, die Sie benutzen können, um Instrumente und Drum Racks zu steuern. (Ableton Live, 2021)
Wer bei dem Namen Magenta Studio hellhörig wird, liegt mit der Vermutung ganz richtig. Ableton kooperiert mit Google, bei Magenta Studio handelt es sich um eine Auskopplung aus Googles Magenta/Tensorflow, die höchstwahrscheinlich auch Google Geld bringt:                        
Magenta Studio is a MIDI plugin for Ableton Live. It contains 5 tools: Continue, Groove, Generate, Drumify, and Interpolate. (Magenta/Tensorflow, 2021)
Die Terminologie der Features verdeutlicht: die Kundschaft von Ableton Live wird hauptsächlich im Kontext elektronischer rhythmusbasierter Musik verortet. Das intuitiv gestaltete Magenta Studio-Interface ist explizit niedrigschwellig konzipiert, die Idee dahinter: alle können mit KI Musik machen. MIDI mit seinem 3-Byte Datensatz von Note ein/aus, Tonhöhe und Anschlagsstärke erlaubt sogar, die in diesem Text zuvor besprochenen long-term structures zu generieren (siehe Anm.3), allerdings nur in Hinblick auf die Modellierung von Sequenzen musikalischer Noten. Die Entscheidung, Magenta Studio auf MIDI beruhen zu lassen, also letzten Endes die Klaviertastatur den für einen konkreten Zeitpunkt bestimmten Tonhöhen zugrunde zu legen, schließt jegliche andere Praxis wie nur z.B. akusmatische Musik sowie etliche Musiktraditionen jenseits des westlichen Kanons aus. In Hinblick auf die Programmierung bemüht sich Ableton um Transparenz, Interessierte werden auf das Prinzip der Latent Space Models mittels eines weiterführenden Links zu Magenta/Tensorflow verwiesen (siehe Anm.4), dort findet sich u.a. auch die Information, dass Basslines und Drumloops zu den Traingsdaten gehörten, nach welcher Auswahl bleibt allerdings offen.
Entscheidend ist, dass Sie die Mathematik und Analyse, die hier abläuft, nicht verstehen oder sich gar besonders darum kümmern müssen... es ist viel besser, einfach einzutauchen und sich erst von den Ergebnissen zu überzeugen. (Ableton Live, 2021)

Tiefer in die Karten schauen lässt sich keiner, weder in Hinblick auf die KI-Traingsdaten wie auch in Bezug auf die Verwendung der Userdaten der Akteur:innen bei der Anwendung der vortrainierten Magenta/ Tensorflow-Modelle online im Browser. Exemplarisch wird dabei deutlich, dass die Semiotik des in einem Projekt verwendeten Werkzeugs über technologische Aspekte weit hinausgeht:
Neue technische Möglichkeiten können nicht einfach als neutrale Erweiterungen des bisherigen Werkzeugkastens betrachtet werden. Jedes Werkzeug verändert stets die Welt derer, die es benutzen. Denn mit den uns zur Verfügung stehenden Möglichkeiten mit unserer Umwelt zu interagieren ändert sich unsere Wahrnehmung von Welt, zumal wir diese ja als unseren Möglichkeitsraum begreifen. (Klien, 2019)

Wäre demnach eine eigene KI-Programmierung des künstlerischen Projektes eine attraktive Alternative? Zugegeben: eine Programmierung ohne enorme Ressourcen, wie sie z.B. Google zur Verfügung stehen, kann weder die technologische Komplexität noch den Grad an Fehlerbehebung einer derart großen Plattform erreichen. Eine autarke Programmierung from scratch eröffnet davon abgesehen allerdings Spielräume in Bezug auf neue, bisher unerhörte musikalische Praktiken. Es ließe sich argumentieren, dass erst in dieser Konsequenz ein tatsächlich ergebnisoffener Ansatz verfolgt werden kann - und ist das nicht ein Teil dessen, wofür Kunst steht? Ein Gegenargument dazu: Der Terminus Found objects bezieht sich in der Kunst auf vorgefertigte Objekte, welche von Künstler:innen modifiziert bzw. teils auch innerhalb einer Assemblage eingesetzt werden, um ein neues Kunstwerk zu schaffen (siehe Anm.5). Warum sollte dies dem künstlerischen Umgang mit KI-Software kommerzieller Unternehmen, welche durch ihre unsichtbaren Setzungen ebenso vorgefertigt ist in Hinblick darauf, dass sie die Kreativität in bestimmten Bahnen lenkt, nicht zugestanden werden? Realistisch betrachtet gilt es zudem hinzuzufügen, nur die wenigsten Akteur:innen verfügen über die Kompetenzen, ein neuronales Netzwerk eigenständig zu programmieren. In den meisten Fällen stellt sich also unmittelbar die Frage - mit wem kooperieren und zu welchem Preis?

Potentielle Indikatoren für Differenzierungen zwischen künstlerischen Projekten auf Basis von maschinellem Lernen wie Zeitlichkeiten, die Frage nach Material bzw. Form, der Grad an Varianz bzw. Komplexität sowie darüber hinaus die technologische Geschmeidigkeit und nicht zuletzt die konzeptionellen Entscheidungen, der Grad an kritischer Reflexion, die Verortung in spezifischen Kontexten können demnach nicht unabhängig davon betrachtet werden, welches Tool der jeweiligen Arbeit zugrunde liegt und welche Allianzen eingegangen wurden. Erst der umfassende Blick ermöglicht in Hinblick auf konkrete Projekte die Annäherung an Fragen wie: wird hier ‘optimierend’ entlang definierter Abläufe und Märkte agiert oder handelt es sich um eine eigenständige künstlerische Position mit und zu maschinellem Lernen/KI? Inwiefern agieren die Künstler:innen weitsichtig, reflektiert und transparent? Und schließlich auch, mit wieviel Wissen bzw. Nichtwissen werden wir jeweils konfrontiert? Denn auch, wenn Musik und Kunst heutzutage häufiger auf maschinellem Lernen beruht: neu ist nicht die Verwendung neuronaler Netzwerke (siehe Teil 1 dieser Serie), ein Wandel ist eher in Hinblick auf Verständnismöglichkeiten zu beobachten.

Die Prozesse innerhalb moderner Systeme sind deutlich komplexer geworden. Verändert hat sich die Schwärze der Box.

 

Ist es interessante Musik? Ist es interessante Kunst?

Schlussendlich bleiben das die entscheidenden Fragen. In der Hoffnung, durch meine Serie an Texten zu Künstlicher Intelligenz in Musik und Kunst dazu beizutragen, dass Antworten auch vor dem Hintergrund der angeführten Überlegungen diskutiert werden können, schließe ich dieses Zeitdokument im April 2021 ab.

 

Anmerkungen

1 Magenta/Tensorflow ist ein open-source Forschungsprojekt, das die Rolle des maschinellen Lernens als Werkzeug für den kreativen Prozess in Musik und Kunst untersucht. https://magenta.tensorflow.org/. Stand: 15.04.2021

2 Python ist eine universelle, vielseitige und leistungsstarke Programmiersprache, die Anwendungen von der Webentwicklung über maschinelles Lernen bis hin zu Data Science ermöglicht. https://www.python.org/. Stand: 15.04.2021

3 Vergleiche dazu: novel hierarchical decoder. In: https://arxiv.org/abs/1803.05428. Stand: 19.04.2021

4 Vergleiche dazu: latent space models. In: https://magenta-staging.tensorflow.org/music-vae. Stand: 15.04.2021

Found objects (sometimes referred to by the French term for found object objet trouvé’[…] may be modified by the artist and presented as art, either more or less intact as in the dada and surrealist artist Marcel Duchamp’s readymades, or as part of an assemblage. In: https://www.tate.org.uk/art/art-terms/f/found-object. Stand: 14.04.2021

 

 Literaturverzeichnis

Ableton Live. (2021). https://www.ableton.com/de/blog/magenta-studio-free-ai-tools-ableton-live/. Stand: 14.04.2021

Beats & Bits. (2019) https://beatsundbits.de/wettbewerb/der-wettbewerb/. Stand: 10.04.2021

Ernst, Wolfgang. (2021). Where ›time‹ takes ›place.‹ Media-Archaeological Thoughts on the (Musical) Topologization of Chrónos in the Archive, and as (Sonic) Technológos. CHRONOTOPIA Echoes Lecture Series. 31.03.2021

Klien, Volkmar. (2019). Totaloptimierung und Renitenz - Zu künstlicher Intelligenz und musikalischer Komposition. https://ars.electronica.art/aeblog/de/2019/08/09/volkmar-klien/. Stand: 08.04.2021  

Lewis, George E.; Dahlsted, Palle; Gresham-Lancaster, Scot. (2020). Good Old Fashioned Artificial Intelligence. Panel Discussion I mit Ludger Brümmer (Mod.), Scot Gresham-Lancaster, George E. Lewis, Palle Dahlstedt (als Vertretung für Curtis Roads). Veranstaltung: inSonic 2020: Syntheses - Day 2. 12.12.2020. ZKM Karlsruhe. In: https://www.youtube.com/watch?v=sooNxK6oQ4c. Stand: 15.03.2021                                            

Magenta Tensorflow. (2021). https://magenta.tensorflow.org/studio/ableton-live/. Stand: 14.04.2021

Schaufler Lab. (2021). https://tu-dresden.de/gsw/schauflerlab/schaufler-residency/kuenstler?set_language=en. Stand: 10.04.2021