Im Jahr 2026 hat die automatische Bewertung musikalischer Ästhetik eine neue Stufe erreicht: Im Rahmen der internationalen Konferenz ICASSP wurde die Automatic Song Aesthetics Evaluation Challenge ins Leben gerufen.
Ziel ist es, Algorithmen beizubringen, menschliche ästhetische Urteile über Musikstücke vorherzusagen. Dabei geht es nicht um die Komposition von Musik.
Es geht vielmehr um den Versuch zu verstehen, warum Musik als schön empfunden wird.
Wenn Musik zum Objekt maschineller Wahrnehmung wird
In den letzten Jahren hat künstliche Intelligenz intensiv gelernt, Klänge zu erzeugen:
Melodien
Harmonien
Klangfarben
Stimmen
Doch die neue Herausforderung lautet anders: Kann ein Algorithmus Musikalität ebenso bewerten wie ein menschlicher Hörer?
Genau dieser Frage widmet sich der Wettbewerb ICASSP 2026.
Modelle erhalten Audiofragmente und versuchen, menschliche ästhetische Bewertungen anhand verschiedener perzeptiver Parameter vorherzusagen:
klangliche Integrität
Natürlichkeit des Klangs
Einprägsamkeit
Klangklarheit
Musikalität
Diese Parameter spiegeln nicht die technische Aufnahmequalität wider, sondern wie Musik vom Menschen wahrgenommen wird.
Von der Erzeugung zur Wahrnehmung
Dies markiert einen entscheidenden Wendepunkt in der Entwicklung musikalischer KI.
Während Systeme früher lernten, Klänge zu erschaffen, lernen sie nun, deren ästhetische Bedeutung zu interpretieren.
Faktisch handelt es sich um einen Übergang: von der Synthese zum Verständnis, vom Algorithmus als Interpreten
zum Algorithmus als Zuhörer
Musikästhetik wird zum messbaren Forschungsfeld
Die ICASSP 2026 Challenge führt die Entwicklung fort, die zuvor mit dem Datensatz SongEval 2025 begann, als erstmals eine umfangreiche Datenbank menschlicher ästhetischer Bewertungen von Musikfragmenten erstellt wurde.
Nun erreicht dieses Feld das Niveau eines internationalen Modellwettbewerbs.
Das bedeutet: Musikalische Schönheit wird zunehmend zum Gegenstand computergestützter Analysen
und bleibt zugleich eine menschliche Erfahrung.
Raum für gemeinsames Hören
Parallel dazu untersuchen Forschungsgruppen an der Queen Mary University of London und dem Imperial College London weiterhin die Musikwahrnehmung und die Interaktion der Hörer mit technologisch erzeugter Musik.
Das Musikhören wird immer mehr zu einem Interaktionsraum zwischen Mensch und Algorithmus.
Nicht als Ersatz, sondern als Kooperation.
Was dies für den Klang der Welt bedeutet
Heute lernen Algorithmen zum ersten Mal, nicht nur zu klingen.
Sie lernen zu hören. Und in dieser Entwicklung wird Musik allmählich nicht mehr nur zur Kunst der Darbietung – sondern zu einer Wissenschaft der Wahrnehmung, in der Mensch und Technologie beginnen, gemeinsam zu hören.




