Mit Hilfe von generativen KIs lassen sich Musik und Samples nach genauen Vorgaben komponieren. Die Technik ist noch ziemlich neu, funktioniert aber bereits erstaunlich gut und lässt sich kostenlos ausprobieren.
Während sich der Hype rund um künstliche Intelligenz auf generative Text-KIs wie ChatGPT und auf Text-to-Image-Generatoren wie DALL-E und Stable Diffusion konzentriert, fristet die KI-basierte Generierung von Musik in Form von Text-to-Audio oder Audio-to-Audio noch ein Schattendasein. Doch nicht nur kluge Texte und anschauliche Bilder lassen sich mit generativer KI erzeugen, sondern eben auch Musik. Beethovens zehnte Symphonie oder ein wahrer Ohrenschmaus kommt heute zwar noch nicht dabei heraus, aber die ein oder andere gelungene Melodie mit Ohrwurm-Potential ist durchaus dabei. Und die Technik steht noch ganz am Anfang.
Die großen Konzerne mischen wie immer munter mit, wenn es um neue Trends und Techniken geht. Googles MusicLM und MusicFX können auf rund 300.000 Stunden Musik zurückgreifen. Die KIs stehen derzeit aber nur ausgewählten Benutzern im Rahmen von Googles „AI Test Kitchen“ zur Verfügung, und das auch nur in wenigen Ländern wie USA und Australien. Facebook-Mutter Meta hat AudioCraft und MusicGen veröffentlicht, das unter Open-Source-Lizenz steht und sich auch lokal betreiben lässt – eine starke Nvidia-GPU vorausgesetzt. Open AI schickt Jukebox als generative Musik-KI ins Rennen. Die lässt sich derzeit aber nur sehr umständlich via Jupyter und Google Colab bedienen, fließt aber womöglich irgendwann in ChatGPT ein. […]
Fachartikel für Heise+