Moises Nachrichten

Wir stellen AI Studio vor: Unsere neue KI-Musikproduktionsplattform

AI Studio ist unser nächster Schritt, um Musikerinnen und Musiker mit hochmodernen Tools zu unterstützen. Es ist ein kreativer Partner, der zuhört, sich anpasst und deine Ideen verstärkt, während dein Sound im Mittelpunkt bleibt.

Unsere Reise bei Moises wurde schon immer von einer Mission geleitet: kreatives Potenzial zu fördern. Von Anfang an war es unser Ziel, Musizierenden aller Niveaus zu erlauben, durch die Entwicklung von KI-Tools, mit denen sie zusammenarbeiten können, effektiver und kreativer zu sein. Wir konzentrieren uns darauf, die KI als Partner zu nutzen, der den Musikern immer zur Seite steht und ihre Fähigkeiten und Ideen fördert. Dieser Ansatz hat bei Künstlern weltweit Anklang gefunden und uns dabei geholfen, über 65 Millionen Nutzer in 190 Ländern zu überzeugen. Auf diesem Weg wurden wir als beste App für persönliche Entwicklung von Google Play (2021), als iPad-App des Jahres von Apple (2024) und als Finalist für den Apple Design Award (2025) ausgezeichnet.

In den letzten Jahren habt ihr Moises für seine führende Technologie zur Stemtrennung kennengelernt, mit der Vocals, Drums, Bässe und andere Instrumente aus jedem beliebigen Song isoliert werden können. Um diese Technologie zu entwickeln, haben wir viel in die Lizenzierung, Produktion und Annotation von Daten auf Weltklasseniveau sowie in die Erforschung neuer Technologien investiert. Die gleiche Grundlage, die es uns ermöglicht, Musik auseinanderzunehmen, ermöglicht es uns nun auch, sie wieder zusammenzufügen. Wir sind bereit für unsere nächste Herausforderung: die Generierung von Stems.

Generative KI mit Musikern am Steuer

Die Musikindustrie erlebt unglaubliche Veränderungen durch generative KI. Es gibt Begeisterung, Widerstand, Rechtsstreitigkeiten und viele wichtige Debatten darüber, was die Zukunft bringt. Von Anfang an haben wir eine klare Entscheidung getroffen.

Anstatt riesige Modelle zu trainieren, die ganze Songs ausgeben, haben wir uns darauf konzentriert, was Musiker und Produzenten wirklich brauchen: die Fähigkeit, kontextbezogene Instrumentenparts oder Stems zu erzeugen. Stell dir diese Funktion wie einen Bandkollegen vor, der zuhört, Hinweise aus der Musik aufnimmt, die du bereits hast, und einen Part beisteuert, der perfekt passt.

Dies spiegelt unsere Grundüberzeugung wider, dass KI Kreativschaffende unterstützen sollte. Unsere generativen Tools arbeiten Hand in Hand mit traditionellen Produktionsabläufen und erweitern die Möglichkeiten, während die menschliche Kreativität im Mittelpunkt bleibt.

Das erste Stem-für-Stem Generationsmodell

Unser Data-Science-Team hat das vergangene Jahr damit verbracht, zu forschen, zu iterieren und zu innovieren, geleitet von den neuesten wissenschaftlichen Fortschritten und einer Forschungsgemeinschaft, die den Weg weist. Das Ergebnis ist ein Stems-First-Ansatz zur KI-Musikgenerierung, nicht ein Songs-First-Ansatz.

Vollständige Song-Generatoren werden typischerweise mit gemischten Aufnahmen trainiert und geben eine fertige Stereodatei aus, die schwer zu bearbeiten ist. Unsere Modelle werden mit isolierten, hochwertigen instrumentalen Stems trainiert, sodass sie auf Instrumentenebene lernen und generieren. Bei der Generierung hören sie auf deinen musikalischen Kontext und erstellen dann neue Teile, die sich daran anpassen. Du erhältst kontrollierbare, wiederverwendbare Spuren – keine nicht-editierbare Datei.

Unser Modell basiert auf drei sich ergänzenden Signalen und balanciert diese während der Stem-Generierung:

  • Audiokontext: vom Nutzer bereitgestellter Stem oder Stems, zum Beispiel eine Gitarren- oder Klavierspur; wird verwendet, um Tempo, Takt- und Beat-Raster, Phrasierung, Struktur und Tonart oder Tonleiter abzuleiten, damit sich neue Teile an Timing und Form anpassen.
  • Stil- oder Inhalts-Konditionierung: ein Zielsound, der durch eine Audioreferenz, eine Textanweisung oder ein Preset festgelegt wird; steuert Klangfarbe, Spieltechnik, Mikro-Muster und Genre-Gefühl.
  • Harmonische Übereinstimmung: eine Kontrolle, die bestimmt, wie streng der neue Stem den Akkorden, der Tonleiter und den Harmonien folgt, die aus dem Audiokontext extrahiert wurden.

Das Modell optimiert alle drei während der Generierung. Für mehr kreative Kontrolle kannst du unabhängige Gewichtungen für jede Achse festlegen, je nachdem, was du priorisieren möchtest. Höhere Gewichtungen verstärken die Einhaltung. Niedrigere Gewichtungen fördern die Erkundung.

So wird es verwendet

Beginne mit einer beliebigen Audiobasis – zum Beispiel einer originalen Session, einem Demo oder einem einzelnen Stem – und erzeuge zusätzliche Instrumentenparts, die sie ergänzen. Leite den Prozess, indem du eine Audioreferenz, eine Textanweisung oder ein genrespezifisches Preset bereitstellst. Jeder Stem ist einzigartig und kann neu generiert oder feinabgestimmt werden, was den kreativen Prozess wirklich iterativ und kollaborativ macht.

Nutze es, um originale Songs zu komponieren, neue Ideen zu entwickeln, Remixe zu erstellen oder einzelne Instrumente aus bestehenden Mixes nachzubilden. Während unsere Community erkundet, erwarten wir, noch mehr Wege zu entdecken, um gemeinsam musikalische Grenzen zu verschieben.

Eine neue Art von Studio: Menschengeführt, KI-unterstützt

Der Aufbau dieser Modelle hat uns dazu gebracht, die Musikproduktions-Schnittstelle selbst zu überdenken. Wir wollten die generative Kraft nicht hinter Komplexität verstecken oder die Kreativität durch übermäßige Vereinfachung einschränken. Stattdessen haben wir ein KI-erweitertes Musikstudio entwickelt, eine vereinfachte DAW, die KI als kreativen Begleiter behandelt und die Kreation für alle zugänglich macht: Musiker, Produzenten, DJs und sogar Anfänger.

Integriert mit unserem kompletten Technologie-Stack aus Stem-Trennung, Beat- und Akkorderkennung, Stimmkonvertierung, Auto-Mixing, Mastering und mehr eröffnet AI Studio neue Möglichkeiten für musikalische Innovation.

Für alle, überall

Von jemandem, der sein erstes Instrument in die Hand nimmt, bis hin zu Weltklasse-Musikern und Produzenten – wir haben immer darauf abgezielt, eine Plattform für alle zu sein. Das bleibt unser Versprechen. Unsere neuen generativen Fähigkeiten sind ein weiterer Schritt auf dieser Reise.

Heute markiert einen entscheidenden Moment in der KI-gestützten Musikproduktion. Wir starten unsere erste Sammlung generativer Stem-Modelle zusammen mit AI Studio, unserem ersten Schritt in Richtung einer benutzerfreundlichen webbasierten DAW, die von Grund auf für KI-unterstützte Musikkreation entwickelt wurde.

Wir sind gespannt darauf zu sehen, was du mit diesen Tools erschaffst und wie sie sich zusammen mit deinem Workflow weiterentwickeln werden.

Lies hier die vollständige Pressemitteilung.

Geraldo Ramos

Co-founder & CEO at Music AI (creators of Moises)

Das könnte dich auch interessieren