Komponieren quer durch die Genres
Von Hollin Jones
Kurt Oldman stammt ursprünglich aus der Schweiz und zog nach LA, um an der UCLA Filmmusik zu studieren. Dort fand er seinen Weg in das Herz der Musik- und Filmindustrie Hollywoods. Als produktiver Komponist und Musiker hat er an zahlreichen Fernsehserien und Filmen mitgewirkt, darunter "Guardians of the Galaxy". Außerdem hat er mehr als ein Dutzend Alben veröffentlicht, deren Stücke in bekannten Serien wie "Game of Thrones" zu hören sind. Wir haben mit ihm über die Herausforderungen der multidisziplinären Musikproduktion gesprochen – und warum er ohne Cubase und Dorico nicht mehr leben möchte.
Kannst du uns ein wenig über deinen Hintergrund erzählen? Wie bist du zur Musik gekommen?
Mein erster Kontakt mit Filmmusik waren Bernard Herrmanns "Vertigo" und Jerry Goldsmiths "Planet der Affen" sowie die europäischen Filme der 60er- und 70er-Jahre, die meine Eltern im Fernsehen sahen. Damals wurde mir zum ersten Mal die emotionale Verbindung zwischen den Bildern und der Musik bewusst und die Magie, die entsteht, wenn man es richtig macht. Besonders beeindruckt hat mich die deutsche Version von "Die unendliche Geschichte" mit Klaus Doldingers Soundtrack – eine viel dunklere Interpretation als die US-Version mit den 80er-Jahre-Pop-Songs. Ich war fasziniert von der Kombination aus Orchester und Synthesizern.
Gleich nach dem Studium hatte ich die Gelegenheit, Filmmusik für einige Projekte zu komponieren, ohne viel über die Technik von Filmmusik zu wissen. Ich erinnere mich, dass ein guter Freund zu mir sagte: "Wenn du das wirklich ernst meinst, solltest du in den USA Filmmusik studieren". Ein halbes Jahr später war ich im Filmmusikprogramm der UCLA eingeschrieben und studierte bei Gerald Fried, Robert Drasnin und Christopher Young. Jahre zuvor hatte mich Chris Youngs Filmmusik zu Hellbound - Hellraiser 2 dazu inspiriert, mich näher mit Filmmusik zu beschäftigen. Ich erinnere mich noch gut daran, wie ich diesen Film als Horror-Fan gesehen habe und dabei dachte: 'Ich hätte mir nie vorstellen können, dass man solche Musik für einen Film wie diesen schreiben kann.' Die Filmmusik war wie eine epische Hommage an das gesamte Genre. Ich war sofort gefesselt. Musikalisch gesehen lasse ich mich noch heute sehr von visuellen Elementen inspirieren und schätze die kollaborative Herangehensweise, die dieses Medium bietet.
1997 bist du nach LA gezogen, um Filmmusik zu studieren. Wie hast du den Einstieg in die Filmbranche geschafft - gab es einen klaren Karriereweg oder gehörte auch eine Portion Glück dazu wie so oft bei kreativen Tätigkeiten?
Während meines Studiums an der UCLA habe ich Musik für alles gemacht, wozu ich die Möglichkeit bekam, wie etwa Filme von Studierenden und kurze Animationen. Das Genre war mir egal, ich habe wirklich alles gemacht. Das war eine großartige Lernmöglichkeit für mich, und eine wunderbare Möglichkeit, viele talentierte Filmemacher und andere Komponisten kennenzulernen. Einige von ihnen machten später Karriere in der Film- und TV-Branche und ließen mich an ihren Projekten teilhaben. Dadurch entstanden Freundschaften und langfristige Zusammenarbeit. Es ist toll, öfter mit den gleichen Personen zusammenzuarbeiten und eine langfristige Arbeitsbeziehung aufzubauen. Der kreative Prozess verändert sich dadurch und man entwickelt fast eine Art Kurzschrift für die Kommunikation. Man verbringt immer weniger Zeit damit, über die Einzelheiten einer Szene zu sprechen, und konzentriert sich mehr auf die großen erzählerischen Bögen und den Subtext. Diese Beziehungen haben mich auch in die Musikteams vieler großer Blockbuster-Filme gebracht.
Glück spielt natürlich eine große Rolle, aber es kommt auch auf Kreativität und handwerkliches Können an. Wenn man hart arbeitet und bereit ist, wenn es darauf ankommt, wird es sich auszahlen. Daher sollte man nie aufhören, sich musikalisch weiterzuentwickeln. Ich habe lange gebraucht, um meinen eigenen Stil zu definieren. Heute weiß ich viel genauer, welches Projekt etwas für mich ist und welches nicht. Viele meiner Scores wurden später neu veröffentlicht, was mir die Tür zur Welt der Produktionsmusik öffnete. Wir haben gerade den "Trailer Track of the Year" Mark Award für einen verrückten Horrortitel gewonnen, den ich für meine Freunde bei Megatrax gemacht habe.

Früher war die Technik komplett anders als heute. Wie hast du in deiner Anfangszeit gearbeitet? Vermutlich mehr mit konventioneller Notation und Live-Aufnahmen als mit Software und Sample-Libraries?
Ich habe von Anfang an mit Computern und Sequenzern gearbeitet. Meinen allerersten Score habe ich auf einem Atari ST geschrieben, einem dieser Tower mit Festplatten in der Größe kleiner Mischpulte. Damals nutzte ich Notator, das später zu Logic wurde und etwa ein Jahrzehnt später von Apple aufgekauft wurde. Mit diesem System gab es nur MIDI und kein Audiorecording. Dazu hatte ich ein paar Soundmodule und Synthesizer von Roland, mit denen ich meine Demos aufnahm, aber zunächst keinen Mehrspurrecorder. Stattdessen nahm ich die MIDI-Demos vom Sequenzer auf einen tragbaren DAT-Rekorder auf und überspielte sie dann von einer Maschine zur anderen, um Gitarren- und Bass-Overdubs aufzunehmen.
Damals gab es SCSI-Festplatten und Zip-Laufwerke, die manchmal funktionierten und manchmal nicht. Ich weiß nicht mehr genau, bei welchem Projekt GigaSampler und GigaStudio ins Spiel kamen, aber als Software-Sampling tatsächlich Realität wurde, wurde alles viel einfacher. Die Filmkopien wurden zu dieser Zeit auf VHS-Kassetten geliefert, und wir synchronisierten die Musik über SMPTE-Timecode. Damals hatten wir noch mit Timing Maps und Charts zu tun und ließen das Video nur laufen, um der Produktion die musikalischen Einsätze zu demonstrieren. Als die digitale Videowiedergabe verfügbar wurde, begannen wir damit, alle eingehenden Workprints zu digitalisieren. Später kamen auch digitale Videodateien, die zuerst auf CD-ROMs und DVDs geliefert wurden, bevor es schnelle Internetverbindungen gab. Ich bevorzuge auch heute noch einen separaten Videorechner, einen Mac Mini, um Rollen und Bildwechsel zu organisieren.
Zu welchem Zeitpunkt trat Cubase in dein Leben? Und später dann Dorico?
Das war vor ziemlich genau 20 Jahren mit Cubase SX 3. Ich war mitten in einem Weihnachtsfilm und dabei, mit einem meiner Komponistenfreunde von der UCLA eine Fernsehsendung zu komponieren. Er führte mir die Software vor und ich erkannte sofort, wie sehr sie meinen Workflow beschleunigen könnte. Damals wusste ich nicht einmal, wie umfangreich die Cubase war. Zu dieser Zeit wurde jede Software mit einem dicken Buch geliefert. Ich fing einfach am Anfang des Handbuchs an und arbeitete mich Seite für Seite durch, wobei ich kleine gelbe Haftnotizen und rote Textmarker auf den Seiten anbrachte, um wichtige Stellen später wiederzufinden. Ich übertrug meine Orchestervorlage, die ich damals verwendete, in Cubase, und sie hat sich seitdem stetig weiterentwickelt. Erst neulich habe ich die "Orchestervorlage Version 164" für Cubase 14 neu gespeichert.

Von Anfang an habe ich mit vielen lokalen „Cubase Guys“ hier in LA gearbeitet, die mich dazu inspiriert haben, meinen Workflow noch weiter zu optimieren. Auf meinem Schreibtisch habe ich heute zwei Touchscreens, die speziell für Logical-Editor-Funktionen, Macros, Artikulationen, Routing, Farben, Editing und vieles mehr eingerichtet sind. Cubase ist in dieser Hinsicht großartig – man kann wirklich alles so einrichten, wie man arbeiten möchte. Einmal wurde ich zu einem sehr späten Zeitpunkt für die Produktion einer Animationsserie engagiert und hatte nur drei Tage Zeit, die Episode zu vertonen. Ich erinnere mich, dass ich 15 Minuten nach der Freigabe aller Cues durch den Regisseur einen Anruf vom Produzenten bekam: „Wo sind die Stems für den Dub?“ Das war das letzte Mal, dass wir Stems manuell ausgegeben haben. Ich sagte: „Von jetzt an geben wir Stems mit jedem einzelnen Demo aus!“ Und Cubase konnte das tatsächlich. Heute erstellen wir ein Set von „Music Editor Stems“, das relativ breit angelegt ist und häufig für Archivierung sowie Musik-Edits genutzt wird, sowie ein „Production Music 13“- und ein „Production Music 9“-Stem-Set mit maximal 13 bzw. 9 Stems.
Bei einem anderen TV-Projekt musste ich 14 Minuten intensive Thriller-/Action-Musik pro Tag produzieren und abliefern. Cubase hat das möglich gemacht und ich kann mir nicht vorstellen, dass ich dasselbe mit einer anderen DAW hätte machen können. Mit Dorico war es ähnlich. Ich war früher eingefleischter Sibelius-User aber als Dorico auf den Markt kam, hat mich der innovative Ansatz für Notation, Partiturvorbereitung und Wiedergabe sofort überzeugt.
Was war deine Rolle bei den Guardians of the Galaxy-Filmen und wie kam es dazu? War es ein anderer Prozess als bei der Arbeit an kleineren Filmen?
Was die Zeitpläne angeht, so unterscheiden sie sich je nach Projekt. Die straffsten Deadlines habe ich in der TV- und Animationswelt erlebt. Teil verschiedener Musikteams zu sein, war immer eine unschätzbare Erfahrung – ich habe unglaublich viel von talentierten Kollegen gelernt. Gleichzeitig hat es mich gefordert und meinen eigenen Schreib- und Demo-Prozess verbessert. Unsere orchestralen Demos für große Filme haben sich in kürzester Zeit rasant weiterentwickelt und waren so überzeugend, dass sie es tatsächlich in den finalen Film geschafft haben. Bei großen Studio-Produktionen muss man sich der hohen Erwartungen bewusst sein – sowohl seitens des Studios als auch des Publikums. Diese sind viel klarer definiert als bei einem kleinen Indie-Drama oder Thriller. Es gibt viel weniger Raum für Experimente als bei kleinen Filmen und daher auch weniger Risikobereitschaft. Dank meines musikalischen Hintergrunds konnte ich mich jedoch leicht in diese Musikteam-Strukturen einfügen.
Wie gehst du normalerweise an die Vertonung eines Projekts heran? Gibt es Temp Tracks oder fängst du bei null an?
Die passende Filmmusik zu finden, ist zweifellos der wichtigste Aspekt unserer Arbeit. Es geht darum, die ersten Ideen und das musikalische Vokabular zu entwickeln, um das Bild, die Charaktere und die unterschwellige Botschaft des Films optimal zu unterstützen, und das ist manchmal gar nicht so einfach. Ich denke, man sollte mit der Einstellung an die Sache herangehen: "Ich schreibe die Musik für einen Film – nicht für eine Szene". Viele Filmkomponisten, die am Anfang ihrer Karriere stehen, neigen dazu, zu viel zu machen und haben das Gefühl, dass die Musik wirklich hart arbeiten muss. Ich bin da auch nicht frei von. Aber du wärst überrascht, wie wenig deine Musik „arbeiten“ muss, wenn du mit einem selbstbewussten Filmemacher zusammenarbeitest, der seine Charaktere und seine Erzählweise kennt. Natürlich gilt das nicht für Horror- oder Slasherfilme. Da muss deine Musik doppelt so hart arbeiten.
Ich denke, man sollte mit der Einstellung an die Sache herangehen: "Ich schreibe die Musik für einen Film – nicht für eine Szene".
Ein Mentor von mir hat mir einmal gesagt: "Du musst keine großartige Idee haben, um anzufangen, aber du musst eine Idee haben." Das ist ein sehr guter Rat, der mich schon oft bei Zeitdruck und bei verrückten Deadlines gerettet hat. Ich brauche die Herausforderung! Das ist es, was mich antreibt. Aber es ist wichtig, den selbstkritischen Blick abzulegen und zu verstehen, dass Filmmusik mit großen gestalterischen Linien arbeitet und nicht aus pedantisch zusammengesetzten Puzzlestücken besteht.
Heutzutage wird eigentlich immer zunächst mit Temp Music gearbeitet. Die vorläufige Musik wir u.a. für Preview- und Spotting-Sessions genutzt und hilft dabei, Diskussionen darüber in Gang bringen, was funktioniert und was nicht. Selbst eine schreckliche Temp Music kann ziemlich hilfreich sein, da man so bereits einen Ansatz ausschließen kann, der nicht funktioniert. Wenn die vorläufige Musik funktioniert und dem Regisseur gefällt, findet man heraus, was ihm daran gefällt, was sich richtig anfühlt und spricht darüber, was noch besser sein könnte. Das bedeutet aber nicht, dass du die Temp Music einfach eins zu eins übernehmen musst. Ich kenne einige Filmeditoren, die zur Musik schneiden. Meiner Erfahrung nach gibt die Temp Music zumindest das Tempo und die Energie vor, insbesondere bei Action-Szenen.
Arbeitest du hauptsächlich mit Live-Instrumenten, Software-Instrumenten oder einer Kombination aus beidem?
Das kommt ganz auf das Projekt an. Ich liebe es, mit Live-Musiker:innen zu arbeiten und bin ein absoluter Fan von Orchestern, aber oft ist das Budget und/oder die Zeit dafür einfach nicht vorhanden. Selbst bei kleinen Projekten versuche ich aber, mindestens ein Live-Instrument einzubauen, und wenn es nur ein Streichpsalter oder ein Saxophon ist, das wir ordentlich verzerren, oder ein Solocello, um das Synthesizer-Orchester zu versüßen. Selbst in einem vollständig orchestralen Score gibt es heutzutage jede Menge Synthesizer und produktionstechnische Elemente. Ich verdopple sogar die meisten Streicher-Ostinati mit Synth-Arpeggios und unterstütze die tiefen Streicher mit Synthesizern. Andererseits habe ich immer meine Orchester-Samples geladen und einsatzbereit, manchmal resynthetisiere ich etwas oder lasse es sogar durch Gitarrenverstärker laufen.
Als Gitarrist nehme ich viele meiner Gitarrenspuren selbst auf. Ich nehme sie komplett clean auf und bearbeite sie in Cubase. Das ist effizienter, besonders wenn Änderungen oder Überarbeitungen am Filmmaterial vorgenommen werden. Ich notiere mir sogar für jede Spur, welche Gitarre, welche Pickup-Einstellungen und welche Gain-Werte ich verwendet habe. Hierfür nutze ich die Notizen-Funktion im Spur-Inspector. Meine Hardware-Synthesizer sind über "Externe Instrumente" in Cubase immer einsatzbereit. Zumindest wenn sie funktionieren, denn einige dieser Geräte stammen aus den späten 70er- und 80er-Jahren und haben ihren eigenen Kopf.
Gibt es bestimmte Funktionen von Cubase, die für dich besonders wichtig sind, weil sie dir den Arbeitsalltag erleichtern und ohne die du nicht leben möchtest?
Ohne den Project Logical Editor und den MIDI Logical Editor würde ich mich wie in der Steinzeit fühlen und könnte genauso gut zu Stift und Papier greifen. Ich habe etwa 700 Macros, von denen die meisten auf diesen beiden Editoren basieren. Sie erledigen grundlegende Dinge wie sich wiederholende MIDI-Bearbeitungen, Zuweisen von Kanalnummern zu Noten, Auswählen bestimmter Noten in einem Ostinato, Aufteilen von Akkorden auf Kanäle, Hinzufügen von Noten, Verlängern und Verkürzen – die Liste ist endlos. Die Projektfunktionen, die ich am häufigsten verwende, sind das Navigieren zu bestimmten Instrumentensektionen, die benutzerdefinierte Artikulationsverwaltung und sogar das automatische Routing von Audiospuren zu einem bestimmten Bus nach dem "Render in Place".
Render in Place nutze ich heute für alle Soft-Synths. Die App, die ich zum Auslösen der Macros verwende, sagt mir, dass ich in den letzten Jahren 75 Tage eingespart habe, aber das ist wahrscheinlich noch stark untertrieben. Und natürlich das Direct Routing! Ich habe eine Art Matrix-Setup für die Musik Editor Stems, mit dem ich sechs verschiedene Submixe wie „ohne Chor“, „nur Percussion“ oder „nur Orchester“ zusammen mit zwei Sets mit zusammengeführten Stems erstellen kann. Direct Routing ermöglicht es mir sogar, Stems mit Side-Chaining zu erstellen, die in Echtzeit vom Hauptmix begrenzt werden, ohne dass ich das Projekt zuerst bouncen muss.

Die gleiche Frage, aber für Dorico!
Ich arbeite mit einer ziemlich großen Scoring-Vorlage, und die Art und Weise, wie Dorico Divisi-Stimmen von Einzelstimmen zur Masterpartitur zusammenführt, ist absolut fantastisch und spart enorm viel Zeit. Es gibt sehr spezifische Anforderungen an die Vorbereitung von Masterpartitur und Einzelstimmen bei Filmmusikaufnahmen – und die können sogar unterschiedlich sein, je nachdem, ob man in Los Angeles oder London aufnimmt. Dorico meistert diese Anpassungen hervorragend. Für mich persönlich sind die Einblendfelder das Größte und eine brillante Möglichkeit, um alles schnell und flexibel einzugeben. Damit kann ich meine Touch-Oberfläche ganz einfach an meinen Workflow anpassen. Ich habe eine eigene Dorico-Seite auf einem meiner linken Controller, die ich für Filter, Schreiben und Editieren, Notenwerkzeuge, Spieltechniken und das Raster verwende. Ich konnte mich schon ein wenig mit den neuen Skript- und Macro-Funktionen vertraut machen und bin begeistert... das wird uns Workflow-Nerds wirklich weiterbringen.
Du bist auch WaveLab-User – wie passt das in deinen Workflow? Übernimmst du auch das Mastering?
Ich verwende WaveLab vor allem bei der Musikproduktion in der finalen Mastering-Phase. Bei vielen Firmen, mit denen ich zusammenarbeite, müssen der Main Mix und die alternativen Mischungen – z.B. nur Percussion, nur Orchester, nur Sound Design – gemastert geliefert werden. Als ich mit meinem NOISEBOX Trailer- und Underscore-Katalog anfing, habe ich mich intensiver mit WaveLab beschäftigt und viel Zeit damit verbracht, Mastering-Ketten und Vorlagen für verschiedene Projekttypen zu erstellen. Es ist ein gutes Gefühl, bei meinen Alben den letzten Schritt der Produktion selbst in der Hand zu haben.
Mit WaveLab habe ich einen sehr schnellen Workflow für das Mastering verschiedener Versionen entwickelt. Die Audiomontage-Optionen sind großartig und die Tatsache, dass ich verwandte Clip-Versionen so einfärben kann, wie sie in meinen Cubase-Vorlagen eingefärbt sind, ist eine echte Hilfe für mein visuell arbeitendes Gehirn. Ich habe eine kleine Controllerseite mit den am häufigsten verwendeten Einstellungen wie Fade In und Out, einigen grundlegenden Bearbeitungsfunktionen und einer Auswahl an Farben für Clips. Ich liebe die Render-Output-Optionen und die Presets, die man dafür erstellen kann. Die Möglichkeit, ein ganzes Album mit jeder einzelnen Mixversion in einem Durchgang zu rendern, ist wirklich fantastisch und macht meine Arbeit sehr schnell.
Wie handhabst du die Zusammenarbeit mit anderen Komponisten? Hast du einen Workflow für den Austausch und die Bearbeitung von Ideen?
Ich habe vor ein paar Jahren eine sichere Online-Datenbank erstellt, ähnlich wie CueChronicle, ein Programm, das viele Musikredakteure benutzen. Es ermöglicht uns, jeden Aspekt des Prozesses nachzuverfolgen – von den ersten Spotting-Notizen und Theme-Entwürfen über Revisionen, Bildänderungen, Orchesterkonfigurationen und Aufnahmesessions bis hin zu Musik-Edits und mehr. Es ist großartig, weil Änderungen und Ergänzungen sofort für alle zu sehen sind. Ich habe ein lokales NAS, zu dem wir alle Zugang haben, um schnell auf Dateien zuzugreifen, sie hoch- und herunterzuladen, und das wie eine BOX funktioniert. Bei vielen Projekten dürfen die Workprints nicht über das Internet bereitgestellt werden und man muss immer noch jemanden mit einer physischen Festplatte durch die Stadt fahren lassen, um die aktualisierten Videodateien an alle zu verteilen. Die Sicherheitsvorkehrungen für unveröffentlichte Filme sind in den letzten Jahren sehr viel strenger geworden.
Was denkst du, wie sich die Film- und Kompositionsbranche angesichts der rasanten Entwicklung von KI verändern wird?
Fast jeder Vertrag enthält mittlerweile eine „No AI“-Klausel, die es untersagt, KI-generierte Inhalte in der Musikproduktion zu verwenden. Umgekehrt gilt das auch für die meisten Musikbibliotheken, mit denen ich arbeite – das fertige Produkt darf nicht in eine KI-Trainingsdatenbank eingespeist werden. Für mich macht das absolut Sinn. Es wäre ein urheberrechtliches Chaos, das niemand riskieren möchte.Einen KI-Assistenten, der Spotting- Notizen organisiert, Bildänderungen nachverfolgt oder Timing-Anpassungen erleichtert, fände ich toll – aber keine KI-generierte Musik. Ich bin ein Kind der 80er! Die Vorstellung, dass Musik für mich generiert wird, fühlt sich für mich völlig fremd an. Es geht mir um die kreative Reise und das Entwickeln organischer Originalmusik für jedes einzelne Projekt ist etwas, was dabei besonders viel Spaß macht.