Es gibt ein Thema im Studioalltag, das mich schon seit Langem beschäftigt. Die Redundanz. Darunter verstehe ich das mehrfache Abspeichern gleicher Daten an verschiedenen Orten. Eigentlich versuche ich bereits das Abspeichern an verschiedenen Orten zu vermeiden, das sollte eher verzettelt als redundant bezeichnet werden. Dieses Problem tritt ziemlich häufig auf und erschwert vor allem den Langzeitnutzen meiner eingespielten Musikstücke. Ich habe des Öfteren Aufnahmen aus dem letzten Jahrtausend in die Jetztzeit transformiert. Oft für andere Musiker, die nach vielen Jahren ihr Hobby wieder aufnahmen, aber nicht bei null beginnen wollten.
Dabei zeigten sich immer die gleichen Probleme, die Songspur sagte: D50 oder Wavestation, aber die Instrumente waren längst verkauft, gingen nicht mehr, oder die dazugehörige Soundbank war unauffindbar. Probleme gibt es auch, wenn der Program Change evtl. mit BankSwitch-Befehl nicht in der Spur mit aufgezeichnet wurde. K2000 sagt heute wenig aus, da der interne Speicher damals schon 999 Sounds aufnehmen konnte, externe, die wurden damals über Diskette oder Harddisk nachgeladen, mal ganz ausgenommen. Bei den genannten Synths wäre es mit einigem Aufwand noch möglich, ein virtuelles Gegenstück oder ein geliehenes Instrument zu verwenden. Spätestens bei eigenen verwendeten Soundbänken ist dann Schluß mit lustig.
Es ist schön und gut im hier und jetzt zu leben, aber bei vielen gibt es noch eine (musikalische) Zukunft, die weit entfernt sein könnte. Dazu habe ich Vorkehrungen getroffen.
So weit wie möglich alle Informationen an einem! Ort speichern. In meinem Fall wäre das die DAW. Dafür muss ich Vorkehrungen treffen.
- Jeder aufgenommene Hardwaresynth, auch mitspielende iOS Synths, haben zwei Spuren. Eine gemutete Audioaufnahme des Takes, sowie die MIDI Spur dazu (bei Bedarf auch umgekehrt). Ganz wichtig in diesem Zusammenhang: Alle Tracks/Sequenzen genau beschriften. Also „Wavestation ROM 04, #00 Mr. Terminator“. Das gibt mir zumindest die Chance, das in einem Dutzend Jahren wieder zu rekonstruieren. Immer mehr alte Schätze erscheinen als virtuelle Instrumente, die immer öfter auch die Soundbänke der Originale akzeptieren. Die Generation ab ca. 85 war zum grössten Teil digital, das lässt sich fast 1 zu 1 in PlugIns übersetzen. Eigene Sounds also am Ende des Tracks als SysEx dumpen und mit dem Song abspeichern. Es gibt SysEx Filter in vielen Programmen und in allen Synthies, achte darauf, diese davor zu deaktivieren. Theoretisch könnten SysEx Dumps auch am Anfang stehen, dann muss ich darauf achten, dass alle Dumps fertig gesendet wurden, bevor der Song z.B. bei Takt 15 losgeht. SysEx Daten können nicht durch andere MIDI Daten unterbrochen werden. Am Ende ist daher meist die bessere Wahl.
- Hat der Synth Effekte im Klang eingebaut, deaktiviere ich diese gerne mal und verwende die der DAW, ausser bei sehr gelungenen Soundkreationen, wo der Effekt den eigentlichen Sound macht. Da ist es meist sinnlos das nachzubauen.
- Splits/Doubles und Multis gehören nach meiner Vorstellung in die DAW und nicht in den Hardwaresynth. Heute verwende ich ohnehin oft nur noch einen Sound aus einem Tonerzeuger/Instanz. Das ganze gilt natürlich nicht für Livemusiker, da gibt es ganz andere Voraussetzungen.
- Sequenzer verwende ich nicht im Instrument, das lohnt sich (für mich) nur in sehr seltenen Fällen. Drumsimulationen wie z.B. BFD (ja, ist nicht mehr so verbreitet, dürfte aber bei Toontracks etc. ähnlich sein, den habe ich aber nicht) verhalten sich für mich so, als gäbe es keine DAWs und bieten alles innerhalb des Programms an. Aber wer, ausser den Vorführern dieser Programme würde die Standalone Version so eines Programms verwenden? Ja, klar, es gibt ein paar da draussen, die machen das auch, gerne. Für mich ist das allerdings Teil der DAW und diese sollte auch die Sequenzen dazu verwalten. Diese lassen sich oft als MIDI Datei exportieren/einbinden.
- Das Ganze geht weiter mit dem Sounddesign. Muss nicht, kann aber sehr gut. Möchte ich einen Sound andicken, geht das genauso gut, für mich eher besser in der DAW als im Instrument. Einfach den gleichen Sound nochmal in der Spur darunter. Moduliert, verzögert, detuned, oder alles zusammen, da gibt es kaum Grenzen. Es ist überhaupt kein Problem, einen 7-fach Stack (wer braucht so was?😇) mit einer einzigen Spur zu spielen. Und die Optionen, was ich alles mit einem Sound anstellen kann, gehen hier deutlich weiter, als im Instrument selbst. Meinen SY 77, den ich programmieren kann, ändere ich viel schneller in der DAW, wenn es nur ums Doppeln, Detunen, Splitten etc. geht. Die Instrumente bieten einfach nicht die gleiche Breite und Bequemlichkeit an Eingriffsmöglichkeiten, die ich mit einem 27“ WQHD und einem zweiten FullHD Screen habe. (Mein momentanes Setup, bei Bedarf nehme ich mein iPad Pro als 3. Screen dazu.)
- https://youtu.be/GLiA5NoPQL8 zeigt, wie ich mit 4 kostenlosen (fast) PlugIns von u-he einen Stapelklang erzeuge.
Wavesequencing hier mit einer Handvoll Sequenzen, die ich bei Bedarf modifiziere, hier im Beispiel die Reihenfolge der Töne in der letzten Sequenz umdrehe. Interessant auch die Option, die Sequenz zu stauchen/auseinanderziehen, was zusammen mit weiteren Spuren interessante Multi-Rhythmus-Ergebnisse bringen kann
- Wavesequenzing mache ich seit Ende der 80er immer mal wieder mit einer chromatisch ansteigenden Tonfolge, die verschiedene Ziele bei Tonerzeugern ansteuert. (Das hat ReCycle zuerst so umgesetzt, heute ist das gängig). Da gehen auch billige GM Module, vor allem der Drumbereich bietet bei denen oft viel. Sehr variabel und auch zukunftssicher, ich kann ja eine gelungene Sequenz direkt in den (idealerweise Software) -Sampler übernehmen und dort abspeichern. Bei bedarf lasse ich mehrere Wavesequenzen parallel, zeitlich verschoben, was auch immer mir einfällt, nebeneinander laufen. Ich kann die Einzeltöne in eine andere Reihenfolge bringen, kann mehrere verschiedene Bausteine wie Lego umordnen.
Die beiden Videos zeigen, wie ich Wavesequenzen auf zwei verschiedene Weise selbst erstelle.
- Ganz wichtig: wer vorausschauend arbeitet, speichert neben der Ausgangsdatei eine zweite Datei ab, bei der jede! Spur an der gleichen Stelle beginnt. Setzt eine Spur erst bei Takt 81 ein, wird das davor mit Stille aufgefüllt. Ausserdem sollten alle Schnitte einer Spur zusammengeklebt werden, so dass eine Spur nur noch aus einem Element besteht. Dann kann ich meine musikalischen Ergüsse jedem anderen weitergeben. Dieser kann einfach jede Spur bei 1 oder 5 oder wo auch immer anlegen – fertig.
Die (fast) ideale Version zum Aufbewahren oder weitergeben. Nur Track 20 muss noch geklebt werden, er besteht aus zwei Teilen. Hier nur Audio, ist mit MIDI aber genau so. Jede DAW würde diesen Export ohne Probleme weiterverarbeiten
- Ein letztes noch. Einen Computer, der auch mit alten Dateiformen zurecht kommt, würde ich aufbewahren. Bei mir wäre das Ideal als MacUser seit den 80ern bei einem PowerMac G3, der letzte Computer mit SCSI aber auch IDE oder PATA genannt (ich mache gerade einen Job, konvertieren von Iomega Jaz Dateien, das war eine um die Jahrtausendwende populäre Lösung mit Wechselplatten und SCSI). Windows User sollten einen Rechner einlagern, der noch XP, evtl. auch noch 98 SE kann UND über eine USB Option verfügt, sonst muss ich Parallel ATA (IDE) Platten in neue Rechner einbinden.
Das Ganze ist jetzt vielleicht nicht so sexy wie ein Haufen rarer, alter Instrumente in einem großzügigen Studio, die gut gewartet, verkabelt, alle einzeln angespielt werden können. Das ist sicher auch eine gangbare, für einige vielleicht auch inspirierendere Arbeitsweise, aber ganz sicher nicht die Nachhaltigste. Aber auch da gelten einige der gemachten Statements. Überhaupt, es gibt nicht nur schwarz und weiss. Wir alle bewegen uns fast ausschliesslich im Graubereich. Ich habe lediglich für mich selbst diese Vorgehensweise gefunden und finde sie sinnvoll. Trotzdem spiele ich ab und an gerne mit dem Sequenzer z.B. in der Odyssey App auf dem iPad (hellgrau).