PrinzThomas hat geschrieben:Ich dachte es mir fast. ^^
Dennoch komme ich bei manchen Sachen nicht drum rum ein "E }" vor zu schalten, weil ich das vorhergehende Modul nicht auf mono stellen kann, da es polyphone signale verarbeiten muss.
Jetzt stellt sich aber die Frage, ob diese "E }" Module sehr an der Performance nagen.
Noch mal wegen der Auslastung.
Die meisten der polyphonen Reaktor Synthies andere Entwickler haben eine bedeutend geringere Auslastung, obwohl sie sehr komplexe Sounds erstellen.
Irgendwas ist bei mir nicht ganz korrekt.
Wahnsinn ist z.B. dass ein einzelner Filter bei 6 Voices bereits mind. 5% mehr auslastet.
Vielleicht muss ich das Gate Signal ja noch modifizieren.
Gibt es im Übrigen eine Möglichkeit die Anzahl der Voices über einen Knopf im Instrument selbst zu regeln?
Das wäre sehr praktisch, denn so könnte man Sound wie Bässe usw. monophon setzen und als Snapshot speichern.
Das spart bei einigen Sounds dann eine Menge unnütz verbratener Performance.
Zur letzten Frage antworte ich mal zuerst: klar kann man das machen; es gibt mehrere Ensembles, die sich von
polyphon auf monophon umschalten lassen (Razor zum Beispiel). Schau dir das absolute Spitzenensemble 3X.ens von James Walker Hall aus der user library an; dort findest Du alle Hinweise.
Du musst unterscheiden zwischen dem
Audio-Voice-Combiner } und dem
Event-Voice-Combiner E} .
Der Audio-Voice-Combiner addiert alle Audio-voices zu einer Audiosumme und man erhält ein monophones Audiosignal; der Event-Voice-Combiner wandelt polyphone Eventsignale in sequentielle Eventsignale um, d.h. er greift auf den polyphonen Eventdatenfluss zu und gibt ohne Berücksichtigung, von welcher voice der Event kommt, den jeweiligen Wert monphon weiter.
Über die jeweiligen
Auslastungen kann man pauschal nichts sagen, wenn man die Struktur nicht kennt, abgesehen davon, dass mancher CPU-Verbrauch schon aus prinzipiellen Gründen nicht angezeigt wird.
Vermengt man Event und Audiosignale, kann man böse Überraschungen erleben. Das kann ich aber hier nicht im Einzelnen ausführen, da das nicht trivial zu begründen ist.
Zur absoluten Belastung von 5% durch ein Filter kann ich nicht viel sagen, zum Vergleich: auf meinem MacBookPro 2,8GHz Intel Core 2 Duo komme ich bei einem Core-D/T Ladderfilter auf knapp 3,1% mit 6 Voices; diese Werte kann man aber nicht wirklich ernst nehmen.
REAKTOR leistet viel, aber verbraucht auch viel. Trotzdem kann man durch geschickte Programmierung der Struktur durchaus den Gesamtverbrauch eines sehr anspruchsvollen Ensembles etwa zwischen 20% und 30% halten. Manche Ensembles haben aber auch einen „bombastischen” Sound und verbrauchen trotzdem wenig. Es gibt hier keine allgemeine Regel.
In Cubase laufen sogar mehrere Instanzen von REAKTOR klaglos. Man kann also nicht einfach Prozentzahlen addieren.
Es gibt einige
Tricks, wie man CPU-Verbrauch stark reduzieren kann. Dazu muss man sich aber in die typischen „großen” Ensembles hineindenken.
Beispiele sind die Ausnutzung, dass man polyphone Audiostränge auch als mehrfachen monophonen Strang nutzen kann (zum Beispiel beim Hall), oder Abschaltung der SampleRateClock in AudioCoreCells bei zeitweisem Nichtbenutzen einer Voice.
Das ist nicht einfach.
ciao herw