Liebe Experten,
die Diskussion um den möglichen Dongleschutz hat mich daran erinnert, wie schmerzhaft seinerzeit die Verabschiedung von Gigastudio (nemesys bzw. Tascam) vielen Usern gefallen ist. Angeblich arbeiten bis heute in Tonstudios die Filmmusiker mit den letzten leistungsfähigen Gigastudio-Versionen.
Klanglich ist durch das Samplen von langen Tönen und auch dem Fortlassen von Loops der "reine" gestreamte Klang (24bit/96kHz auch in surround) wohl über alle Zweifel erhaben. Da wirkt die virtuelle Windversorgung und das Loopen der Töne in HW bzw. GO auf mich noch immer zweifelhaft. Zugegeben, bei Labialen ist das vielleicht vernachläßigbar, aber Zungen können mich in HW nur selten überzeugen...
Meine Fragen:
Warum hat sich das Hauptwerkkonzept (Die Klanginformation wird im Arbeitsspeicher gehalten) eigentlich gegenüber den Streamingversionen wie Gigastudio durchgesetzt? Wegen der schöneren Frontends mit virtuellen Spieltischen?
Warum fehlt noch immer ein WYSIWYG-Editor für die ODF-Datei? Ist das noch immer die Domäne einiger weniger Samplehersteller und ihrer alchemistischen Sampleküche?
Da war man übrigens im Gigastudio z.B. längst weiter: Über einen leicht nachvollziehbaren Editor wurden die Samples für angeschlagenen Ton und Release einfach zugeordnet, anschließend die Hüllkurven festgelegt - fertig! Das ganze konnte sofort auf Herz und Nieren getestet werden und war für mich Anlaß genug für manch spontane Toccata. Und von der grauenhaft verstimmten Dorforgel nach der Osternacht abgenommene/aufgenomme Terzen führten am nächsten Nachmittag zur Wiederauferstehung. Das war alles einfach, kreativ und streng auf das Musik-MACHEN ausgerichtet.
Ideen? Anregungen? Ergänzungen?
Danke für jeden Tip,
Pit