Project Work, Experiment #2

Bei meinem zweiten Experiment, was die Vertonung von Bewegtbild angeht, handelt es sich um einen 120 Sekunden langen, ausschließlich aus 3D Renderings bestehenden Werbespot, welcher ein Hauswärme/Energiesystem der Firma KWB veranschaulicht und erklären soll, wie dieses funktioniert und arbeitet. Dieses Produkt der Firma KWB ist neu am Markt und bedarf daher eine verständliche Einführung für sowohl Interessenten als auch interne Mitarbeiter, die das System in weiterer Folge präsentieren und verkaufen werden.

Es handelt sich hierbei wieder um ein sehr technisches Produkt, das jedoch mit natürlichen Rohstoffen (Energie der Sonne/ Solarenergie) operiert und dadurch einen starken Zusammenhang mit Nachhaltigkeit / Unabhängigkeit suggeriert.

Die Bilder

Rein bildlich gesehen, ist der Werbespot relativ Hell, da der Fokus der Renderings hauptsächlich auf dem (weißen) Haus und der darin verbauten Technik liegt. Die gesamte Außenwelt belauft sich auf einen kleinen Rasen vor dem Haus, hält sich abgesehen davon mit weißen Flächen und einem hellen Himmel absolut steril.

Da die Schnitte des Videos ausschließlich in der Distanz springen – also näher an das Haus heranzoomen / die darin verbaute Technik durchleuchten – gibt es keine tatsächlichen Ortswechsel im Spot. Die gesamte Handlung spielt sich vor / mit / im Haus ab.

Die Wahl der Instrumente

Wenn man sich also die Frage stellt, wie bzw. mit welchen Instrumenten die Präsentation dieses Produktes am besten unterstützt werden kann, würden aus den oben genannten Gründen in erster Linie synthetische Klänge dazu passen, da sie ähnlich wie das Produkt von Menschenhand geschaffen und geformt wurden, um einen bestimmten Zweck oder Klang zu erfüllen.

Synthesizer

Nachdem es sich hier um keinen Realfilm, sondern ausschließlich um digital erzeugte Renderings handelt, liegt der Gedanken nahe, künstliche, digital erzeugte Klänge zu wählen. Denn auch wenn besagte Klänge durch Modulationen usw. so verändert werden können, dass sie sich entwickeln und bewegen (was meist unternommen wird um den Klängen „Leben einzuhauchen“) sind sie doch von einer digitalen / künstlichen Klangästhetik geprägt, die mit dem Thema Strom und Wärmeflüsse gut einhergeht.

Die Komposition (Interpretation und Beschreibung)

Die Komposition zeichnet sich durch ihre fließenden, großflächigen und ineinander übergehenden Sounds aus, die sich im Grunde auf ein paar wenige Akkorde in der Abfolge reduzieren lassen.

Nachdem das Video keine Geschichte erzählt, und dadurch keine klassische Storyline oder Handlung hat, macht es hier in meinem Ermessen wenig Sinn, eine nicht existierende Geschichte durch Musik zu erzählen. Der Fokus liegt viel mehr darauf, die durch einen Sprecher und den Animationen erklärten Inhalte musikalisch zu untermalen. Wenn man sich das Konzept des Energy Comfort Systems ansieht geht es darum, Wärme und Strom einzufangen, im Haus zu verteilen und wenn kein Bedarf besteht zu speichern. 

Demnach macht es Sinn, sich mit ebenfalls warmen Klängen auseinanderzusetzen und diese in die Komposition zu integrieren. 

Nachdem die anfänglich leichten, mit rückwärts abgespielten Artefakten verzierten Sounds, die die Sonne in ihrem Wesen beschreiben sollen erklingen, stoßt bei etwa Sekunde 20 ein tiefer, anschwellender Sound dazu, der die Wärme darstellen soll. Der Kreislauf des Hauses wird durch die Solar Platten aktiviert und der ewige Zyklus von Energieaufnahme und Verteilung beginnt. 

Die Klangsphäre entwickelt sich fließend mit, ohne allzu große tonale Unterschiede einzunehmen. Auf diesen Teppich der „Wärme“ trifft ein relativ digital klingender, mit einem zufällig generierten Arpeggiator gesteuerter Klang. Dias inkonsequente Muster des Arpeggiators erzeugt durch seine kurzen unregelmäßigen Klänge ein gewisses „Funkeln“, das den darunter liegenden Teppich schmückt und für die „Technik“ stehen soll, die das gesamte System am Laufen hält.

Die Klänge untermalen die Ströme des Systems bis zu Minute 01:30, wo das Herzstück des Verteilers gezeigt wird. Hier schwellen die Klänge noch einmal kräftig an und nehmen an Lautstärke zu, um die Kraft und Leistung des Verteilers zu zeigen.

Nach diesem letzten Höhepunkt der Komposition, nimmt sich die Musik zurück und wir sehen wieder die 2 Häuser nebeneinander stehen. Das Bild blendet langsam aus, bis es komplett dunkel ist und das Video damit endet.

Ausführung mit synthetischen Klängen

Das im Video vorgestellte Heiz- und Energiesystem hat bis auf den Fakt, dass es Temperaturen verändern und regulieren kann, relativ wenig bis garnichts mit der Natur zu tun, wenn man es als Maschine betrachtet. Demnach ist die Vertonung ebenfalls unnatürlichen Ursprungs. Die fließenden Pad Klänge, ergänzen die Visualisierungen des fließenden Stroms / der fließenden Wärme ohne sich dabei zu sehr aufzuspielen, die halten sich dezent im Hintergrund. Darüberhinaus sind die zufällig generierten Klänge des Arpeggiators eine angedachten Vertonung der Datenströme, welche dem System sagen wo es heizen, kühlen oder speichern soll. Es soll sozusagen ein digitaler Teppich aus zufällig gesetzten Impulsen entstehen die jedoch alle in der selben Tonart gespielt werden, um diese „Zufälligkeit“ durch eine Konstante auszugleichen.

Ausführung mit orchestralen Klängen

Der Großteil der Komposition besteht aus langanhaltenden, harmonisch klingenden Akkorden, die fließend ineinander übergehen. Dies lässt sich mit Streichern relativ gut umsetzen, da sie aufgrund ihres Ausdruckes und der variablen Lautheit (hier gesteuert durch 2 Midi Fader – Expression & Dynamics) sehr dynamisch klingen können. Auch das Frequenzspektrum wird von den jeweilig zugehörigen Instrumenten (zB. Viola – Cello – Bass) ausgefüllt, die sich im Klangbild somit zu einem vollen Klangteppich ergänzen, in welchem man die Instrumente trotzdem einzeln wahrnehmen kann. 

Neben dem Klangteppich beinhaltet die Komposition jedoch auch noch ein zufällig generiertes Muster an Tönen, die immer wieder kurz auftreten und damit ein akustisches „Funkeln“ erzeugen, wenn man so will. Da dieser Effekt von einem Programm gesteuert wird, klingt er auf jeden Fall sehr ungewohnt, wenn man ihn mit Pizzicato Klängen von Streichern hört. Dennoch erzeugt es eine moderne Ästhetik, die die sonst sehr klassisch klingende Ausführung etwas neuer & innovativer klingen lässt.

Erkenntnisse

Das größte Erkenntnis dieser Komposition ist wohl, dass mehr nicht immer mehr ist. Wie schon Dieter Rahm in seinen 10 Regeln für gutes Design festlegte, ist gutes Design „as little as possible“. Auch wenn die Komposition noch einfacher sein hätte können, ist sie auf jeden Fall nicht zu aufdringlich und zu überheblich. Genau diese Einfachheit formt im Endeffekt den gewollten Effekt der Sicherheit, Expertise und Prestige des Projektes. 

Bezogen auf die Instrumente ist das Stück in sowohl der einen, als auch der anderen Ausführung passend und fällt nicht zu sehr aus dem Bild. Dennoch vermittelt die Synthesizer Version in diesem Fall das Produkt besser, da es durch die synthetischen Klänge fortschrittlicher, neuer und innovativer klingt, als die orchestrale Version – die sich dennoch hören lassen kann.

Experiment #1 – Feedback des Videographen

Obwohl sich der Endkunde bereits für den orchestralen Soundtrack entschieden hat*, war es mir dennoch wichtig die subjektiven Eindrücke des Videographen zu erfragen. Daher bat ich Ihn, sich die zwei unterschiedlich orchestrierten Soundtracks anzuhören und für ihn selbst zu analysieren, wieder in Kombination mit dem Bild.

Seine Auffassung der Unterschiede zwischen den 2 Ausführungen:

Die Orchestrale Version gefiele Ihm mehr, da sie die Bilder, die immerhin großteils Natur (Wälder, Bäume etc.) zeigen besser untermale.
Weiters fiel ihm seiner Meinung nach auf, dass die Synthesizer Version in Verbindung mit dem Video einen leichten Grusel Charakter annimmt, und der eigentliche Stil vom Video darunter leidet. 

Ebenfalls würde man die „Stille“ mit der orchestralen Version besser wahrnehmen können. Die leisen Elemente der Musik würden sich merkbarer „zurückhalten“ als die der selben Passagen von der Synthesizer Version.

Die letzte Aussage überraschte mich am meisten, da mir diese Eigenschaft nicht aktiv aufgefallen wäre und solch detailliertes Feedback eher selten unter Videographen vorkommt.

*Aus Deadline-technischen Zeitgründen konnte die Hybrid Version – die meines Erachtens nach ideal gewesen wäre – nicht mehr in das finale Produktvideo eingebaut werden, da der Kunde dieses schon vorzeitig benötigte.

Project Work, Experiment #1 

Bei meinem ersten Experiment, was die Vertonung von Bewegtbild mit einerseits Orchestralen und andererseits Synthetischen Klängen angeht, handelt es sich um eine 45 Sekunden lange Aneinanderreihung von Sequenzen, welche ein Weitsichtgerät mit verschiedensten Funktionen präsentiert.  
Es wird hauptsächlich in der Forstwirtschaft eingesetzt und wir zum erleichterten Aufspüren von Tieren herangezogen. Über Bluetooth kann die Achse des Fernrohres gesteuert und das Live Bild zurück zum iPad geschickt werden, sodass man das Gerät vom Innenraum des Autos – ohne Kabel – steuern kann. 

Es handelt sich somit um ein einerseits sehr technisches Produkt, andererseits um ein hilfreiches und mächtiges Tool, das eine gewisse Ernsthaftigkeit mit sich bringt.  

Die Bilder 

Rein bildlich gesehen ist der Spot relativ dunkel. Anfangs packt ein Jäger seine Ausrüstung zusammen, ein Teil davon ist das beworbene Gerät. Dronen Aufnahmen von Wäldern werden zwischengeschnitten. Der Realfilm wechselt plötzlich zu einem 3D Rendering des Geräts. Kurz darauf folgt eine Szene mit einem fahrenden Auto auf einem dunkeln Waldweg, da die Morgendämmerung erst anbricht. Bilder vom Innenraum des Autos zeigen eine Person, die das Gerät über ein iPad steuert. Aufgrund des Schnittes kann man annehmen, dass sie durch das Fernrohr etwas entdeckt haben, anschließend aussteigen, um dem Tier näher zu kommen. Das Video endet an dieser Stelle.  

Die Wahl der Instrumente 

Wenn man sich also die Frage stellt, wie bzw. mit welchen Instrumenten die Präsentation dieses Produktes am besten unterstützt werden kann, würden aus jeweils anderen Gründen, beide Formen der Musik (Orchestral oder Synthesizer) in Frage kommen: 

Das Orchester 

Nachdem es sich um einen Realfilm handelt, der im Wald spielt, sind reale Instrumente des Orchesters naheliegend, wenn man bedenkt, dass diese Teils aus Holz sind (Streicher) und eine Gewisse Imperfektion aufweisen, nicht zuletzt durch das Spielen der Musiker. Nachdem alle Streicher Samples aus dem gleichen Haus kommen (Spitfire Audio) weisen diese einen relativ ähnlichen Reverb und Mikrofonierung auf, was die einzelnen Instrumente als organische Masse auftreten lässt, anstatt einzeln und isoliert.  

Synthesizer 

Jedoch haben auch Synthetische Klänge ihre Daseinsberechtigung, wenn man bedenkt, dass das beworbene Produkt hoch technisiert ist und Präzision eine der wichtigsten Eigenschaften ist. 
Ebenso sind die meisten “typischen” Klänge von Synthesizern präzise geformt und haben einen technischen Klang, der der Natur relativ fern ist. Beispielweise ist die Kontinuität einer Sägezahnwelle ein perfektes Beispiel für Perfektion, welche in der Natur nur selten auffindbar ist. 

Die Komposition (Interpretation und Beschreibung) 

Bei einer Jagd geht es darum, sich leise und ruhig zu bewegen und im richtigen Augenblick entscheidende Schritte zu tätigen. Daher sind die ersten 10 Sekunden (Takt 1-6), während denen sich der Jäger vorbereitet, mit ruhigen gleichbleibenden Tönen bestückt, die sich nur in ihrer Intensität und Textur verändern. Ab Sekunde 5 (ca. Takt 4) kommen unruhige, kurz angespielte und abgehackte Töne als Akzente dazu, die Nervosität und Anspannung vermitteln sollen. 

Bei Takt 6 (Sekunde 10) setzt das Rendering des technischen Geräts ein und präsentiert dieses mit leichter Bewegung. Die Spannungskurze fährt hier abrupt nach oben, mehrere Instrumente setzen zugleich ein und beantworten das eher hoch gespielte Intro mit tiefen kräftigen Tönen, die das Rendering andauern und darüber hinausgehen, um die Spannung zu halten, während man das Auto im Wald fahren sieht (Takt 8). Ebenso sind wieder zufällig gesetzte Töne als Ergänzung zu den starren, tiefen Tönen zu hören, die die Aufregung und Komplexität untermalen sollen. 

Die Spannung hält bis Takt 10 an, ab welchem die tiefen Töne nachlassen und ein fokussierter, im Tempo und in der Tonhöhe gleichbleibender Rhythmus hinzukommt, der ein Gefühl der Zuspitzung hervorrufen und den Fokus schärfen soll. Bei Takt 12 setzt einer der 3 Tiefen Töne wieder ein und wiederholt sich alle 2 Takte. Zusätzlich beginnt im Hintergrund eine stets steigende Abfolge von schnell hintereinander gespielten Tönen um in gewisser Art und Weise den Klimax anzukündigen. 

Als diese Tonleiter bei Takt 18 stoppt und eine Klimax eine logische Fortführung wäre, spielt nurmehr ein sehr hoher, leiser, anhaltender Ton, der die Konzentration der Förster untermalen soll und die Intensität der Musik zurücknimmt. Denn die beiden haben etwas aufgespürt und sind nun ganz nahe an ihrem Ziel. Ein letzter Blick durch das Fernrohr und der Spot endet. Ein letztes Mal erklingen die tiefen Töne schlagartig, um das Logo/Claim des Produktes hervorzuheben. 

Um einen nachvollziehbaren Vergleich zwischen den unterschiedlichen Ausführungen der unterschiedlichen Instrumentengruppen zu schaffen, “müssen” sich beide Ausführungen an folgende Rahmenbedingungen halten: 

Um genügend Parameter zu haben, aber dennoch genug Spielraum zu lassen, würde ich folgende Punkte für Sinnvoll halten: 

Rhythmik 

Tempo 

Melodik 

Tonalität  

Länge 

Anzahl der Elemente/Instrumente (hier wichtig zu betonen: eine Streichersektion – zB 8 Celli – die gemeinsam eine Melodie spielt, würde ich auch als ein Instrument werten und nicht als 8) 

Folgende Parameter würde ich offen lassen: 

Effekte  

Tonhöhe (Spielraum: eine Oktave) 

Dynamik 

Ausführung mit Orchester 

Takt 1-6 spielen Streicher in Sul Tasto (Bogen über dem Fingerboard, um einen “dünneren” Sound zu erzielen) die gleichbleibenden Töne (G, C & D). “Digging” Sounds von einem Cello übernehmen die kurzen abgehackten Töne der Komposition um aufzurauen. 

Bei Takt 10 setzen die 3 tieferen Töne (G) in Form von einer Bass Tuba, einem Kontrabass und einem Cello ein. Kontrabass und Tuba spielen ein Markantes G0 in forte, während das Cello ein G1 spielt und erst später durch das steigende Crescendo wahrnehmbar wird. 

Von Takt 6 bis Takt 18 erzeugen zufällig improvisierte Töne (G, D, A#) von Violas eine gewisse Anspannung und Bewegung. Währenddessen setzen Kontrabass und Cello in einem wiederholenden Muster ein, um weiterhin Druck auszuüben.  

Der stetige Rhythmus ab Takt 10, wird von Geigen übernommen, welche durch kräftig gezupftes Bartok Pizzicato durchschneidende Klänge erzeugen. 

Takt 18 bis 24 übernimmt eine einzelne Viola, die einen stehenden, sich ziehenden Ton bis zum Ende durchzieht, nach welchem lediglich ein letzter Strich von Kontrabass und Cello ertönen. 

Ausführung mit synthetischen Klängen 

Kurz vorweg: die meisten synthetischen Klänge dieser Ausführung stammen vom Synthesizer Plugin Omnisphere, da es eine extrem große Palette an Sounds aufweist und sehr vielfältig ist. 

Die 3 eröffnenden Töne übernehmen hier zum einen ein Patch, der sehr an Vangelis erinnert und durch seine Artefakte zufällige Tonhöhen-änderungen beinhaltet. Unterstützt wird dieser von sehr ambienten, organisch klingenden Sounds, die ebenfalls aus Omnisphere stammen. (Takt 1-6) 
Dazu kommen die zufällig gesetzten Töne ab Takt 4, die hier von einem pluck sound ausgeführt werden. 

Die 3 Gs, die im Takt 6 eingesetzt werden, stellen sich hier aus einem mächtigen Prophet Klang, der sehr hell und beißend klingt, einem weiteren Omnisphere-patch das über mehr Bässe verfügt und einem ergänzenden Layer der ambienter im Klang ist, zusammen. Anschließend werden sie nurmehr vereinzelt eingesetzt, um in Schüben den Druck zu erhöhen. 

Die zufällig gesetzten Töne (bei der Orchester Version) von Takt 6 bis 18 werden in dieser Ausführung durch einen stetigen, gleichbleibenden Arpeggiator ersetzt.  

Der filigrane Klang von Takt18 bis 24 ist ebenfalls ein Omnisphere Patch, welches dem Klang einer Geige sehr nahe kommt, und wird durch ein letztes Erklingen der tiefen Töne bei Takt 24 unterbrochen bzw. zu Ende geführt. 

Erkenntnisse: 

Auch wenn beide Intrumentengruppen ihre Daseinsberechtigung haben, macht es im Fall dieses Werbespots wenig Sinn, beide auf Krampf gegeneinander antreten zu lassen. Die ersten 6 Takte wirken beispielweise durch die Synthesizer viel tu technisch, während man Wälder und Bäume sieht. Hier kann das Orchester die Stimmung besser untermalen und sich weniger in den Vordergrund drängen. 
 
Bei Takt 6, bei welchem das Produkt präsentiert wird, macht es wiederrum Sinn auf Synthesizer Klänge zurückzugreifen. Denn auch wenn die Wucht eines Orchesters hier ebenfalls geeignet wäre, vermittelt der Technische, elektronische Klang eines Synthesizers hier die Features und Eigenschaften des Produktes besser und vor allem moderner, was bei Technikprodukten natürlich wünschenswert ist.  

Nachdem das Produkt gezeigt wurde, kann man natürlich im synthetischen Bereich bleiben, jedoch sollten sich diese Elemente meiner Meinung nach nicht allzu sehr aufzwingen, da bildlich wieder zur Natur gewechselt wird. Das gilt für nahezu den gesamten restlichen Spot, mit der Ausnahme des Schlusses, bei welchem die Hersteller und Logos ein letztes Mal eingeblendet werden. Hier könnte man ggf. Einen leichten Technischen Akzent hinzufügen, wenn die Wucht und Ernsthaftigkeit des Orchesters hier nicht ausreichen sollte. 

Fazit: 

In diesem Fall ist eine Hybridkomposition die wahrscheinlich überzeugendste Variante, da das Orchester einerseits auf die naturverbundenen Eigenschaften eingehen kann während die synthetischen Klänge die Technik untermalen und ihr Ausdruck verleihen.  

Blog Post 5 – Wavetable und Granular Synthese, Physical Modeling

WAVETABLE SYNTHESE

Wavetable Synthesizer wurden erstmals in den 1970 von Firmen wie PPG oder Waldorf (Microwave) gebaut. Bands wie Depeche Mode sind bekannt für ihren Sound, der oftmals durch WTS zustande kam. Heutzutage findet man Wavetable Synthesizer hauptsächlich in digitaler Form, nicht zuletzt auch aufgrund der technischen Möglichkeiten. Einer der wohl bekanntesten davon ist wohl “Serum” von Xfer Records, oder “Massive” von Native Instruments. 

Ein Unterschied zu anderen Syntheseformen sind die Oszillatoren. Während diese bei beispielsweise der FM Synthese einfache Wellen sind (Sägezahn, Square, Triangle) die im Grunde nur in ihrer Frequenz und Lautstärke moduliert werden können, können die Wellenformen bei wavetables an sich schon verändert werden (durch beispielweise Phase, Distortion etc.)

Eine noch sehr einfache, Sinus-artige Welle.
Eine bereits stark veränderte Wellenform.

Unter dem “Table” kann man sich mehrere abgespeicherte oder erstellten Wellenformen übereinandergestapelt vorstellen, die alle für sich schwingen. Mit beispielsweise einem LFO und anderen Modulationsquellen kann man dann zwischen diesen Wellenformen wechseln und einzigartige Klänge bauen. perfekt für Pads, Strings und andere langanhaltende Klänge. 

Das Prinzip der ”Schichten” sehr vereinfacht.
Das Prinzip der ”Schichten” in der kreativen Anwendung.

GRANULARE SYNTHESE

Diese Syntheseart basiert auf kleinen, idealerweise 10-50 Millisekunden langen Klangpartikeln eines Sounds, genannt “Grains”. Sie können ihren Ursprung in Samples oder in Synthesizer Signalen haben. 

Die “Grains” werden dann so schnell hintereinander abgespielt, dass durch den dabei entstehenden Effekt interessante Klangtexturen entstehen können. 

Grains werden dabei meist in ihrer Tonhöhe, Phase, Lautstärke, Hüllkurvenparameter usw. Moduliert, um einen lebendigen, sich verändernden Sound zu bekommen. 

Zusätzlich können “Wolken” von anderen Grains, die entweder länger sind oder beispielsweise anders moduliert werden dazustoßen. 

Granulare Synthesizer sind bisher ausschließlich in digitaler Form zu erhalten. Plugins wie Outputs “Portal” oder Spectrasonics “Omnishpehre” bedienen sich beispielsweise an der Granular Synthese. 

PHYSICAL MODELING

Anstatt von schwingenden Oszillatoren, LFOs und Filtern, erzeugen hier mathematische Modelle einen Klang bzw. eine Klangveränderung. Physical Modeling wird daher besonders oft zur Nachbildung echter Instrumente, wie zum Beispiel Geigensaiten oder Trommeln eingesetzt.  

Es können sowohl akustische Eigenschaften des Klangs wie zum Beispiel die Festigkeit des Resonanzkörpers, das Verhalten beim Anschlag oder das Zupfen einer Saite, als auch die akustische Umgebung wie ein Konzertsaal oder ähnliches anhand mathematischer Modelle nachgebildet werden. 

“Um beispielsweise einen Drum-Sound zu modellieren, kommt eine Formel zum Einsatz, die den Kontakt eines Schlägels/Drum-Sticks auf dem Fell nachbildet. Hier spielen etwa die Eigenschaften des Fells, (Masse, Dichte, Steifheit etc.) oder das Volumen und die Beschaffenheit des Resonanzkörpers der Trommel eine Rolle.” 

Meistens gehen die Einstellmöglichkeiten eines Physical Modeling Synthesizers weit über die des nachgeahmten Instruments in der Wirklichkeit hinaus, so kann man beispielsweise das Fell einer Trommel während der Performance größer oder kleiner werden lassen. 

Beispiele für Physical Modeling Synthesizer: 

  • Roland V-Piano  
  • Korg Z1  
  • AAS String Studio VS-2 

Im nächsten Blogeintrag: LFOs & Hüllkurven  

Blog Post 4 – Subtraktive, Additive und FM Synthese

Bevor wir uns einige klassische Synthesizer und deren Sound ansehen ist es wichtig, die verschiedenen Arten der Klangsynthese zu verstehen. Denn selbst wenn die Grundlage aller analogen Synthesizer auf elektronischen Bauteilen besteht, ist jede Form der Synthese unterschiedlich. Generell gesprochen gibt es diese 5 Formen: 

  • Subtraktive Synthese 
  • Additivie Synthese 
  • FM-Synthese 
  • Wavetable-Synthese 
  • Granulare Synthese 
  • Physical Modeling 

In diesem Blogeintrag werden die ersten 3 dieser Liste genauer beschrieben und erklärt. 

SUBTRAKTIVE SYNTHESE 

Bei dieser Art der Klangsynthese startet man mit einer einfachen Oszillatorwelle. (je nach Modell hat man hier einige zu Verfügung). Direkt im Anschluss folgt durch diverse Filter eine Bearbeitung dieser Welle. Absenkungen im Bass-, Mitten-, aber auch Höhenbereich formen hier den Basiston, der anschließend auch noch durch LFOs und Hüllkurven moduliert werden kann (mehr dazu später). Ein guter Vergleich wäre jedenfalls der eines Bildhauers, der mit einem undefinierten Marmorblock startet, und sich seine Gewünschte Skulptur (in unserem Fall der Ton) Schritt für Schritt formt. 

Da Diese Form durch besagte Filter und Abschwächungen des Signals zu seinem Klang kommt, einigte man sich darauf sie “subtraktive Synthese” zu nennen. 

KORG MS-20 SYNTHESIZER

Bei Synthesizern mit subtraktiver Klangsynthese wird man relativ selten bis nie einen Sinuswellen-Oszillator finden, da die anschließenden Filter bei einer solchen Wellenform nicht “greifen” würden. Sie würden lediglich die Lautstärke der Welle beeinflussen. Daher sind nahezu alle subtraktiven Synthesizer mit obertonreichen Wellen bestückt, wie zum Beispiel Sägezahnwellen oder Rechteckswellen.  

Der gängigste und weitverbreiteste Filter Typ, der bei diesen Synthesizern zum Einsatz kommt, ist der Low-pass Filter. Durch die “Cutoff” Frequenz, kann man die höheren Anteile eines Tones mit ihm herausfiltern. Natürlich gibt es aber auch andere Filter, die zwar nicht so oft wie der Low-pass vorkommen, aber dennoch eine Daseinsberechtigung haben. Im Endeffekt läuft es aber immer auf eine Sache raus, die den Sound erst richtig interessant macht: Das Modulieren bestimmter Parameter mittels eines LFOs oder das Formen der ADSR Kurve (Hüllkurve). 

Auf diese Parameter und Formungsmöglichkeiten kommen wir aber im Blogeintrag 6 nochmal darauf zurück. 

Auf die Frage, was ein analoger Synthesizer sei, wird man des Öfteren die Antwort “einer mit subtraktiver Synthese” zu hören bekommen. Selbstverständlich gibt es diese auch schon als digitale Kopien und Nachbauten in Software-Form. Bei ihnen spricht man von “virtuell-analogen” Synthesizern. 

Um ein paar Klassiker zu nennen, die sich diese Snyhteseform zunutze machen: 

  • Minimoog 
  • ARP 2600 
  • MS-20 

ADDITIVE SYNTHESE 

Gegensätzlich zur subtraktiven Synthese, werden hier mehrere Sinuswellen überlagert, welche von Oszillatoren erzeugt werden. Dahinter steckt die Idee, dass man mit dieser Methode nahezu jeden möglichen Ton erzeugen kann – in der Theorie. In der Praxis setzt die Technik hier jedoch immer wieder Grenzen und Hindernisse, welche diese Art von Synthesizer besonders knifflig machen. Jedoch ist es genau das, was “happy little accidents” passieren lässt und dem Synthesizer blühendes Leben einhaucht. 

Additive Synthesizer werden oftmals für die Erzeugung Orgel- oder E-Piano ähnlicher Sounds benutzt. Wer den Sound der bekannten “Hammond Orgel” kennt, weiß was gemeint ist. 

Im Grunde bieten die meisten additiven Synthesizer Oszillatoren an, mit welchen man einen Ton in seine einzelnen Komponenten aufteilen beziehungsweise zusammenbauen kann (=additiv). 

Wer die Fourninsche Analyse kennt weiß, dass ein Ton aus einem Grundton und seinen Obertönen besteht. Bei der additiven Synthese, bildet der am langsamsten schwingende Oszillator diesen Grundton. Alle weiteren Oszillatoren bilden dann die Obertöne. Bei einem Synthesizer mit 4 Oszillatoren würde die 2. Welle doppelt so schnell schwingen wie die erste, die 3. doppelt so schnell wie die zweite, und die 4. doppelt so schnell wie die dritte Welle. Somit würde man einen harmonisch klingenden Ton aufbauen. 

Additive Synthese

Technische Schwierigkeiten der additiven Synthese: 

Um mit der additiven Synthese einen komplexen Klang zu erzeugen, braucht ein additiver Synthesizer viele Oszillatoren. Jeder davonmüsste idealerweise auch in seiner Tonhöhe und Lautstärke veränderbar sein. Wenn jeder dieser Oszillatoren auch noch mit einer ADSR Hüllkurve ausgestattet wäre, käme man mit 5 Sinuswellen auf eine Anzahl von 30 einzeln ansteuerbaren Parametern. Wären es beispielweise 15 Oszillatoren käme man auf 90.  

Wie man anhand dieses Rechenbeispiels erkennen kann, ist die Herausforderung der additiven Synthese die, einen Synthesizer zu bauen, dessen Bedienung trotz etlicher Parameter so einfach und intuitiv wie möglich bleibt.  

Da dies – besonders in der analogen Welt – kein einfaches Unterfangen ist, gab es nicht allzu viele additive Synthesizer in der Geschichte. Ein paar wenige bekannte waren jedoch: 

  • Kawai K5 
  • New England Digital Synclavier 
  • Hammond-Orgeln 

FM SYNTHESE 

m einfachsten Beispiel wird bei der FM Synthese die Frequenz eines Oszillators A durch die Frequenz der Oszillators B moduliert. Die Welle des Oszillators A ist hier die Trägerwelle auch genannt “Carrier”. Osz. B dient hier nur der Modulation und wird “Modulator” genannt.  

An dieser Stelle gilt es zu betonen, dass es in der Welt der FM Synthesizer viele unterschiedliche Wege gibt diese Oszillatoren in Relation zu stellen. Diese Ketten, bestehend aus Carrier, Modulator (die einzelnen Bausteine werden – egal ob Carrier oder Modulator – auch “Operator” genannt) nennt man “Algorithmus”.Also nicht die Oszillatoren selbst, sondern die Art und Weise wie diese Operatoren verbunden sind und welcher was moduliert / steuert. 

Fm Synthese

Typisch für diese Syntheseart sind glockenartige Timbres, metallisch wirkende Töne und Klänge die an ein E-Piano erinnern. Ebenso möglich und sind fette, knackige Bässe und Bläser-artige Sounds. 

Um besagte Klänge zu erzielen, muss die Frequenz des Modulators mindestens 20 Hz betragen. Erst dann spricht man von einer “Audioratenmodulation”. Vibrato wird mit einer Frequenz von bis zu 10 Hz erzeugt. 

Bei Synthesizern, die sich der FM Synthese bedienen, findet man oftmals mehrere Oszillatoren/Operatoren. Meist sind es 4-6 Operatoren pro Stimme. Dies und die oftmals durch andere Algorithmen verknüpfbaren Operatoren ermöglichen sehr komplexe Klangformungen und nahezu unendlich Möglichkeiten. 

Natürlich gibt es die gegenseitige Modulation zweier Oszillatoren auch in anderen Synthesizern, die nicht FM-Synthese betreiben. Bei ihnen nennt man das dann “cross modulation”. 

Der wohl bekannteste Synthesizer der FM- Synthese: der Yamaha DX7 

Im Nächsten Blogeintrag: Wavetable und Granularsynthese, Physical Modeling  

Blog Post 3 – Max Mathews

1951: CSIRAC

Der Name dieses Computers lautete ausgeschrieben: „Council of Scientific and Industrial Research Automatic Computer“ und war Australiens erster digitaler Computer. Er hatte einen Lautsprecher, der ursprünglich die Aufgabe hatte, die Forscher mit Ergebnissen der Rechenaufträgen zu informieren. Allerdings begann ein Mitarbeiter eines Tages für diesen Lautsprecher Melodien zu programmieren, die dann durch den Lautsprecher ausgegeben wurden. Leider gibt es keine Originalaufnahmen mehr, Zeitzeigen berichten jedoch von einem Klang der einem abtauenden Kühlschrank ähnelte. Die Universität von MAnchaster baute kurz darauf einen ähnlich funktionierenden Computer, der Melodien ausgeben konnte.

Max Mathews

Max Mathews war es, der 1957 das Programm „Music 1“ schrieb. Es konnte Digitale Klänge auf einem Computer erzuegen. Die digitale Bild- und Tonübertragung war zwar bereits erfunden, jedoch wurde sie ausschließlich in der Telegraphie und Kommunikation verwendet.

Angestellt bei den Bell Labratories setzte er sich in den Kopf, mit dem IBM 704 Computer Musik zu machen.

„…man musste ein Nerd sein, denn zum einen brauchte der Computer 20 Minuten Rechenzeit, um überhaupt einen Klang von einer Sekunde zu errechnen. Zum anderen musste man dann mit dem vom IBM 704 ausgegebenen Magnetband eineinhalb Stunden durch New York City zu einem anderen Gebäude fahren, das einen Digital-Analog-Wandler besaß und wo man das Ganze dann überhaupt erst anhören konnte. Und zuletzt gab es auch noch keine höheren Programmiersprachen – alle Programme wurden in Maschinensprache geschrieben und liefen nur auf diesem einen Computer.“

IBM 704

Trotzdem schaffte es Mathews, das Programm „Music 1“ zu schreiben.

„Es war monophon, kannte nur die Sägezahnschwingung und alles, was man kontrollieren konnte, waren Lautstärke, Frequenz und Tonhöhe. Heraus kam damit als erste Komposition digitaler Musik überhaupt das 20 Sekunden lange Stück “In the Silver Scale”, das mit alternativen Stimmungen experimentierte.“

Auf „Music 1“ folgte „Music 2“, das bereits 4-Stimmig war. Es hatte ähnlich wie die Grundlage nahezu aller Synthesizer Kleine Makros, die verschiedene Funktionen beinhalteten (ähnlich wie Module analoger Modularsynthesizer), konnten beliebig miteinander verbunden werden. 1961 wurde dann auch an der Sprachsynthese gearbeitet und das von einem Computer “gesungene” Stück “Daisy Bell” wurde durch den Film “2001 – Odyssee im Weltraum” bekannt.

Mathews entwickelte noch weitere Versionen des Programms, doch einen „Nachteil“ hatten sie alle: sie konnten nicht live gespielt werden. Persönloichkeiten wie zum Bispiel Robert Moog änderten das nach und nach. Aber dazu mehr im nächsten Blog Post!

Blog Post 2 – Interface NIME.org

Nachdem sich mein Project Work sehr stark mit Synthesizern, deren Entwicklung und Klang beschäftigt, dachte ich mir, dass das Projekt welches ich mir unter den scheinbar hunderten aussuche, auch etwas mit diesem Bereich der Musik und Interfaces zutun haben sollte.

Deshalb habe ich mir die Einreichung  „AuSynthAR: A simple low-cost modular synthesizer based on Augmented Reality“ von Pedro Lucas durchgelesen und werde versuchen auf die Dinge einzugehen, die mir gut gefallen, aber auch auf die Punkte die mich unter Umständen etwas stören.

Die Idee, zusammengefasst und auf das Wesentliche reduziert:

“AuSynthAR is a digital instrument based on Augmented Re-ality (AR), which allows sound synthesis modules to create simple sound networks. It only requires a mobile device, a set of tokens, a sound output device and, optionally, a MIDI controller, which makes it an affordable instrument. An application running on the device generates the sounds and the graphical augmentations over the tokens.

Some AR applications require expensive equipment however, the computational power of mobile devices al-low us to implement affordable AR tools.

This work describes AuSynthAR as a low-cost synthesizer based on AR for mobile devices, complemented with a tangible user interface (TUI) which consists of tokens and a plastic holder. Optionally, MIDI controllers can be added to the configuration.”

Was wird gebraucht?

“A mobile device, where the audio synthesis engine and the augmented reality application are executed; a set of tokens, which are the fiducial markers that denotes sound modules; a plastic holder for the device, which allows the performer to interact with both hands; and, a MIDI controller, which enables the user to play musical notes and increase the possibilities for controlling the virtual modules. Speakers or any other sound output device can extend the physical setup.”

Wie funktioniert es?

“The performer interacts with the tokens and the input devices, which generate data that is pro-cessed by the mobile device. The screen acts as a visualizer since the actions are performed with the fiducial markers. The built-in camera allows the device to gather the input from the markers…”

Zusammenfassung

This work presents AuSynthAR, a novel musical interface that uses augmented reality (AR) technology for modular sound synthesis with high accessibility. It’s for novice music performers and learners regarding sound syn-thesis. The main contribution of this work is the construction of an affordable tool that can be installed and used easily by audio artists and people in general, to experience the block construction of sound and music. Other assessments will also be taken into account, such as learning capabilities on academic courses related with sound synthesis.

Was ich mag:

  • Die Überlegung, dass man mehr oder weniger einen „analog“ ansteuerbaren Synthesizer hat, ohne tausende von Euros dafür ausgeben zu müssen.
  • Mit etwas Digitalem etwas Analoges zu schaffen
  • Der Modulare Gedanken, der sich einerseits in den Tokens widerspiegelt, andererseits mit dem erweiterbaren Midi Controller Keyboard Set Up.
  • Die Bildungs-Komponente, dass das Programm + Interface auch als educational „Game“ genutzt werden kann.

Was ich erweitern würde:

  • Auch wenn der graphische Stil nicht vorgängig wichtig ist, denke ich, dass es doch essenziell ist, schön aussehende Programme zu gestalten. Man arbeitet mit ihnen einfach lieber, beziehungsweise darf das Design einer Anwendung niemals im Weg stehen.
  • Eventuell könnte man erweiterbare Module anbieten, welche man sich selbst ausdrucken kann und somit den Synthesizer immer nach seinen eigenen Bedürfnissen erweitern / umbauen kann.

Blog Post 1 – Vorhaben / Telharmonium

Meine Ursprüngliche Idee war es, einen Pad Synthesizer zu programmieren, der auf verschiedensten eingespielten Samples „echter“ Instrumente beruht, und diese Samples der Klangfarbe entsprechend morpht.

Nach den ersten paaren Einheiten mit Alois Sontacchi wurde mir jedoch schnell klar, dass ich diese Idee zwar nicht vergessen will, sie mir aber zu umfangreich erschien, um sie allein und in bestmöglicher Qualität in die Realität umzusetzen zu können.

Nichtsdestotrotz wollte ich beim Thema Synthesizer (aller Art) bleiben. Da digitale Klangerzeuger immer häufiger in Bewegtbild eingesetzt werden und auch die Varietät an Klängen, die damit erzeugt werden können, nahezu unbegrenzt ist, beschäftigt mich das Thema schon lange.

Es gibt unzählige Programme in digitaler Form, die jegliche Synthesizer emulieren und sehr nahe an deren Originalklang herankommen. Diese Programme sind für jeden der gerne Musik macht leistbar oder sogar gratis, was zur Folge hat, dass die Anwendungsgebiete immer größer werden und auch der die Art und Weise, wie mit ihnen umgegangen wird, sich ständig verändert.

Die Idee meines Project Works ist es also, die Entwicklung von Synthetischen Klangerzeugern in Kombination mit klassischen Instrumenten im Bereich Werbung und Film mit Hauptaugenmerk auf die ästhetische und gestalterische Komponente zu analysieren und zu interpretieren. Das Resultat im 3. Semester ist eine Komposition beider Elemente zu einem Kurz-oder Werbefilm.

Angefangen bei den ersten Synthesizern, der Geburtsstunde der FM Synthese und den Einsatzmöglichkeiten zur damaligen Zeit, bis heute, wo Synthesizer ein klein wenig leistbarer wurden, sie aber auch in digitaler Form für alle Musiker auf der Welt in Form von Softwear-Nachbauten verfügbar sind.

Die Reihe an Blogeinträgen möchte ich daher mit den ersten wichtigen Errungenschaften im Gebiet der Synthesizer beginnen.

Hierzu ein paar Meilensteine, auf die ich in den weiteren Blogeinträgen genauer eingehen werde. Den ersten davon werde ich in diesem Blog-Eintrag genauer beschreiben:

  1. Das Telharmonium. Thaddeus Cahill (1893)
  2. Max Matthews IBM-704 „Komposition“, die 17 Sekunden lang eigenständig eine Melodie spielte. (1957)
  3. Robert Moog erster Synthesizer (1964)
  4. John Chownings Entdeckung der FM Synthese (SubtraktivFM Additiv) (1967)
  5. Dave Smith Prophet 5 (1977)
  6. uvm.

Das Telharmonium (1893)

Bereits im 19. Jahrhundert dachte sich Thaddeus Cahill, dass ähnlich wie der Luftstrom – der durch eine Orgelpfeife strömend einen Ton ergibt – auch elektrischer Strom eine Membran schwingen lassen können sollte. 

Sein Traum war es, ein Instrument zu bauen, welches sich wie ein ganzes Orchester anhören würde. Durch Überlagerung verschiedenster Töne könne man jeden denkbaren Sound erschaffen. Cahill nannte dieses Verfahren „Synthesizing“ und reichte ein Patent für eine „Maschine für elektrische Musik“ ein und nannte dieses „Telharmonium“.

Seine Erfindung war mit 672 Tasten, 336 Schiebereglern und sage und schreibe 200 Tonnen Gewicht tatsächlich kein Gerät mehr, sondern eine Maschine. 

Part of the Switchboard and Tone-mixers of the Cahill Telharmonium – Werbebroschüre Telharmony 1906

Passanten, die bis dato noch nie etwas von solch einer Erfindung gehört haben, waren sichtlich verwirrt als sie aus den Abwasserkanälen die Klänge des Telharmoiums wahrnehmen konnten. Vermutungen, dass dort unten eine Band probte, die zu scheu für echtes Publikum wäre, wurden angestellt. Tatsächlich saßen dort unten keine Musiker. Stattessen fand 14 Blocks weiter ein Konzert des Telharmoniums, in einen eigens dafür eingerichteten Konzertsaal, statt. 

An audience at Telharmonic hall enjoying a concert of Telharmonic music played through carbon-arc lamps. Gunter’s Magazine 1907

Wegen seiner vielen Knöpfe und Reglern, war die Maschine meistens zu zweit zu bedienen. Ihre Kabel verliefen durch den Boden in den Keller, wo das Telhramonium, das so viel Platz wie ein Maschinenraum eines Schiffes einnahm, sand.

Die neuen Klänge des Telharmoniums konnte man jedoch nicht nur „vor Ort“ bewundern. Tatsächlich gibt es zur damaligen Zeit keine musikalische Erfindung, deren Vertrieb näher an das heutige Streamen herankommt. Per Telefon vermittlung konnte man den Klängen daheim lauschen. Eine Stunde kostete 25 Cent. Sogar verschiedene Kanäle gab es: Klassik, geistliche Musik, Oper, Populärmusik. Ein fünfter mit “Schlafmusik” war geplant.

Leider gibt es heute keine nachweisbare Tonaufnahme des Telharmoniums mehr.

Statt der üblichen Piano-Klaviatur mit zwölf Tasten pro Oktave hatte Cahill zwei Keyboards mit 36 Tasten pro Oktave eingebaut, abwechselnd schwarz und weiß. 153 Tasten erzeugten gar keine Töne – sie waren vorsorglich eingebaut für die künftige Erweiterung . Zudem verstimmte das Telharmonium sich ständig und wurde immer leiser, je mehr Töne man anschlug.

Eine Herausforderung für die Musiker. Allerdings hatten sie durch vier tägliche Vorstellungen kaum noch Zeit zum Üben. Die Qualität der Konzerte sank – und damit die Besucherzahlen.