Inspired by the Scanner Vibrato & Reverb effect by Analog Outfitters, I decided to build one for myself. As the components in the Vibrato Scanner unit are rare to come by, I only managed to purchase the delay line taken out of a Hammond H-100 organ. To substitute the scanner, I began experimenting with various IC analog switches controlled by an Arduino Uno microcontroller.
The switches are set up to do the same job as the scanner and rapidly sample back and forth along the line. As it turns out, even if the switches are programmed to crossfade between each step, they can only turn on and off which causes clicking every time the signal is cut.
To solve this issue, I consider replacing the IC switches with devices that can perform cross-fading. Possible solutions are the so-called digitally controlled variable resistors, which are essentially IC potentiometers capable of fading the signal in and out only in a couple of nanoseconds. By implementing these in my prototype, I could eradicate the clicking and deliver a smooth shift similar to the one produced by the scanner.
For now, I leave you with a short video demonstrating the current state of my prototype.
Analog Outfitters’s Scanner is a stand-alone vibrato and reverb effect, built around a refurbished Hammond vibrato scanner and spring reverb tank and serves as the main reference for my project work. As an upgrade to the original design that had a fixed rate, Analog Outfitters has added a brushless DC motor that allows for the variation of speed either via a knob on the front panel or by attaching an expression pedal.
The interface includes controls for vibrato gain, reverb mix, line out level, vibrato speed, and vibrato level, while the reverb and vibrato effects can be turned on and off individually via an included footswitch. In contrast to Hammond’s original design, Analog Outfitters’s unit doesn’t integrate settings for chorus, but thanks to the variable speed of its motor, it can achieve anything from low-speed gentle modulations to high-speed psychedelic vibrato effects.
If interested, check out this video to experience the unique analog sound of this device.
Anknüpfend an die erste Simulation werde ich eine zweite, ausgefeiltere Erstellen. Mithilfe des Programmes SoundParticles werden wieder 50 3D-Objekte im vorgefertigten Raumverteilt und durch sorgfältiges einstellen der Parameter eine Schwarmdynamik erzeugt. Das Produkt daraus wird nun in 4th-order Ambisonic gerendert und ausgegeben. Das so entstandene File importiere ich in Reaper um mit der IEM – Plugin Suite (Scene Rotator, Binaural Decoder) eine authentische Kopfbewegung zu realisieren. Das dadurch entstandene Produkt soll als Anhaltspunkt für die folgende, interaktive Installation gelten.
Es die Sounds können beliebig gewählt werden von natürlich bis abstrakt. Für diese Aufnahme habe ich in “Serum” wieder 7 leicht unterschiedliche Soundfiles erstellt, die zusammen den Flug von mehreren Maschinen mit Rotoren oder großen Insekten nachahmen sollten.
Des Weiteren wurde, zur besseren Veranschaulichung, eine binaurale (also bitte mit Kopfhörern wiedergeben) Bildschirmaufnahme des Programmfensters erstellt.
Since I rely a lot on self-recorded samples, I wanted to use this opportunity to re-sample my cajon (a Schlagwerk CP-4011). Cajons seem to be rarely used in a sampled manner, since they mostly give the benefit of transportability compared to a drum set. However, I really like the intimate sound, which makes it a great add-on in projects that require a special non-commercial percussive touch. The outcome should be an extensive sample library that I can make into a digital instrument, which creates an intimate and acoustic vibe that makes musical pieces sound more like recordings than just samples in a sequencer.
It was difficult to find a reference track that captures what I wanted my samples to sound like, since different cajons, like most other musical instruments can sound extremely differently. Additionally, compared to other instruments, there is only a small amount of material available on the internet. However, in the following video, I like the vibe and how full the cajon’s bass sounds while still providing a very crisp upper end of the spectrum.
Durch die Verwendung von Kopfhörern eignet sich ein binauralen Ausgabeformats. Mithilfe der beiden Programme Fmod und Resonance Audio lässt sich in Unity vergleichbar einfach eine binaurale Ausgabe ermöglichen. Dazu werden zwei Plugins benötigt:
-Resonance Audio Source
Spatsialisiert Mono-Quellen rund um die HörerInnen
Fügt Effekte wie die Dämpfung sich entfernender Schalquellen oder Richtcharakteristiken hinzu
-Resonance Audio Listener
Ermöglicht binaurale Spatsialisierung von Quellen, die mit dem RASource erstellt wurden und verarbeitet die Simulation von Raumeffekten
(Zwischen diesen beiden Plugins können noch weitere Effekte zwischengeschaltet werden.)
RASource encodiert simultan hunderte Mono-Quellen in bis zu third order Ambisonics und spatsialisiert anschließend die Summe, anstatt “kostenaufwändig” jede einzelne Quelle binaural zu rechnen, mit dem RAListener. So kann auch auf mobilen Geräten (–>Tablet) eine hochauflösende Wiedergabe ermöglicht werden Um eine realistische Interaktion von Schallwellen mit unseren Ohren und Objekten zu simulieren, verwendet Resonance Audio HRTFs. Die natürliche Bewegung des Kopfes, die uns hilft relative Änderungen der Audioposition wahrzunehmen, kann getrackt werden. Ein weiteres Plugin mit dem Namen Resonance Audio Soundfield reagiert auf die Daten der getrackten Kopfbewegungen und behält die relative Position der Schallquelle im Klangraum bei, indem die Ambisonics-Szene genau in die gegengesetzte Richtung der Kopfbewegung der BesucherInnen gedreht wird.
Reflexionen und Hall:
Resonance Audio verfügt über eine eingebaute Reverb-Engine, die den Klang verschiedenster Räume und deren Oberflächenreflexionen genau nachbilden kann.
Wenn die Größe des Raums oder die Oberflächenmaterialien der Wände geändert werden, reagiert die Reverb-Engine in Echtzeit und passt die Schallwellen an die neuen Bedingungen an. Dies geschieht über ein Feedback Delay Network (FDN). Ein FDN-Reverb bringt im Gegensatz zu einem Faltungshall (mit langen Impulsantworten und higher-order Ambisonics) wieder den klaren Vorteil der Rechenleistungsersparnis.
Verdeckung und Richtung:
Um die Immersion zu erhöhen, kann Resonance Audio auch simulieren, wie Schallwellen, die sich zwischen Quelle und Hörer ausbreiten, durch dazwischenliegende Objekte blockiert werden. Diese Verdeckungseffekte werden simuliert, indem hohe und tiefe Frequenzkomponenten getrennt verarbeitet werden. Hohe Frequenzen werden stärker verdeckt als tiefe Frequenzen, wodurch die realen Gegebenheiten nachgeahmt werden.
Die Software kann ebenso die Richtcharakteristik einer Quelle ändern und die natürliche, ungleichmäßige Schallabstrahlung realer Quellen nachahmen. Dies kann beispielsweise bei stationäre virtuellen Quellen in der Game-Engine hilfreich sein. Es können hier zwei Parameter für die Richtwirkung, konfiguriert werden:
Alpha: Stellt die Form der Patterns dar. Es kann zwischen Kardiod-, Kreis- oder Achterformen gewählt werden.
Ein Sampler war als Preset im der PD-Library vorhanden und war mit ein paar wenigen Änderungen an meine Wünsche angepasst. Die Sampler-Recherche inspirierte mich weniger als sie mich abschreckte davor, wie viele verschiedene Ausführungen und Arten von Samplern seit den 80ern gebaut wurden. Da würde es schwierig werden etwas außergewöhnliches erschaffen zu können, und Workflow-technisch ist man mit einer MPC wahrscheinlich nach wie vor bestens aufgestellt beim Bauen von Beats.
Eine weitere Durststrecke tat sich auf, während der mir Fiebertraum-artig immer wieder nur die Foley App vor dem inneren Auge erschien. Meiner Crew dürstete es bereits nach einem Ziel und es wurde langsam unruhig an Bord, da das Erreichen des Nächsten Semester-Hafens nicht allzu weit in der Zukunft lag.
Es nutzte nichts. Die nächste Idee befand sich nun auf der Planke und ich machte mich so schnell es geht ans Ruder, um es rumzureißen und zurück Richtung Foley-App zu steuern. Dies musste ich nur noch meinem treuen Betreuer erklären, der mir während der Änderung meiner Pläne immer wieder bei stand und mir Feedback zu meinen Entscheidung gab und sehr guten Input brachte.
Betrübt über den Verlust meiner Lieblings-Idee, der Foley App, steuerte ich in Richtung Sound-Installation und begann drüber nachzudenken welches Thema ich in diesem Projekt behandeln könnte.
Ich dachte drüber nach, ein altes Kunstwerk aufzugreifen und zu verändern, bzw. mich davon inspirieren zu lassen. Während dieser Woche beschäftigten wir uns auch mit Pure Data worin ich als Hip-Hop Musikproduzent sofort einen eigenen Sampler zu basteln anfing. Die NIME-Recherche inspirierte mich ebenfalls dazu.
Als ich mitbekam, dass meine unterbewusste Crew, die sehr viel Wert darauflegt, dass Projekte praktische Verwendung finden, die sie mit mir gemeinsam als Captain umsetzen, ohne mein Kommando die Installations-Idee bereits über Board geworfen hatten, blieb mir nichts über als mich dazu zu entscheiden, dass meine neue Projektarbeit ein Sampler sein wird der bestenfalls irgendetwas kann was die andren nicht können.
So there is a multitude of values to be extracted to pick up a musician’s expression in performance. If the music is written down, some of it is readable by the sheet music. Some of it however is an individual expression of the musician. which is far more abstract in character and much more difficult to pick up because it is not possible to predefine it or calculate it. So we have to quantize expression somehow directly from the performance. Clemens Wöllner suggests in his opinion article to quantify artistic expression with averaging procedures.
A big point of the expression is to raise the attractiveness of the musical piece one is playing to a point to make it one’s own in the sense of the performance. Individuality is highly valued in the expression of a performer. Cognitive psychology studies teach us that average modalities in visual and auditory modalities are viewed as more attractive. Averaging procedures typically produce very smooth displays in pictures and sound. Listeners of performance typically expect more from a concert or a recording than an even performance. As said individuality is highly appreciated in music.
In classical genres, expression is often added by subtle timing perturbations and fluctuations in dynamic intensity, as unexpected delays or changes in intensity that are different from the typical expectations of the listener can cause surprise and other emotional reactions and thus help the individual performer’s musical expression. In earlier decades of the 20th century, for instance, musicians typically employed large rubati which are deviations in note length, most of the melody voice. It is not as common anymore, the changes of note length are far smaller today. Research along these lines has for a long time studied expressive timing deviations from a non-expressive metronomic version. These timing deviations constitute an individual expressive microstructure. As performers are not able to render a perfect mechanical, metronomically exact performance. To quantify those timing variations using a so-called deadpan rendition as average, can not be a valid indicator of individuality.
So musical performances can be averaged according to the main quantifiable dimensions of duration, dynamic intensity, and pitch. As for the average performance, it was suggested in seminal studies 1997 by Repp that the attractiveness is raised by not deviating from the average, expected performance, but it is also considered a dull performance if there is no individuality in it by straying from the average.
Averaged deviations from the notated pitch in equidistant temperament could be analyzed. The sharpening or flattening of tones may reveal certain expressive intentions of individual performers. Also, musicians are able to shape the timbre of certain instruments to some extent which adds to their expression.
What hardware microcontrollers and DSP chips are readily available to power the Interface module? That is a central question to start working on ways to implement MIR algorithms into a module. The second question is what code language is compatible with the chips and how can one implement it.
Those questions are examined in a paper by the International Conference on New Interface for Musical Expression (short NIME) named: „A streamlined work ow from Max/gen~ to modular hardware“ by Graham Wakefield, 2021 which focuses on the oopsy workflow which streamlines digital sound processing algorithms to work with the modular synthesizer environment.
As microcontrollers such as Arduino and Teensy get more powerful by the day they are more and more useful for musicians and luthiers to use in music and musical instruments. The play to make electronic music live and without a laptop that would run a DAW is a strong motivation for musicians to get into coding and learn to develop equipment which is providing often the few tools a DAW is offering them for live performances.
For DSP chips to read code programmed in a visual language like Pure Data or Max MSP the patch most of the time has to be compiled into C++. Within Max, there is for instance the [gen~] object which is capable of doing so. To implement the mach well into the hardware ‚oopsy‘ was developed which streamlined the workflow, to get an algorithm onto hardware, with a targeted firmware generation that is optimized for CPU usage and low memory footprint and program size, with minimal input required.
Electrosmith Daisy:
Processor: ARM Cortex-M7 STM32H750 MCU processor with 64MB of SDRAM and 8MB of
flash memory, IO: Stern, 31 configurable GPIO pins, 12x 16-bit ADCs, 2×12 bit DACs, SD Card interface, PWM outputs, micro USB port (power and data), Dasy Seed: 51×18 mm
It is a common microcontroller in Modular Synth gear today. The MCU processor is with its maximal 480MHz quite capable and the AK4556 Codec has AC-coupled converters that internally run with 32-bit floating-point. Daisy firmware can be developed using Arduino, FAUST, PureData via Heavy, as well as Max/gen~ using the Oopsy software. internal latency down to 10 microseconds.
Bela Beaglebone:
Bela is an open-source platform based on the beaglebone single-board computer design for live audio. It is compatible with Supercollider, PureData, and C++. It is optimized for ultra-low latency, with 0,5 ms it is better for desktop, cellphone, Arduino, and Raspberry Pi solutions.
Owl Programable platform
8kHz to 96kHz sampling rate, 24 bit stereo codec, 3500 operations per sample @ 48kHz, Powerful STM32F4 microcontroller: 168MHz 32bit ARM Cortex M4, 192Kb RAM, 1Mb Flash memory, Integrated DSP, FPU, DMA, 1Mb 10nS SRAM, USB MIDI
IO Eurorack module: 2 audio inputs, 2 audio outputs, 5 CV inputs, 1 gate/trigger in, 1 gate/trigger out, 1 USB Type B connector
References
Graham Wakefield. 2021. A streamlined workflow from Max/gen~ to modular hardware. Proceedings of the International Conference on New Interfaces for Musical Expression. http://doi.org/10.21428/92fbeb44.e32fde90.
During my research about reference works that I discussed in my last post (Reference Works 1) already, I also specifically looked for published articles in scientific journals. While I did not stumble over an installation that I would deem very closely related to mine, I found various aspects that bear great similarities to what I imagine The Emotional Space to be built upon. In the following text, I will touch upon four projects that were published in scientific journals that I chose as reference works for my installation.
Most often, [interactive art installations] are works that explore social, political, and experiential boundaries of digital interfaces. They manage to break tradition, ask new questions, and explore new venues.