VR – Project, Workstation

Unity

https://unity.com

Als funktionelle Basis für das Projekt wurde die Gameenigne Unity gewählt, da diese für wissenschaftliche Zwecke frei zur Verfügung steht und eine professionelle Arbeitsumgebung bietet. Zudem ermöglicht Unity durch die große Verfügbarkeit freier Assets (Erweiterungspakete die nach Projekt individuell hinzugefügt werden können) die Möglichkeit, mit vergleichsweise geringerem Aufwand auch visuell ästhetische Welten zu erschaffen. Außerdem ermöglicht es die Vergleichsweise einfache Einbindung von XR.

Fmod

https://fmod.com

Fmod ist eine Audiomiddleware die Programm- und Formatübergreifend Musikdateien laden und abspielen kann. Fmod wurde gewählt, da es ebenfalls für wissenschaftliche Zwecke frei zur Verfügung steht und DAW ähnliche, tiefere Bearbeitungsmöglichkeiten bietet als Unity.

Google Resonance Audio

https://resonance-audio.github.io/resonance-audio/

Resonance Audio ist ein plattformübergreifendes SDK für Spatial-Audio und findet in XR, Games und Videos Einsatz. Resonance Audio encodiert Soundquellen in einen Ambisonicstream (bis zu dritter Ordnung) und decodiert diesen am Ende in eine binaurale Ausgabe.

Simulation 2

Anknüpfend an die erste Simulation werde ich eine zweite, ausgefeiltere Erstellen. Mithilfe des Programmes SoundParticles werden wieder 50 3D-Objekte im vorgefertigten Raumverteilt und durch sorgfältiges einstellen der Parameter eine Schwarmdynamik erzeugt. Das Produkt daraus wird nun in 4th-order Ambisonic gerendert und ausgegeben. Das so entstandene File importiere ich in Reaper um mit der IEM – Plugin Suite (Scene Rotator, Binaural Decoder) eine authentische Kopfbewegung zu realisieren. Das dadurch entstandene Produkt soll als Anhaltspunkt für die folgende, interaktive Installation gelten.

Es die Sounds können beliebig gewählt werden von natürlich bis abstrakt. Für diese Aufnahme habe ich in “Serum” wieder 7 leicht unterschiedliche Soundfiles erstellt, die zusammen den Flug von mehreren Maschinen mit Rotoren oder großen Insekten nachahmen sollten.

Des Weiteren wurde, zur besseren Veranschaulichung, eine binaurale (also bitte mit Kopfhörern wiedergeben) Bildschirmaufnahme des Programmfensters erstellt.

Spatial Audio in Unity 2

Durch die Verwendung von Kopfhörern eignet sich ein binauralen Ausgabeformats. Mithilfe der beiden Programme Fmod und Resonance Audio lässt sich in Unity vergleichbar einfach eine binaurale Ausgabe ermöglichen. Dazu werden zwei Plugins benötigt: 

-Resonance Audio Source 

  • Spatsialisiert Mono-Quellen rund um die HörerInnen 
  • Fügt Effekte wie die Dämpfung sich entfernender Schalquellen oder Richtcharakteristiken hinzu 

-Resonance Audio Listener  

  • Ermöglicht binaurale Spatsialisierung von Quellen, die mit dem RASource erstellt wurden und verarbeitet die Simulation von Raumeffekten 

(Zwischen diesen beiden Plugins können noch weitere Effekte zwischengeschaltet werden.) 

RASource encodiert simultan hunderte Mono-Quellen in bis zu third order Ambisonics und spatsialisiert anschließend die Summe, anstatt “kostenaufwändig” jede einzelne Quelle binaural zu rechnen, mit dem RAListener. So kann auch auf mobilen Geräten (–>Tablet) eine hochauflösende Wiedergabe ermöglicht werden  
Um eine realistische Interaktion von Schallwellen mit unseren Ohren und Objekten zu simulieren, verwendet Resonance Audio HRTFs. Die natürliche Bewegung des Kopfes, die uns hilft relative Änderungen der Audioposition wahrzunehmen, kann getrackt werden. Ein weiteres Plugin mit dem Namen Resonance Audio Soundfield reagiert auf die Daten der getrackten Kopfbewegungen und behält die relative Position der Schallquelle im Klangraum bei, indem die Ambisonics-Szene genau in die gegengesetzte Richtung der Kopfbewegung der BesucherInnen gedreht wird. 

Reflexionen und Hall:  

Resonance Audio verfügt über eine eingebaute Reverb-Engine, die den Klang verschiedenster Räume und deren Oberflächenreflexionen genau nachbilden kann.  

Wenn die Größe des Raums oder die Oberflächenmaterialien der Wände geändert werden, reagiert die Reverb-Engine in Echtzeit und passt die Schallwellen an die neuen Bedingungen an. Dies geschieht über ein Feedback Delay Network (FDN). Ein FDN-Reverb bringt im Gegensatz zu einem Faltungshall (mit langen Impulsantworten und higher-order Ambisonics) wieder den klaren Vorteil der Rechenleistungsersparnis.

Verdeckung und Richtung: 

Um die Immersion zu erhöhen, kann Resonance Audio auch simulieren, wie Schallwellen, die sich zwischen Quelle und Hörer ausbreiten, durch dazwischenliegende Objekte blockiert werden. Diese Verdeckungseffekte werden simuliert, indem hohe und tiefe Frequenzkomponenten getrennt verarbeitet werden. Hohe Frequenzen werden stärker verdeckt als tiefe Frequenzen, wodurch die realen Gegebenheiten nachgeahmt werden.  

Die Software kann ebenso die Richtcharakteristik einer Quelle ändern und die natürliche, ungleichmäßige Schallabstrahlung realer Quellen nachahmen. Dies kann beispielsweise bei stationäre virtuellen Quellen in der Game-Engine hilfreich sein. Es können hier zwei Parameter für die Richtwirkung, konfiguriert werden:  

Alpha: Stellt die Form der Patterns dar. Es kann zwischen Kardiod-, Kreis- oder Achterformen gewählt werden.  

Schärfe: Stellt die Breite des Patterns dar.

Resonance Audio’s sound directivity customization
Resonance Audio’s Geometric Reverb Baking in Unity

https://www.fmod.com/  

https://resonance-audio.github.io/resonance-audio/ 

Spatial Audio in Unity (Einführung)

Spatial Audio, wird vor allem auch in der Unterhaltungsindustrie immer wichtiger und ist mittlerweile auch kaum mehr wegzudenken. Vorallem in Games, welche zunehmend mit Kopfhörern gespielt werden, hat sich “3D-Audio” etabliert.

Unity kann ohne externe Hilfsmittel (z.B. Middleware wie Fmod, Wwise oder die folgenden VR Kits) kein Spatial Audio wiedergeben (Stand 2018). Dafür gibt es jedoch viele Lösungen von verschiedenen Herstellern, welche sich je nach Einsatzgebiet besser oder schlechter eignen. Als fundamentales Entscheidungskriterium sollte zu Beginn entschieden werden ob man Channel- oder Objektbasiert spatialisieren möchte.

Channel:

In kanalbasierten (Audio-)Formaten wird je Channel fix ein Lautsprecher zugeordnet. Mit Phantomschallquellen können virtuelle Lautsprecher durch Summenlokalisation erzeugt werden (zb.: Phantommitte bei der Stereoaufstellung), diese müssen sich jedoch immer auf der Ebene der vorhandenen Lautsprecher befinden. Kanalbasierte Formate werden hauptsächlich zur linearen Speicherung und Wiedergabe genutzt.3

Object:

„In der Objektorientierung entsteht ein komplexes System aus mit- und zueinander kooperierender
Objekte. Eigenschaften und Funktionen von Objekten werden dabei zusammengefasst, um diese
einfacher auf reale Beispiele übertragen.“4

Für die objektorientierte Audioumgebung werden vielfältige Eigenschaften
gebraucht, um die Abhängigkeiten, aber auch Unabhängigkeiten der Objekte im komplexen System zu
definieren. Zunächst wird in der Produktion unabhängig vom Endmedium produziert (z.B.
Positionierung einer Schallquelle im Raum), da moderne Wiedergabemedien nicht immer kanaldefiniert
sind. Auf der Wiedergabeseite wandelt ein Dekoder dann die Audioszene auf das jeweilige Medium um
(Lautsprecheranlage, Handy, Kopfhörer, usw.) Dadurch wird auch die Wiedergabe in einem virtuellen
Raum unabhängig zum realen Raum möglich (z.B.
HRTF)5

Für dieses Projekt werde ich mich natürlich für ein Objektbasiertes Format entscheiden.

Nach weiterer Recherche hat sich herausgestellt, dass für dieses Project die Kombination der Unity-Engine mit der Fmod Middleware aufgrund bester Performance und freier Verfügbarkeit für nicht kommerzielle Projekte die optimale Lösung ist. Fmod kommt im Paket mit dem sogenannten “Resonance Audio Spatializer”, welcher eine einfache Ausgabe in ein binaurales Audioformat ermöglicht. Aufgrund der Tatsache, dass Kopfhörer verwendet werden, ist das natürlich ein klarer Gewinn.

Anschließend noch die Produktbeschreibungen der Herstellerseite von den Programmen:

Fmod Object Mixer

To get more discrete spatialization of an audio signal you can use the FMOD object spatializer, so named because the audio signal is packaged with the spatialization information (position, orientation, etc) and sent to an object mixer. Often used to highlight important sounds with strong localization to add interest to a scene, usually used in-conjunction with the channel based approach, be that 7.1.4 or even simply 5.1 / 7.1.

There is no limit to how many FMOD_DSP_TYPE_OBJECTPAN DSPs you create, however there is a flexible limit on a per-platform basis for how many can be processed. When there are more object spatializers in use than there is available resources FMOD will virtualize the least significant sounds by processing with a tradition channel based mix.

An important consideration when using object spatializers is signal flow, unlike most DSPs, after the signal enters the DSP it is then sent out to the object mixer. The object mixer could be a software library or a physical piece of hardware, in all cases though you no longer have access to that signal. Any processing you would like to perform must be done before that point. However (to assist mixing) the object spatializer will automatically apply any “downstream” ChannelGroup volume settings so it behaves similarly to the standard FMOD spatializer.

Resonance Audio Spatializer

Once such third party is the Resonance Audio cross-platform suite of plugins that comes bundled with FMOD. Resonance Audio offers a “Source” plugin which behaves much like the FMOD object spatializer in that audio is sent out to an object mixer, however the final signal returns as binaural output at the “Listener” plugin. Resonance Audio also offers a “Soundfield” plugin for playing back first order Ambisonic sound fields. For more details about the usage of Resonance Audio please check out the user guide.

https://resonance-audio.github.io/resonance-audio/develop/fmod/getting-started

Connecting Fmod to Unity

https://fmod.com/resources/documentation-unity?version=2.01&page=user-guide.html

1 Daniel Korgler – Virtual Reality-Spiele entwickeln mit Unity®: Grundlagen, Beispielprojekte …, 2018 https://books.google.at/books?id=ondGDwAAQBAJ&pg=PT211&lpg=PT211&dq=spatial+audio+m%C3%B6glichkeiten+in+unity&source=bl&ots=9EJBO0tgbu&sig=ACfU3U1ZLOiLCgG6qsF-LOyU040ee1-CUg&hl=de&sa=X&ved=2ahUKEwj7icKror70AhVQhP0HHQIkClkQ6AF6BAgXEAM#v=onepage&q=spatial%20audio%20m%C3%B6glichkeiten%20in%20unity&f=false

2 https://documentation.help/FMOD-Studio-API/spatialaudio.html

3 Weinzierl, S. (2008). Handbuch der Audiotechnik.

4 Stahl, S. (2013). Objektorientierte Audioumgebung für Surround-Sound (Master’s thesis,
Hochschule der Medien, Stuttgart, Deutschland).
https://filestore.hdm-stuttgart.de/s/WXtrh5ADxD2IGfl

5 Max Utke 2017, https://curdt.home.hdm-stuttgart.de/PDF/Objekt-_u_kanalbasierte_Audioformate.pdf

Flocking Algorithmen

… Using computers, these patterns can be simulated by creating simple rules and combining them. This is known as emergent behavior, and can be used in games to simulate chaotic or life-like group movement. …

https://gamedevelopment.tutsplus.com/tutorials/3-simple-rules-of-flocking-behaviors-alignment-cohesion-and-separation–gamedev-3444

Im Jahr 1968 wagte Craig Reynolds einen revolutionären Schritt in der KI-Animation. Er erstellte viele individuelle Objekte, welche mit den jeweils anderen in Interaktion traten. Diese Objekte nannte er “Boids”. Ziel des Projektes war es, das Verhalten eines Vogelschwarms zu simulieren.

In der einfachsten Form folgten diese Boids 3 Grundregeln.

  1. Separation: wähle eine Richtung, die einer Häufung von Boids entgegenwirkt
  2. Angleichung: wähle eine Richtung, die der mittleren Richtung der benachbarten Boids entspricht
  3. Zusammenhalt: wähle eine Richtung, die der mittleren Position der benachbarten Boids entspricht

neighborhood diagram

Jeder Boid hat direkten Zugriff auf die gesamte geometrische Information der Szene, aber der Flocking Algorithmus erfordert, dass er nur auf Boids innerhalb einer bestimmten kleinen Umgebung (Neighbourhood) um sich selbst reagiert. Die Nachbarschaft ist durch eine Entfernung (gemessen vom Zentrum des Boids) und einen Winkel, gemessen von der Flugrichtung des Boids, gekennzeichnet. Boids außerhalb dieser lokalen Nachbarschaft werden ignoriert. Die Nachbarschaft könnte als ein Modell der eingeschränkten Wahrnehmung (wie bei Fischen in trübem Wasser) betrachtet werden, aber es ist wahrscheinlich richtiger, sie als die Region zu betrachten, in der die Artgenossen die Steuerung eines Boids beeinflussen.

In Zusammenarbeit mit einigen Mitarbeitern der Symbolics Graphics Division und Whitney / Demos Productions haben wir einen animierten Kurzfilm mit dem Boids-Modell namens Stanley und Stella in: “Breaking the Ice”. Dieser Film wurde erstmals im Electronic Theater auf der SIGGRAPH ’87 gezeigt. Auf der gleichen Konferenz wurde auch ein technischer Aufsatz über Boids veröffentlicht. In den Kursnotizen für die SIGGRAPH ’88 gab es einen informellen Beitrag über Hindernisvermeidung.

Seit 1987 gab es viele weitere Anwendungen des Boids-Modells im Bereich der Verhaltensanimation. Der erste war der Tim-Burton-Film Batman Returns von 1992. Er enthielt computersimulierte Fledermaus- und Pinguinschwärme, die mit modifizierten Versionen der ursprünglichen, bei Symbolics entwickelten boids-Software erstellt wurden. Andy Kopra (damals bei VIFX, das später mit Rhythm & Hues fusionierte) produzierte realistische Bilder von Fledermausschwärmen. Andrea Losch (damals bei Boss Films) und Paul Ashdown erstellten eine Animation einer “Armee” von Pinguinen, die durch die Straßen von Gotham City marschieren.

1

Das ist vorallem in diesen zwei Filmausschnitten zu sehen:

Für die objektorientierte Programmiersprache Processing gibt es ebenfalls eine sehr representative Darstellung zu Boids und der Programmierung.*

1 http://www.red3d.com/cwr/boids/

https://cs.stanford.edu/people/eroberts/courses/soco/projects/2008-09/modeling-natural-systems/boids.html

Bild:

1 http://www.red3d.com/cwr/boids/

*https://processing.org/examples/flocking.html

Unity Flocking

Auf der Unity Hompage findet sich praktischerweise ein simples Tutorial mit Videoanleitung, welches Flocking-Algorithmen verständlich machen soll. Da meine C# Kenntnisse noch recht bescheiden sind, hat mich das Ganze doch etwas Zeit und nerven gekostet, aber nun, endlich, habe ich es vollbracht.

Hier der Code des FlockingManagers und des Flock Files mit Erklärung:

Code Flock manager:

using UnityEngine;
public class FlockManager : MonoBehaviour {

//Erstellt den Flock Manager

    //Zugang zum Fish Game Object

    public GameObject fishPrefab;

    //Variierbare Startnummer an Fischen

    public int numFish = 20;

    //Array für die Erstellung der Fische

    public GameObject[] allFish; 

    //Räumliche Limits

    public Vector3 swimLimits = new Vector3(5.0f, 5.0f, 5.0f);

    //Gemeinsame Zielposition

    public Vector3 goalPos;

    //Variabel verstellbare Parameter in Unity

    [Header("Fish Settings")]

    [Range(0.0f, 5.0f)]

    public float minSpeed;          // Minimum speed range

    [Range(0.0f, 5.0f)]

    public float maxSpeed;          // Maximum speed range

    [Range(1.0f, 10.0f)]

    public float neighbourDistance; //Distanz zum Nachbarn

    [Range(0.0f, 5.0f)]

    public float rotationSpeed;   //Rotationsgeschwindigkeit der FishPrefabs

 void Start() {

       // Erstellung der Fische

        allFish = new GameObject[numFish];

       //looped und instantiiert (Fisch)

        for (int i = 0; i < numFish; ++i) {

//Erstellt Position des Fisches → Flockmanager+randomVektor

            Vector3 pos = this.transform.position + new Vector3(Random.Range(-swimLimits.x, swimLimits.x),

                                                                Random.Range(-swimLimits.x, swimLimits.x),

                                                                Random.Range(-swimLimits.x, swimLimits.x));

            allFish[i] = (GameObject)Instantiate(fishPrefab, pos, Quaternion.identity);

            allFish[i].GetComponent<Flock>().myManager = this;

        }

        //Ziel zu dem sich die Fische hinbewegen

        goalPos = this.transform.position;

    }

   //Wird pro Frame upgedatet

    void Update() {

      //dem Ziel wird jedes mal ein neuer randomisierter Faktor hinzugefügt

        if (Random.Range(0.0f, 100.0f) < 10.0f) {

            goalPos = this.transform.position + new Vector3(Random.Range(-swimLimits.x, swimLimits.x),

                                                            Random.Range(-swimLimits.x, swimLimits.x),

                                                            Random.Range(-swimLimits.x, swimLimits.x));

        }

    }

}

Code Flocking:

using UnityEngine;

public class Flock : MonoBehaviour {

  //Zugriff auf den Flock Manager

    public FlockManager myManager;

    //Initial Speed vom fisch

    float speed;

    // Bool um die Raumlimitation zu checken

    bool turning = false;

    void Start() {

        // Random speed für jeden einzelnen Fisch

        speed = Random.Range(myManager.minSpeed, myManager.maxSpeed);

    }

    //Wird pro Frame upgedated

    void Update() {

        // Bbox des Manager Cubes

        Bounds b = new Bounds(myManager.transform.position, myManager.swimLimits * 2.0f);

        // wenn der Fisch auf Widerstand trifft oder an die Grenzen des Cubes kommt, muss er umdrehen

              RaycastHit hit = new RaycastHit();

        Vector3 direction = Vector3.zero;

        if (!b.Contains(transform.position)) {

            turning = true;

            direction = myManager.transform.position - transform.position;

        } else if (Physics.Raycast(transform.position, this.transform.forward * 50.0f, out hit)) {

            turning = true;

            // Debug.DrawRay(this.transform.position, this.transform.forward * 50.0f, Color.red);

            direction = Vector3.Reflect(this.transform.forward, hit.normal);

        } else {

            turning = false;

        }

        // Test ob gedreht wird

        if (turning) {

            // Drehen zum Cube Center

            transform.rotation = Quaternion.Slerp(transform.rotation,

                                                  Quaternion.LookRotation(direction),

                                                  myManager.rotationSpeed * Time.deltaTime);

        } else {

            // 10% chance of altering prefab speed

            if (Random.Range(0.0f, 100.0f) < 10.0f) {

                speed = Random.Range(myManager.minSpeed, myManager.maxSpeed);

            }

            // 20& chance of applying the flocking rules

            if (Random.Range(0.0f, 100.0f) < 20.0f) {

                ApplyRules();

            }

        }

        transform.Translate(0.0f, 0.0f, Time.deltaTime * speed);

    }

    void ApplyRules() {

        GameObject[] gos;

        gos = myManager.allFish;

        Vector3 vcentre = Vector3.zero;

        Vector3 vavoid = Vector3.zero;

        float gSpeed = 0.01f;

        float nDistance;

        int groupSize = 0;

        foreach (GameObject go in gos) {

            if (go != this.gameObject) {

                nDistance = Vector3.Distance(go.transform.position, this.transform.position);

                if (nDistance <= myManager.neighbourDistance) {

                    vcentre += go.transform.position;

                    groupSize++;

                    if (nDistance < 1.0f) {

                        vavoid = vavoid + (this.transform.position - go.transform.position);

                    }

                    Flock anotherFlock = go.GetComponent<Flock>();

                    gSpeed = gSpeed + anotherFlock.speed;

                }

            }

        }

        if (groupSize > 0) {

            // Find the average centre of the group then add a vector to the target (goalPos)

            vcentre = vcentre / groupSize + (myManager.goalPos - this.transform.position);

            speed = gSpeed / groupSize;

            Vector3 direction = (vcentre + vavoid) - transform.position;

            if (direction != Vector3.zero) {

                transform.rotation = Quaternion.Slerp(transform.rotation,

                                                      Quaternion.LookRotation(direction),

                                                      myManager.rotationSpeed * Time.deltaTime);

            }

        }

    }

}

Flocking Tutorial:

https://learn.unity.com/tutorial/flocking#

Swarm 2

“Trotz seiner Anonymität ist ein Schwarm oft hochgradig geordnet, d.h., die Einzeltiere verhalten sich räumlich und zeitlich eng koordiniert…”

Langsam aber sicher beginnt die Idee sich zu formen. Wir befinden uns immernoch im Larvenstadium, aber unter der harten hüllen formen sich die ersten Auswüchse, welche später zu standfesten Beinen werden. Konkret bedeutet das, ich habe eine Vision.

Nach einem Erstgespräch mit Benjamin Stahl (meiner wissenschaftlichen Betreuung und Ideenmaschine seitens des IEM) sehe ich nun ein nicht mehr ganz so trübes Bild vor meinem inneren Auge. Und zwar ein Raum, aus intrinsisch ästhetischer Entscheidung eine Halbkugel, schwarz ausgefüllt. Jeder Besucher_in wir ein paar Kopfhörer aufgesetzt und ein Tablet in die Hände gegeben. Nun können die Neugierigen auf Entdeckungsreise gehen, und dem Schwarm lauschen. Durch ein Motiontracking-System, welches auf den Kopfhörern platziert ist, weiß auch der Schwarm wo sich die Besucher_innen aufhalten und kann ihnen so gekonnt ausweichen. Als kleine visuelle Stütze werden am Boden LED`s installiert sein, die schwach Leuchten sobald sich der Schwarm an einem Platz akkumuliert. Als weitere visuelle Stütze können die 3D Objekte mit dem Tablet in AR-Manier sichtbar gemacht werden und, als kleines aber interessantes Feature, auch angelockt werden.

Die Kommunikation zwischen 3D Objekten, Sound und Licht wird voraussichtlich über OSC (OpenSoundControl) passieren. Nach langem überlegen, wird Unity als Fundament eingesetzt und dann mit Middleware (Fmod, Touchdesigner, etc…) erweitert.

Als nächste große, zu überschreitende Hürde gilt es, eine gute Lösung für räumlichen Sound in Unity zu finden.

Bild:

https://www.pexels.com/de-de/foto/weihnachtsdekoration-247737/

Schwarmsimulation mit SoundParticles

Um einen kleinen Eindruck zu bekommen, wie sich das Produkt möglicherweise anhören könnte, habe ich mit der Software SoundParticles (welche für Studenten und nicht-kommerzielle Zwecke frei zur Vefügung steht) eine Simulation eines Schwarms kreiirt, der sich in einem virtuellen 3D Raum über den Beobachter hinweg bewegt. Praktischerweise kann man in SoundParticles mit wenigen einfachen Klicks die verschiedensten Outputmöglichkeiten auswählen. Ich habe das Projekt nun in Stereo gerendert, aber ebenfalls ein File für die Lautsprecheraufstellung im CUBE des IEM erstellt. So kann ich bei Gelegenheit (falls dieser Lockdown jemals endet) auch die Wirkung in verschiedenen Ambisonic-Klassen testen.

Für die “Partikel” habe ich fünf 30-Sekunden Soundfiles mit Xfer Serum erstellt. Speziell wurde darauf geachtet, dass das Signal möglichst trocken bleibt und sich die verschiedenen Spuren nur leicht im Pitch und Frequenzanteil unterschieden, um eine möglichst homogene, aber doch leicht variierte Masse zu erreichen. Für den Effekt eines schlagenden Flügels verwende ich einen Sawtooth-Layer mit einem relativ schnellen LFO der auf die Volume geroutet wurde (Tremolo) und einem wenige ms kurzen Transienten um mehr Charakter hineinzubringen.

Danach füge ich die Soundfiles in SoundParticles ein und erstelle eine Particle-Group. Dies scheint anfangs etwas kompliziert, da ich erst die Navigation für die Automation lernen muss (welche meiner Meinung auch noch ausbaufähig ist) aber mit etwas tüftelei fliegt mein Schwarm bald durch den 3D Raum. Hier und da noch ein paar randomisierte Parameter hinzugefügt wirkt das Ganze auch schon etwas lebendig und das Ergebnis kann sich auch schon hören lassen.

WICHTIG! Das Soundfile wurde Stereo für Lautsprecher exportiert, darum wird das Erlebnis auf Kopfhörern beeinträchtigt sein.

Es ist möglicherweise noch wichtig anzumerken, dass es sich hier nicht um eine Schwarmsimulation handelt, sondern nur um eine Darstellung mit festen Parametern um sich das auditive Abbild vor Augen (oder eher Ohren) führen zu können.

https://xferrecords.com/products/serum

https://soundparticles.com/

Swarm 1

“Schwarm, umgangssprachliche Bezeichnung für einen großen, einheitlich formierten, dreidimensionalen mobilen Verband …” 

Jedem Studenten wurde die Aufgabe gestellt, sich innerhalb von drei Tagen ein Projekt zu überlegen, welches er/sie über den Master hinweg realisieren möchte. Dass Zeit relativ ist, wusste nicht nur schon Einstein. Drei Tage feiern erscheint einem dann doch etwas ergiebiger als drei Tage für ein gutes Konzept. So saß ich grübelnd auf meiner Couch und bewaffnet mit einem Tee in der Linken und einem Kugelschreiber in der Rechten fing das Rad in mir an sich zu drehen.

Als zentrale Frage versuchte ich als erstes herauszufinden, was mich überhaupt interessiert. Einige A4 Seiten später driftete die Tätigkeit in einen dämmernden Zustand über und mich überkam der Schlaf. Plötzlich fand ich mich in einer absolut anderen Umgebung wieder. Mein Schlaf lockte mich zurück in den Sommer, wo ich fasziniert durch die Unterwasserwelt der kroatischen Küste schnorchelte. Eingebettet in warmen Wasser schwebte ich den fremdartigen Felsformationen entlang um eine Schule kleiner Fische zu verfolgen. Wieder zurück an Land fand ich mich zwar nicht in der Sonne wieder, doch beschäftigte mich in meinem Bett eine andere Frage:

“Wie funktioniert eigentlich ein Schwarm?”

Grundsätzlich folgt ein Schwarm drei Regeln:

  • Bleibt zusammen. Das bedeutet, das einzelne Tier sieht sich immer nach Artgenossen um und schwimmt zu ihnen.
  • Bewege dich in dieselbe Richtung. Das verhindert, dass ein chaotisches Durcheinander entsteht.
  • Halte einen konstanten Abstand. Diese Regel erhöht die Ordnung.

Sofort fragte ich mich selbst, ob und wie sich mit dieser Erkenntnis ein Projekt umsetzen lässt, welches auch noch einen Sounddesign-bezogenen Mehrwert besitzt. Nach kurzem überlegen, kam mir ein Programm in den Sinn, welches ich schon zu einem früheren Zeitpunkt getestet hatte. Sound-particles* ist ein mittlerweile sehr beliebtes “CGI-like” Programm, mit dem man 3D-Objekte in einem Raum erstellen und und diesen verschiedene Sounds zuweisen kann. Dies funktioniert jedoch nur sehr statisch und wird, meines derzeitigen Wissens auch fast ausschließlich in Filmen verwendet. Mir war es jedoch wichtig, dem Projekt einen dynamischen und interaktiven Charakter zu geben und so bildete sich aus der wagen Erleuchtung langsam eine Idee. Und zwar ein abgedunkelter Raum, in welcher Besucher mit einem unsichtbaren, aber hörbaren Schwarm in Kontakt treten können.

*https://soundparticles.com/

https://www.daserste.de/information/wissen-kultur/w-wie-wissen/schwarmintelligenz-100.html

https://www.spektrum.de/lexikon/biologie/schwarm/60107#:~:text=Schwarm%2C%20umgangssprachliche%20Bezeichnung%20f%C3%BCr%20einen,Staren%2C%20Sardinen%2C%20M%C3%BCcken%20usw

Bild:

https://pixabay.com/de/photos/fische-schwarm-unterwasser-1656504/