Critical Evaluation of a master’s thesis

Critical Evaluation of a master’s thesis

Unterschiede zwischen traditionellem Sport und E-Sport
Inszenierung und Content-Marketing im Vergleich

By Philipp Landgraf

University: Paris Lodron-Universität Salzburg

Level of Design

The Design of the Thesis is quite simple. Easy to read but not a lot of design elements, it is rather straight forward. At some points there are words marked bold.

Degree of Innovation

Since the work is comparing sports to e-sports the innovation factor is high. There is not a lot of works around this topic yet.


The piece is written by a professional – different types of literature was used while also combining different views from different topics. It looks like an independent work.

Outline and structure

Overall, the work is structured into two different pieces, showing the e-sports and the sports media differences. There are all parts necessary for a scientific work furthermore the writher shows insights in camera shots, positioning and surroundings.

Degree of communication

The text is straight forward, easy to read. It has some technical aspects but explains it in detail. Everyone can read this article.

Scope of the work

This thesis shows on 117 pages with pictures the differences between sports events and e-sport events. There is also discussion focusing on detailed areas of the two events.

Orthography and accuracy

No Spelling mistakes were found in my read through.


The Literature ranges from book to e-books and online articles mostly from 2018

> Landgraf, P.: Unterschiede zwischen traditionellem Sport und E-Sport : Inszenierung und Content-Marketing im Vergleich. Salzburg, 2021.

Try of a first interview draft

Characteristics of each interview according to Haller (2001)

  1. The answer may be refused without negative consequences.
  2. There is a fixed distribution of roles between the questioner and the answerer.
  3. The questioner follows an information goal, which he wants to find out through his questions.
  4. The answers of the interviewee are bound to the questions and can be of a factual as well as a private nature.
  5. There are different perceptions between the questioner and the answerer, as both individuals pursue different goals.1

The 3 journalistic interview types according to Haller (2001)

The first tool I would like to use to get more information about V-“Tubing in Austria” is the research interview.
In order to gain a realistic insight into the creation of a virtual Youtuber, I will use the research interview to talk to some players in the domestic industry. According to Haller (2001), interviews of this kind are primarily about obtaining information in the course of a research, as well as verifying it. Less decisive are personal characteristics and presentation of the person.2
In the case of my Master’s thesis, the interviewees will be Austrian vtubers, because I want to record the entire process of character creation of their virtual avatars. The objective is to analyse both the factual aspect and the personal relationship to the artificial figures and to prepare them step by step in order to make it easier for future designers, influencers or online streamers (to name just a few of the players in the vtuber environment) to enter the industry.

Furthermore, I am interested in the interviewees’ opinions on topics of self-perception on the internet, as well as their decision to remain anonymous, or the extent to which they do so. This leads me to the second type of interview according to Haller (2001), which I would like to include in my survey – the reportage interview.
Since VTubers are also artists in a certain way, I am particularly interested in the personal relationship to the virtual avatar. Self-expression is in the foreground and is not subject to any compulsion for information. Haller (2001) writes about directing the focus on personality traits of the interviewee and acting more as a moderator. This way of gathering information also gives an overall impression of the interviewee and the setting in which this person is thematically situated.3

I would like to do without the interview as a form of presentation in my Master’s thesis, as it does not seem useful for researching the topic and getting to know individual protagonists.

Relevant interview subjects and objectives of my master thesis will address the following topics:

Part 1 – About the person + practice

  • Personal aspect of the interviewee on the topic (background, role models, access…)
  • Role distribution of design, implementation and use of the concept of the own virtual character (visual and acoustic appearance, character creation, content of the performance)
  • Background information on the creation process of the own virtual character (in case of self-creation of the avatar, otherwise further information on key persons)
  • Common means and resources of domestic representatives for the creation of a 2D or 3D model
  • Creative content of online performances and common platforms of live broadcasts
  • Creation costs and turnover of an avatar for protagonists (designers, artists, performers)

Part 2 – intercultural perception

  • Personal attitude to the topic of anonymity in real life and online (opinion on the advantages and disadvantages of using a virtual avatar online).
  • Possible adaptation concepts in the already existing media landscape in Austria
  • Self-perception of the own art figure in Austria
  • Perception of the current Austrian Vtuber scene (popularity, effect on outsiders, efficiency, …)
  • Hypotheses on reasons for the different popularity of European vtubers compared to performers abroad (Asia, Central America, …)
  • Personal perception of animated content in the public media environment (television, social media, streaming, etc.)
  • Prognosis of a possible future for vtubers in Austria/personal prognosis (increase in the relevance of virtual influencers)
  • Hypotheses on future occupational fields and career opportunities in the design industry (The abandonment of character design for vtubers as a market niche)

As a further step, I plan to create a survey on the perception of Vtubers in Austria. This should happen at the same time as the debut of my own, self-created virtual character, in order to get a direct reaction from a larger audience.
I will create a Youtube video and analyse the perception of the performance for relevant aspects in the setting of a questionnaire online.

  • 1 cf. Haller 2001, p. 129.
  • 2 cf. ebda, p. 135f.
  • 3 cf. ebda, p. 138f.

Next steps:

  • Creating a first interview draft
  • Defining main research questions
  • Structure master thesis
  • search for literature


Haller, Michael (Hrsg.) et al.: Das Interview. Ein Handbuch für Journalisten. 3. ed. Konstanz: UVK 2001 (= Praktischer Journalismus, 6)

Vom 3D-Modell zum Live-Stream. Eine Anleitung

Werdegang zum Vtuber, Quelle:

Neue Technologien wie RealTime-graphics und MoCap-Technologien führen seit den 2010er Jahren zu einem immer stärker anwachsenden Auftreten von virtuellen Streamern – Vtubern. In Anlehnung an die traditionelle Influencer-Industrie sind virtuelle Menschen zu Prominenten geworden.
Da sich das Ökosystem für Vtuber – zumindest im Europäischen Raum – noch in der Anfangsphase befindet, gibt es noch keine standardisierte Allzweck-Anleitung. Daraus kann man schließen, dass jede Umsetzung unterschiedliche auf unterschiedlichen Plattformen und in verschiedenen Formaten erfolgt. Je nach Nutzer – ob Einzelperson oder Agentur – variieren die Kosten, die Qualität und der Entwurfsprozess erheblich.
Um einen virtuellen Charakter zum Leben erwecken zu können, müssen sich Content Creator also mit diversen Fragestellungen rund um Design, Hardware, Software und beschäftigen.


Das Set

Essenzieller Bestandteil im Inventar eines Vtubers ist eine Webcam oder Kamera mit hoher Auflösung, um Gesichtsbewegungen und Mimik zu erkennen. Ein Mikrofon, eine gute Gesichtsbeleuchtung und ein adequater PC oder Laptop gehören ebenfalls zu den Must-Haves des Jobs.
Als Grundvoraussetzung sollten die Kamera eine Auflösung von mindestens 720p und 30 FPS haben. Viele Vtuber verwenden jedoch bereits iPhones anstelle einer Webcam oder kombinieren diese miteinander, um Gesichtsausdrücke besser erkennen zu können.

Für den Ton können entweder spezielle USB-Mikrofone oder ein Gaming-Headsets mit eingebautem Mikrofon verwenden werden. Im Idealfall werden vollwertige XLR-Mikrofone genutzt, da diese besser funktionieren und eine fantastische Audioqualität bieten.

Viel Licht ist wichtig, damit Kamera und Software leichter erkennen können, ob der Vtuber gerade lacht, die Stirn runzelt oder den Mund bewegt. Dazu reicht bei Tag ein heller Standort am Fenster, bei schlechteren Lichtverhältnissen sollten Lampen so arrangiert werden, dass sie das Set ausreichend beleuchten.
Marken wie Elgato und Razer bieten spezielle Streaming-Lichter an, die mit den Webcams gekoppelt werden können.

Ein Überblick über das Entstehen eines 3D-Vtuber Charakters, Quelle:*Ri6kbNkAZi_eLoaJ

Gute Internetverbindung

Es macht durchaus Sinn, vor Beginn eines Streams die Internetverbindung zu überprüfen, da es ansonsten während der Live-Auftritte zu ungewollten Pannen kommen kann.
Nach Empfehlung von Streamingplattformen wie Twitch sollten mindestens 6 Mbps für 1080p in hoher Qualität bei 60 FPS zur Verfügung stehen. Wenn diese Anforderungen nicht erreicht werden können, leidet die Streamingqualität darunter, jedoch sind 3Mbps in einer 720p-Auflösung bei 30 FPS im notfalls noch im Bereich des Vertretbaren.

Bei Streams mit hoher Bildrate, wie beispielsweise Ego-Shooter-Games, wird eine Uploadgeschwindigkeit von 10-15Mbit/s und ein Bildschirm mit hoher Bildwiederholungsfrequenz benötigt.
Bei niedrigeren Internetgeschwindigkeiten und keiner Möglichkeit zur Aufrüstung, ist Live-Streaming in einer ansehnlichen Qualität nicht möglich.

Standcomputer oder Laptop

Prinzipiell gilt, mehr ist besser, besonders wenn es um RAM und Prozessoren geht. Die Grafikleistung ist nur dann von größerer Relevanz, wenn Spiele gestreamt werden. Jedoch sind hierbei GPU-Empfehlungen der einzelnen Spieltitel zu beachten.
Ob PC oder Laptop hängt von der Leistungsfähigkeit ab. Ein hochwertiges Gerät steigert den qualitätiven Output des Streams, jedoch gibt es auch preiswertere Alternativen.
Die Mindestanforderungen für einen Live-Stream:

  • Prozessor: Intel i5-4670 oder AMD FX-8350
  • Arbeitsspeicher: 8 GB DDR3
  • Grafikkarte: Nividia Geforce 960 oder AMD Radeon R9 280
  • Betriebssystem: Windwos 7

Bei vorgefertigten Systemen oder wenn der PC selbst gebaut wird, ist auf folgende Anforderungen zu achten:

  • Prozessor: Intel i5-9600k oder AMD Ryzen 5 3600
  • Arbeitsspeicher: 16GB DDR4
  • Grafikkarte: Nivada Geforce GTX 1080 Ti oder AMD Radeon 5700 XT
  • Betriebssystem: Windows 10

Einige Streamer gehen noch einen Schritt weiter und verwenden zwei Computer oder Laptops, um die Arbeitslast zu bewältigen – einen, um ein Spiel auszuführen und den anderen, um die eigentlichen Streaming-Anforderungen zu erfüllen.

Anwendungen und Software

Bekannteste Applikationen und Software, Quelle:*kK84l5zqVOv2WxDW

Der Avatar

Als guten Ausgangspunkt für angehende Vtuber ohne Vorkenntnisse im Design-Bereich und mit geringem Budget eignet sich VRoid-Studio oder Live2D . Ein großer Vorteil dieser Tools ist, dass sie bereits “vorgeriggte” Basismodelle anbieten, welche sich hervorragend für erste Probeversuche eignen und jederzeit durch Details individuell angepasst werden können. Die Software ist zudem kostenlos.
Auch Websites wie TurboSuid, Sketchfab und CGTrader bieten kostengünstigere 3D-Modelle zum Download an.

Hat man als Content Creator viel Zeit und kreatives Talent, ist es möglich mit Software-Programmen wie Blender, Maya oder Zbrush einen völlig individuellen Charakter zu entwerfen.
Auch von Unreal Engine gibt es Anwendungen wie Meta Human Creator, um digitale Menschen mit hoher Wiedergabetreue zu erstellen. Es gibt auch Optionen für die Arbeit mit Apps wie ReadyPlayerMe oder Wolf3D. Allerdings sind hierfür gute 3D-Kenntnisse erforderlich.

Das fertige Modell muss dann noch “geriggt” werden, sprich mit einem digitalen Skelett versehen werden, um menschliche Bewegungen so realistisch wie möglich imitieren zu können. Dies kann entweder direkt in Blender oder für 2D-Modelle auch beispielsweise in Live2D Cubism erledigt werden.
Für die VRM-Konvertierung benötigt man eine 3D-Animationssoftware wie Unreal, Unity 3D oder iClone, jedoch finden sich Tutorials auf Youtube, wie beispielsweise das folgende für eine Formatierung in Unity:

Tutorial: Avatar zu VRM-Datei, Quelle:

Eine weitere Alternative zu den kostenlosen 2D- und 3D-Modellen, ist die Möglichkeit den Avatar bei einem Künstler in Auftrag zu geben. Es ist einfacher und geht schneller, als sich selbst mit der Charakterentwicklung und 2D- oder 3D-Umsetzung beschäftigen zu müssen. Allerdings ist diese Option keinesfalls billig. Auf Websiten wie Fiverr und Etsy geht die Preisspanne von 50$ für einfache Avatare, bis hin zu Beträgen im sechsstelligen Bereich für hochwertige und detailgetreue Modelle.

Das Tracking

Ganzkörper MoCap Setup Beispiel, Quelle:*T9lDZ4sGGdeDrIrn

Der Großteil der Vtuber-Einsteiger nutzt Anwendungen von Steam wie FaceRig, Animaze, Wakaru, 3Tene und Vtube Studio, da diese für alles was man so an einfachem Mocap (=Motion Capture, Bewegungsverfolgung) braucht, bieten können.
Es gibt aber auch einige beliebte virtuelle Streamer wie Code Miko, die Technologien aus der Videospiel- und Filmindustrie verwenden, wie z. B. 30.000-Dollar-Motion-Capture-Anzüge von Xsens.

Echtzeit-Aufnahmen während Tracking, source:

Eine weitere beliebte Motion-Tracking Software ist Luppet. Als eine der größten Anwendungen, die von Vtubern verwendet wird, bietet es ein sehr sauberes, genaues Tracking und ist in mehreren Sprachen verfügbar. Allerdings ist es nicht auf Steam erhältlich, sondern nur auf einer japanischsprachigen Website und kostet um die 50$.

Inzwischen ist es außerdem möglich, mithilfe von iPhones mit Infrarot-Tiefenkamera für Face ID (seit der Veröffentlichung des iPhone X, 2017) ein genaueres Gesichts-MoCap zu erhalten als mit herkömmlichen Webcams.

Tutorial: Vtubing am Iphone, Quelle:

Die Ausrüstung für die Gesichtserfassung wird jedoch immer leichter und einfacher der breiten Masse zugänglich gemacht. Einige Umsetzungen erfordern zwar immer noch Marker im Gesicht und das Tragen eines Helms mit einer auftragsbezogenen Kamera, aber der Markt scheint sich in die andere Richtung zu bewegen – er unterstützt normale Streamer-Setups, die 2D-Webcams verwenden.

Wakaru und Hitogata sind gute Software-Beispiele dafür. Diese beiden kostenlosen Programme bieten eine frei verfügbare Gesichtsverfolgungsfunktion, die leicht in einen 3D-Charakter integriert werden kann. Aufgrund des offenen Algorithmus ist die Verfolgungsqualität nicht die beste auf dem Markt, aber die Bequemlichkeit überwiegt die Nachteile, zumindest für VTuber-Anfänger.
Qualitativ höherwertigere, kostenpflichtigere Webcam-Lösungen sind Hyprface SDK und Facerig. Hyprface ist besonders nützlich, um vorgefertigte 3D-Charaktermodelle zu integrieren.

Um die Position der Hände zu verfolgen, benötigen virtuelle Streamer ein optisches Handverfolgungsmodul, auch Leap Motion, genannt. Dieses kann Bewegungen viel genauer erfassen als iPhones oder Webcams und wird oft in Verbindung mit weiterer Ausrüstung verwendet, um Modelle noch realistischer animieren zu können.

Cory Strassburger – iPhone 12, Unreal Engine, und Xsens Setup, Quelle:

Das Debüt

Schlussendlich wird der Avatar zum ersten Mal dem Publikum auf Streaming-Plattformen wie Twitch oder Youtube vorgestellt. Unabhängig vom narrativen Inhalt und dem eventuellen Skript, gibt es zunächst noch einige Import-Hinweise zu beachten:

Es gibt zwei Möglichkeiten, das Modell in einem Stream zu übertragen, abhängig von der Anwendung, die für das Mocap des Avatars verwendet wird.
Auf der Plattform Steam kann immer nur eine Anwendung ausgeführt werden. Sollte der Content Creator also keinen weiteren Inhalt teilen, kann er einfach die Quelle “Game Capture” auf OBS und Streamlabs verwenden um sein Modell auf einen Hintergrund seiner Wahl zu überlagern. Zusätzlich is bei dieser Methode zu beachten, dass die Transparenz in der verwendeten MoCap-Software immer aktiviert ist und beim Streamen auch zugelassen wird.

Alternativ dazu gibt es auch Vtuber, die während ihrer Streams andere Inhalte teilen, wei beispielsweise Spiele spielen oder gemeinsam mit ihrem Publikum auf Youtube-Videos reagieren. In diesem Fall gibt es Programme wie SUVA für Windows, mit denen virtuelle Streamer ihre Avatare in Unity importieren können und diese dann in Streaming-Anwendungen wie OBS einblenden. Dadurch bleibt das Steam-Konto frei.

In jedem Fall ist es wichtig sich vor seinem Debüt ausgiebig mit allen verfügbaren Programmen und Technologien auseinander zu setzen, um für sich selbst die bestmöglichste Variante zu finden. Um auch in Zukunft mehr Vtuber in die Community zu holen, währe die Umsetzung folgender Punkte ein Anfang:

  • Mehr Tools zur Erstellung von Avataren für Nicht-Experten, die verschiedene Kunststile unterstützen
  • Eine All-In-One-Mocap-Lösung für das gesamte Gesicht, den Körper und die Finger, die nur eine Webcam benötigen und damit Kosten und Ineffizienz verringern
  • Engere Zusammenarbeit zwischen Software- und Hardwareanbietern, um den Integrationsprozess zu vereinfachen und den Prozess zu vereinheitlichen, weiterzuentwickeln und zu konzentrieren
  • Eine einfache Benutzeroberfläche für Nicht-Entwickler, damit die Nutzung von Software und Hardware einer breiteren Masse zugänglich wird


  • Bedeutung, Entstehung und aktueller Bezug
  • V-Tuber Agenturen und ihre Protagonisten
  • Software und Programme – Was gibt es und wie verwende ich sie?
  • Entwicklung eines Characters – 2D und 3D Modell
  • (Erwartungshaltungen von Usern, Protagonisten und Agenturen)


Wheaterbed, Jess (25.12.2021): How to be a Vtuber,, in: [10.01.2022]

hyprsense (23.09.2019): How to Become a Virtual YouTuber/Influencer,, in: [10.01.2022]

xsense (): The perfect Virtual YouTuber setup,, in: [10.01.2022]

xsense (): Xsens MCCC. How to become a vTuber,, in: [10.01.2022]

V-Tubing. Ein großer virtueller Maskenball

Kizuna A.I.s erstes Youtube Video (Untertitel aktivieren)

Mit der Corona-Krise im Jahr 2019 musste die gesamte Welt in den Online-Modus wechseln, das führte unter anderem dazu, dass sich eine neue Sparte an Unterhaltungskünstlern etablieren konnte. Der Begriff V-Tuber steht für “Virtueller Youtuber” und wurde 2016 durch eine Künstliche Intelligenz namens Kizuna Ai ins Leben gerufen. Wie ein solcher Charakter entsteht und was ihn so besonders macht.

Ein erster Erklärungsversuch

V-Tubing und klassisches Streamen sind im Grunde sehr ähnlich: In beiden Fällen sitzt eine Person hinter einer Kamera und unterhält ihr Publikum vor den Bildschirmen. Der einzige Unterschied besteht darin, dass V-Tuber anonym bleiben, indem ein 2D- oder 3D Avatar gezeigt wird. Eine Künstliche Intelligenz setzt die gefilmte Gestik und Mimik des Streamers in die digitalen Bewegungen der Figur um. V-Tuber sind also vergleichbar mit digitalen Marionettenspielern.

Die Puppen sind virtuelle Charaktere mit menschlichen Eigenschaften.
Der aus Japan stammende Trend hat seine Wurzeln in der „Otaku-Kultur“, einer Subkultur, die sich mit Anime und Manga beschäftigt. Dementsprechend lässt sich  in den Avataren ein wiederkehrenden roter Faden erkennen: Fast jeder der Charaktere ist ein niedliches Mädchen mit großen Augen, hat eine hohe Stimme und trägt entzückenden Outfits. Natürlich variieren die Figuren von Hai-Mädchen über Dämonen-Mädchen bis hin zu einer weiblichen Riesenmotte.

Hauptsache “kawaii”. Den Gestaltungsmöglichkeiten sind keine Grenzen gesetzt.

Dieses Phänomen nennt man „Moe Anthropomorphismus“. „Moe“ steht in diesem Zusammenhang für das Ausstrahlen von Niedlichkeit, es handelt sich also um eine vermenschlichte Form von Niedlichkeit.
Im Gegensatz zu Anime Charakteren gehen Vtuber allerdings einen Schritt weiter und interagieren mit ihren Fans.

Einer der vielen Vorteile des Streamens als V-Tuber sind die unbegrenzten Möglichkeiten bei der Erstellung eines virtuellen Avatars Obwohl viele der virtuellen Content-Creator sich auf einen Avatar in klassischer „Anime-Optik“ nach dem Vorbild aus Japan richten, sind im Grunde auch Tiere oder menschliche Tierwesen keine Seltenheit. Im Grunde kann jedes beliebige Bild zu einem Charakter werden, je nachdem wozu der Charakter schlussendlich verwendet wird.

Das Aussehen kann jederzeit und beliebig oft geändert werden. Häufig werden spezielle „Formen“, oder Kostüme und Accessoires zu bestimmten Feiertagen verwendet. So zum Beispiel zu Halloween, Weihnachten oder wenn ein Streamer das Jubiläums seines Channels feiern möchte.

Vtuber “Ironmouse” 3D Dämonenform

Ein weiterer Punkt, der das virtuelle Streamen immer beliebter macht, ist die Möglichkeit der absoluten Anonymität. Die Hintergrundgeschichte des Charakters kann sowohl frei erfunden sein als auch teilweise wahr oder gleich komplett der Lebensgeschichte des Content Creators entsprechen, ohne dabei seine Privatsphäre zu gefährden. Besonders im Netz kommt es oft zu Hass-Posts und Cyber-Mobbing, somit bietet der Avatar eines V-Tubers nicht nur Anonymität, sondern auch Schutz vor Hass im Internet.


  • Bedeutung, Entstehung und aktueller Bezug
  • V-Tuber Agenturen und ihre Protagonisten
  • Software und Programme – Was gibt es und wie verwende ich sie?
  • Entwicklung eines Characters – 2D und 3D Modell


Bitter, Jan-Hendrik/Bartz, Robin (06.092021): V-Tubing mit Hilfe von 3D-Avataren,, in: [15.11.2021]

Cakir, Gökhan (28.01.2021): How to become a Vtuber,, in: [15.11.2021]

Chen, James (30.11.2020): The Vtuber takeover of 2020. 3D anime girls are everywhere now – and they’re making big bucks,, in: [15.11.2021]

Dazon, Laura (16.03.2020): Virtual Youtuber – What’s the appeal?,, in: [15.11.2021]

Lufkin, Brian (03.10.2021): The virtual vloggers taking over YouTube,, in: [15.11.2021]

Martinello, Eva (29.01.2021): The best Vtuber software,, in: [15.11.2021]

SWYRL (24.05.2021): Virtuelle Stars: Das steckt hinter dem neuen Vtuber-Trend, [15.11.2021]