AR in education #4: Taking a look at existing products

Hello again! For this blog entry I had a look at several educational AR apps (there are a loooot of them) in order to get a picture of when AR has added value for educational purposes and when it doesn’t. So I picked out a few examples and categorized them in good and bad ones and summed up why I did (not) like them. It’s also to mention that I only looked at digital apps that use visual augmentation. But first I want to give a short overview on the wide range of educational fields and educational levels existing AR products on the market cover (this list provided by Garzón, Pavón and Baldiris [2019] might not be complete):

  • Educational fields: Natural sciences, Mathematics, Statistics, Abstract concepts, Arts, Social sciences, Engineering
  • Education levels: Early childhood education, Primary education, Lower secondary education, Upper secondary education, Post-secondary non-tertiary education, Short-cycle tertiary education, Bachelor’s or equivalent level, Non-schoolers (work related trainings) – It’s to mention that educational AR products for Master’s or equivalent level and Doctoral or equivalent level might exist, but weren’t conducted in the study

The good

Augmented Creativity 

Augmented Creativity includes a total of six prototypes that can be used with mobile devides: Coloring Book, Music Arrangement, Physical-Interaction Game, City-Wide Gaming, Authoring Interactive Narratives and Robot Programming – I had a look at the first two of them. 

The Coloring Book is an application available that brings colored drawings to life: It comes with several templates that can be printed out and colored. When the drawing is scanned with the app on a smartphone or tablet (iOS and Android), it detects and tracks the drawing and displays an augmented, animated 3D version of the character, which is textured according to the child’s coloring (See Fig. 1).

Advantages the authors mention: 

  • Creative Goal: Fosters imagination, allows character individualization, helps to express feelings about character
  • Educational Goal: Improves coloring skills, 3D perception, and challenges imagination
  • Potential Impact: User-painted characters and levels, scripting virtual worlds through coloring

Why I like it:

  • The augmentation doesn’t intervene the act of drawing and coloring by hand (which I think is an important way of creative expression in early ages), but adds additional value by digitalizing it afterwards
  • Stimulates several senses
  • Works really well and looks super cute (smooth animations; exact coloring; live updates)
Fig. 1: Augmented Creativity – Coloring Book

The Music Arrangement is a set of flashcards where each card represents a musical element like instruments and music styles. The user can then choose instruments and styles independently and rearrange the song as imagined. By placing a card on a physical board, the app detects the marker on it and displays an augmented version of the instrument and plays the corresponding audio, as depicted in Fig. 2. AR even allows the user to change the position and the volume of the instruments while the song is playing, allowing them to direct the virtual band.

Advantages the authors mention: 

  • Creative Goal: Experiment with different instruments and styles to rearrange a song
  • Educational Goal: Teaches concepts of arrangements, styles, and the disposition of the band components
  • Potential Impact: Collaborative music arrangement experience, learn about the disposition of an orchestra

Why I like it:

  • Combines physical and digital interaction 
  • It stimulates several senses
  • Works really well and looks super nice
Fig. 2: Augmented Creativity – Music Arrangement

Quiver Education

Quiver Education is similar to the Coloring Book mentioned above, but with a greater focus on educational content: The user can choose from a range of coloring packs, print them and color them by hand. When the coloring is scanned with the app on a smartphone or tablet (iOS and Android), a colored, animated 3D model is displayed and additional information and interaction options are provided (see Fig. 3). The content is designed around topics as diverse as biology, geometry, the solar system and more. 

Why I like it:

  • The augmentation doesn’t intervene the process of coloring by hand
  • Stimulates several senses
  • A wide range of topics
  • ~ I’m still a little sceptical if it’s necessary to color a scene first in order to learn about it (i.e. a volcano)
Fig. 3: Quiver

Merge EDU

Merge EDU engages students in STEM fields with 3D objects and simulations they can touch, hold and interact with. The special thing about Merge is that the user has to hold a special cube in their hands where the augmentation is placed on, so the user feels like actually holding the object in their hands and can then interact with it (See Fig. 4). Merge is available for iOS and Android and can be used with mobile devices – It also offers glasses where a user can put their phone in to have their hands free to interact with the cube. 

Advantages the authors mention: 

  • 3D tactile learning
  • Flexibility: Can be used at home and at school
  • Curriculum aligned
  • Multisensory Instruction
  • Spatial Development
  • Accelerate Understanding
  • Focused Engagement

Why I like it:

  • The potential of the cube: It could potentially replace physical teaching aids
  • Big library of topics to explore
  • Users can upload and share their own creations
Fig. 4: Merge EDU

Human Anatomy Atlas

With the Human Anatomy Atlas medical students can turn any room into an anatomy lab: They can view and dissect a virtual model of a human organ or complete human body by scanning a printed picture (see Fig. 5) or simply placing a model on a flat surface (see Fig. 6). It’s also possible to study human muscles in motion by scanning a person as shown in Fig. 7.

Why I like it:

  • Students can study from anywhere and don’t have to go to an actual lab
  • Doing a dissection virtually might be helpdul to prepare for doing a dissection in real life (As far as I know from several people who are currently studying medicine, preparation for dissections is mostly done with the help of books, pictures, videos and physical models, but not with interactive digital models)
Fig. 5: Human Anatomy Atlas – Image marker
Fig. 6: Human Anatomy Atlas – Placing an object in space
Fig. 7: Human Anatomy Atlas – Live tracking of muscles

The bad

Sketch AR

With Sketch AR users can learn how to draw by using their smartphone camera: They can choose a sketch from a library and display it on a sheet of paper in front of them. The user can then follow the virtual lines on the paper step-by-step (See Fig. 8). The app also offers more features like minigames and AI portraits, but I only had a look at the AR feature. In general the app is designed really well and is also personalizable, but all in all I did not see the added value that AR has in this case.

Why I don’t like it:

  • Drawing might be difficult when looking at the paper though a small screen
  • While drawing I personally like to fixate the paper with one hand, which is not possible, because you have to hold your mobile device
  • I don’t see the advantes of AR compared to common image tracing (by printing it out and using it as a template)

An app that does pretty much the same is “Tracing Projector”, where I also don’t see the added value.

Fig. 8: SketchAR

On a general note

There are a lot of apps on the market – especially in children’s education – that try to replace a physical game with a digital one (i.e. playing with dominos), which is in my opinion not what AR should be used for. AR is supposed to enhance the user’s physical world and not replace it. I believe that it’s important to experience the world with as many senses as possible – especially in early ages – and haptic experiences should not be limited to holding and controlling a smartphone. Furthermore there are a lot of apps where the user can just randomly place 3D objects in the real world, but can’t do anything with them, which might be fun and playful though, but doesn’t have many educational values in my opinion.

 

That’s it for today, bye and good night! 

_________

Sources:

https://studios.disneyresearch.com/augmented-creativity/
https://quivervision.com/products/apps/quiver-education
https://mergeedu.com/
https://www.visiblebody.com/ar
https://apkpure.com/sketchar-create-art-and-get-nft-instantly/ktech.sketchar

Garzón, J., Pavón, J., & Baldiris, S. (2019). Systematic review and meta-analysis of augmented reality in educational settings. Virtual Reality, 23, 447-459.

Zünd, F., Ryffel, M., Magnenat, S., Marra, A., Nitti, M., Kapadia, M., Noris, G., Mitchell, K., Gross, M.H., & Sumner, R.W. (2015). Augmented creativity: bridging the real and virtual worlds to enhance creative play. SIGGRAPH Asia 2015 Mobile Graphics and Interactive Applications.

Kids and Interaction (VIII): How to design interactive exhibitions for kids? Analysing data from database.

Projects have continued to be added to the database over the last few days in order to gather sufficient information to help us verify the reality of the points analysed in previous posts. The database can be found online in the link: http://ambiby.com/project_online/projectDB/index.php

For this reason, several projects have been added (13 so far), but I would like to add even more to the database. Even so, and taking into account the long list of references pending to be analysed, the data collected are similar to those previously studied. With this, the important points that are usually repeated in any interactive exhibition for children are checked.

It has to be said that, due to the current situation with COVID, the analysis has been a bit hard. Not being able to visit certain places either because of the pandemic or lack of time, there are details that are missed. The aim was to collect information from visual materials, which limited the number of projects to be analysed.

Now, a short analysis of the different sections of data found from the analysed projects is discussed.

Interaction data

In terms of interaction, we find that the vast majority of exhibits mix GUI and TUI models, making them much more attractive to children. In addition, the spaces are usually activity-centred or user-centred. This depends on whether the project aims to teach or influence the user, or is focused on simply discovering or hanging out.

User experience for kids

Focusing on the user experience for children, and using the questions and data studied in posts II and III, we have found very similar answers to those studied in those posts. In some cases the answers were obvious, but in others, they have varied from point to point.

All the interfaces analysed had instant feedback to the user, whether it was a GUI or a TUI, as the user was always aware of what changes were being made.

In the case of navigation, the responses were more varied. Both navigation through the digital interface and navigation through the physical space were taken into account. For this reason, there are some projects that have more than one type of navigation. Even so, navigation by steps has been the most common, as the aim is to organise the information by steps so that it is told in the form of a story and is easier to understand.

In terms of text, three parameters were taken into account: simplicity, size and quantity. In the case of simplicity and size, it was complicated in some cases to analyse it, as there were very few visual references. Even so, it has been shown that the texts are usually simple (adapted to the children’s vocabulary) and the text sizes are usually larger than usual. Surprisingly, the amount of text has been more adjusted, in some cases there was a lot of text (6 projects), and in others the text was scarce (7 projects).

If we think about the visual and auditory inputs, we find three points to analyse: sounds, animations and vivid colours. The case of sound has been complicated, because with the visual material it was difficult to observe this point. On the other hand, animations were present in 10 of the 13 projects, so it can be determined that the use of animations is common. Finally, the use of colours was clearly vivid. In almost all of the exhibits (11 out of 13), bright colours are used to create a good atmosphere. The only ones using more muted colours are those related to nature, as they are more earthy colours.

Finally in this section, two points should be taken into account: the icons and the option to customise. In the case of the icons, it was studied that in order to address children, care must be taken, as understanding them can be complicated. This is why it has been observed that in 7 projects there were no icons, and in those that did have them, the vast majority (5 of the 13) were literal, i.e. they resemble reality and leave no room for doubt. The case of personalisation was surprising. In only 5 of the projects is this option available.

The 125 Universal Principles of Design

The vast majority of the principles explained in posts V and VI are used in the projects, even so, there are big differences between them. In order to better understand the contents, the principles have been divided into three types: related to the physical space, related to the way content is displayed and related to the design.

In the important principles for the organisation of the physical space, it is clear that accessibility and the entry point to the exhibition are clear. All projects rely on these as it is necessary to adapt the interface to children. For this, it is not only a question of simplifying the text, but also of adjusting the sizes and heights of the stations to those of the youngest children.

In those related to the way information is displayed, legibility and the use of images over text are key, as well as the importance of highlighting information in texts and immersion. It should also be noted that the vast majority (8-9 out of 13) use methods such as chunking or advance organiser to divide information into islands and make it easier to remember. Finally, the use of icons is again taken into account, and how this is reduced to only 6 of the 13 projects.

In terms of design, the results were low. It is true that the importance of colour is maintained in the 13 projects analysed, but the points related to the environment (biophilia effect and savannah preference) are not very much taken into account, as the spaces are looking for a sense of immersion and leave aside the use of nature so as not to distract the user. Finally, the use of more rounded and unaggressive designs has only been observed in 5 of the 13 projects, which seems surprising.

With this we conclude that although there are points that seem to be well determined, there are others such as the amount of text, the option of personalisation or the analysis of the design (contour bias) that need more referents to determine a result. But even so, it is understood that interfaces for children follow a series of principles that tend to be repeated in the vast majority.

The results have certainly been interesting, but more time is needed to add projects. In any case, the intention is to use this website as a base and add all the references in order to keep an updated database of projects that can help me in the future.

[Data Safety #5] Dark Patterns. Practical Examples

Good afternoon! I guess it was time for this series of two posts in which I finally show examples of what a good design and a bad design of the cookie window is. In this first post I have tried to select some cases that seem to me evidently malpractice, since they guide the user towards a specific option, biasing their choice when selecting their privacy policy.

These types of design are known as Dark Patterns, I will not go into further detail with them because my classmate Ana Mitterhauser is doing her research specifically about them. So, we go directly to show some of these applied to our specific topic:

Misdirection/Aesthetic Manipulation

This is the most common, it is a type of manipulation in which the design put the visual focus in the button “Accept all”, forgetting the rest of the options given. This can be done either by the use of color, size, font…

Examples:

  • Fandom: In this case the “OK” option is more prominent and guides the user’s eyes. In addition, shading the rest of the page inclines the user to that option since they believe that if they do not accept they will not be able to access the content.
  • The guardian: As in the previous case, the background darkens and blurs slanting the user. In this case the option of not accepting cookies differs more clearly with a different font (in lower case), without color highlight and placed in a corner of the page while the other option is in the center.

Privacy Zuckering

Perhaps the best known, it is directly the design that takes care of deceiving users to share all their personal data. Despite being regulated by law in this type of patterns there is no clear output for the user to not accept or modify the data policy.

Example:

  • Twitter: Informs you that cookies are used, but there is no option to adjust preferences, nor to give your explicit consent. Closing the cookie window on the top right button will be interpreted by the website as having accepted your policy.

  • AvePDF: informs you that the website uses cookies, however, does not give the option to accept or reject but directly from “okey”. The user is not informed that there is another alternative, believes that the only way to avoid giving their data is not to use the web.

Laberynth

Even in spite of all the examples above, once you pass the “first phase” in case you have chosen the options relating to setting cookies or reviewing the privacy policy another page will open in which you will be shown your options. Sometimes they have a more intuitive design and other times it’s a complete maze from which you don’t know how to get out or what you’re doing.

Example:

  • Speisekarte: In this case it is not only an initial aesthetic manipulation, but if the user clicks “Learn more” hundreds of different selection options appear in which he has to cycle one by one. It doesn’t sound a very interesting plan. Furthermore, the “reject all” button is virtually invisible for the user to continue with their initial decision.
  • NHS: In this other example, in case the user wants to customize their privacy policy, they are presented with a list of options that are already selected as “on”, in addition to not presenting a “reject all” button to make the implementation of the user’s decision more efficient.

Conclusions:

Once you have the habit of rejecting cookies by default, you are more receptive to finding many cases of questionable practices on the internet that do not seem to make life easier for the user but for the business behind the page. In fact, they succeed, and for many users, trading privacy is an acceptable cost for all the wonderful benefits that all those giants provide for nothing. However, not everything is negative, we can do something to change it and improve people’s lives, not only with regulations that protect the user but with UX/UI designers who design with the user in mind and create a relationship of security and trust between the brand and the user. We have in our hand the possibility of generating a more ethical and transparent design. In the next post I will give you examples and tips of how to do it.

That’s all for today, have you found any of these examples in your day to day?  I’m sure now that you know you won’t be able to stop seeing them!

See you!

References and literature:

Vom Unikat zur Massenreproduktion

Der letzte Blogeintrag widmete sich dem neuen Thema: Fotografie als visuelle Sprache im Grafik Design. Nun wird ein Blick auf die geschichtliche Entwicklung geworfen, um zu verstehen, weshalb Fotografie zum Massenmedium wurde. Der zweite Teil widmet sich der gesellschaftlichen Verbreitung des Fotografierens sowie den Unterschieden zwischen Amateur- und Profifotografie.

Zuerst wird nun erklärt, welche Merkmale Fotografien auszeichnen. Es ist schwer und kaum möglich eine generelle Definition dafür zu finden. Doch kaum eine andere Person wird in diesem Zusammenhang häufiger genannt als Roland Barthes. In seinem bekannten Foto-Essay „Die helle Kammer“ beschreibt er Fotografie als „Emanation des vergangen Wirklichen“1. Zuvor definierte er Fotografie „als mechanisches Analogon des Wirklichen“.2 Der indexikalische Charakter zeigt, dass das abgebildete Objekt vor der Kamera gewesen sei und tatsächlich existiert habe.3 Auch wenn uns heute und auch schon vor ein paar Jahrzehnten bewusst gewesen war, dass Fotos manipuliert werden können, nimmt man an, dass sie etwas Vergangenes – etwas „Echtes“ – visuell darstellen. Auch bestimmte Bildausschnitte, die den Fokus auf etwas lenken, oder redaktionelle Veränderungen können die Representation der Wirklichkeit verändern. All das ist uns bewusst und bekannt, jedoch hindert es den Gedanken nicht, dass Fotografie die Wirklichkeit zeigt.

Die Aussage und die politische Bedeutung dieses Bildes nahm Einfluss auf den Wahlkampf: King Georg VI wurde aus dem originalen Bild mit Queen Elisabeth (Mutter von Queen Elisabeth II) und dem kanadischen Premierminister William Mackenzie entfernt. 
Quelle: http://www.fotokurs-bremen.de/fotografie-und-bildmanipulation-sind-untrennbar-miteinander-verbunden/

Doch wie kam es dazu, dass Fotografien manipuliert und verändert werden können? Hierfür ist ein Blick auf die geschichtliche Entwicklung notwendig.
Das Jahr 1839 prägte die Erfindung der Fotografie, da zwei Ereignisse stattfanden, die den Weg für die Fotografie ebneten. Louis J. M. Daguerre stellte in Paris ein modernes Bildaufzeichnungsverfahren – die Daguerreotypie – vor. In Deutschland wurde im selben Jahr auch der Begriff der „Photographie“ geprägt. Die erste erfolgreich aufgenommene und erhaltene Fotografie wurde von Joseph Nicéphore Niépce mit Hilfe einer Camera obscura 1826 hergestellt. Hierbei fällt Licht durch eine winzige Öffnung in einen dunklen Hohlkörper und erzeugt seitenverkehrt und auf dem Kopf stehend den Außenraum auf der Projektionsfläche. Diese Fläche bestand aus Zinn und wurde durch eine Schicht aus Asphaltmischung heller oder dunkler ausgehärtet. So konnte das erste Foto der Welt entstehen. 

William Henry Fox Talbot entwickelte das Negativ-Positiv-Verfahren und so stand der technischen Fortschritten in den folgenden Jahrzehnten nichts mehr im Weg.4 Die Möglichkeit, vom selben Bild mehrere Abzüge machen zu können, war die Grundlage für die gesellschaftliche Verbreitung der Fotografie. Die amerikanische Firma Kodak stellte im Jahr 1888 die tragbare Kamera „Kodak Nr. 1“ vor. Der belichtete Film konnte an die Firma geschickt werden, die daraus Abzüge erstellte. Der Fotoservice gilt als Grundstein für die gesellschaftliche Verbreitung der Fotografie. 

You press the Button. We Do the Rest.

Slogan der Firma Kodak, 1888 5

In den folgenden Jahrzehnten wurden die reproduktionstechnischen Voraussetzungen weiter optimiert. 1924 stellte die Firma Leica eine handliche Kleinbildkamera vor, gefolgt von Ermanox, Rolleiflex und Hasselblad. Ab den 1960er Jahren wurden von Pentax, Nikon und Canon weitere Modelle eingeführt. Kodak festigte dessen Marktanteil mit der Einführung der „Kodak Instamatic“, bei der Filme als Kassetten sehr leicht eingesetzt und gewechselt werden konnten. In 20 Jahren wurden mehr als 150 Mio. Kameras gekauft – ein absoluter Verkaufsschlager. Ein weiterer Meilenstein ist der erste digitale Bildsensor, der 1969 entwickelt wurde. 

Links: Kodak Nr. 1
Rechts: Kodak Instamatic
Quelle: https://www.kodakmoments.eu/de/kodak-historie/

Was die digitale Revolution bewirkte, ist offensichtlich. Doch erst um die Jahrtausendwende erlebte die Massenproduktion an Digitalkameras und Spiegelreflexkameras einen Aufschwung. Die digitalen Medien heute vereinfachen die Erstellung und Verbreitung der Fotos, nahezu jede Person trägt eine kleine Kamera am Smartphone in der Hosentasche. Mittlerweile sind oft auf den ersten Blick kaum Unterschiede zwischen Fotos der neuesten Generation der Smartphones zu Fotos von professionellen Kameras zu erkennen. Die technischen Möglichkeiten der Smartphones werden immer besser. Doch was sich immer noch vom professionellen Fotograf*in zu*r Hobbyfotograf*innen und Knipser*innen unterscheidet, ist die Kompetenz. Amateur*innen nutzen oft die automatischen Einstellungen und sind mit Schnappsüssen, auch wenn leicht überbelichtet oder verwackelt, zufrieden. Dagegen spielen Profifotograf*innen gekonnt mit der Perspektive, Blickwinkel, den Einstellungen wie ISO-Wert, Blende und Belichtungszeit. Sie beherrschen ihr technisches Produkt bis ins kleinste Detail und schöpfen sie zum Zwecke der Bildgestaltung voll aus.6 Aus der unvorstellbaren Anzahl an Fotos, die täglich geknipst und im Internet veröffentlicht werden, ist es sehr schwer, sich von der breiten Masse abzuheben. Amateure entwickeln immer höhere Ansprüche, doch Originalität und Ästhetik zeichnen besondere Fotos aus. 

Zusammenfassend lässt sich festhalten, dass die Fotografie, wie wir sie heute kennen, einen langen Entwicklungsprozess durchgemachte. Jedoch haben bedeutende Meilensteine – wie die Erfindung der Reproduzierbarkeit und Vervielfältigung sowie die des technischen Bildsensors – die Entwicklung vorangebracht.
In der Geschichte der Fotografie entstanden neben Alltags- und Profifotografie auch Kunstformen und Bildtheorien, die im nächsten Blogeintrag betrachtet werden.  


Quellen:

1 Barthes, Roland: Die helle Kammer. Bemerkungen zur Fotografie. Suhrkamp Verlag, Frankfurt a. M., 1989, S. 98
2 Barthes, Roland, Fotografie als Botschaft. 1961. In: Der entgegenkommende und der stumpfe Sinn, Barthes, Roland (Hrsg.): Frankfurt a. M., 1990, S. 14.
3 Ebd.
4 Raddatz, Christoph: Bildmanipulation aus der Perspektive des 21. Jahrhunderts, Vertrauensverlust durch mediale Täuschungen der Rezipienten. Bachelorarbeit, Fachbereich Medien, Hochschule Mittweida, 2009, S. 9 f.
5 “125 Jahre Kodak Moments”, https://www.kodakmoments.eu/de/kodak-historie/ – Zugriff am 24.01.2022
6 Eberle, Thomas S.: Fotografie und Gesellschaft. Thematische Rahmung. In: Fotografie und Gesellschaft. Phänomenologische und wissenssoziologische Perspektiven. Eberle, Thomas S. (Hrsg.), transcript Verlag, Bielefeld, 2021, S. 15

MS Teams Interview

I create a survey for the IDK students about the experience of teams according to my last research about a usability review of MS Team. For this survey, I wrote qualitative questions to answer. First I asked them if they had ever used MS Teams at work or university, and to tell me about their difficulties and apprehensions. Then, I asked them about the different categories of tasks they perform within this software. And finally, I asked them a series of questions about the usability of this software, if it respects the usability criteria of Jacob Nielsen (effectiveness, efficiency, safety, learnability, memorability, satisfaction).

Partcipants

I made sure that the participants were part of my target audience that I had defined just before the survey. So I created it for IDK students. And these participants were between 23 and 24 years old following the Interaction Design, Media Design, and Information Design programs

Before using MS Teams

They have never used MS Teams before the FH Joanneum. This has led to some problems such as problems joining a team, uploading assignments to the platform, or even getting the wrong menus.

While using MS Teams

What kind of tasks are you mostly achieving?

What are the most useful tasks from the list (or not) perform?

Participating to lectures (5X), uploading assignement (2X), screen sharing (2X), easy to collaborate, creating meeting through the call, creating a meeting through the Calendar, download/upload folder.

What are the les useful tasks from the list (or not) perform?

linking application(3X), Creating a meeting through calendar, commenting during lecture, participate to online evaluation, upload folders.

What are the easiest tasks from the list (or not) you perform?

participate to lectures(3X), submitting assignement(2X), Sharing screen(2X), starting a meeting, adding people inside the lecture, writing a comment during a lecture.

What are the most difficult tasks from the list (or not) you perform?

Creating a meeting through the call(2X), Creating a meeting, Sharing screen, writing a message to a specific person, download recent folder.

It appears that the majority of students use the software to participate in classes, upload files and submit assignments. During online classes or other meetings, participants share their screens a lot and have the possibility to write comments. When it comes to the possibility of linking applications within MS Teams, their responses were nil.

Do you use other platforms beside of MS Teams ? Which one ?

So I imagined that if they had the ability to link applications, which ones would be more useful. So I asked them what kind of applications they use next to MS Teams?

After using MS Teams

Is the software perform the tasks you wants to achieve ? and why ?

Mostly yes, The users can perform easily the most basics task like attending a lecture.

Did you get some latency to learn the system and to achieve tasks ?

For some, they got a bit time to learn the system. They had several weeks to get the hang on it.

Did you encountered some problems or errors by navigating inside the system ?

Sometimes the system is a bit confusing (finding the right team for exemple) the user put some efforts to perform one specific task. And some of the errors are due to disfunction of the software.

Can the features make the tasks achievable without time and any effort ?

The answers are a bit middle, they somewhat spend time to realize tasks. Even they memorize the system, time and effort will persist.

Once the system learned, did you memorized how can you perform most of the tasks ?

Yes. After several weeks, they memorize how to perform tasks.

Are you satisfied by using this software ? ( Once using it, also about the visual design..)

They are all satisfied of the software, It is practical to follow course and interact with other people. The fact is that they are some design issues which leads to confusion. Fortunately, they can learn and memorize, but still resides with time and effort. about the design, once like the custom-able part, while the other doesn’t like it very much.

Conclusion

The results of this survey showed that MS Teams is practical and useful for attending online lecture or delivering assignments. All of the participants answered that they didn’t experienced this software, most of them took their time to accomplish task on it. Also, the problem of this software will still residing on time spent and the effort to perform one specific task. After all, the system is still learnable, the users can memorize the tasks they had experienced for a while to perform them. They all said satisfied about this software, it is able to perform tasks and to categorize an amount of information inside. Among the alternative solutions for online course continuity, it would seem that MS Teams meets the essential needs of academics.

Do nature feels ?

What similarities could be between us and nature ? Not the physical aspect for sure, maybe that we both breath, but what about communication and feelings ? Can nature also transmit messages and feel ? Or… even more !

A way of communication between plants – Internet of the forest

Do you know the “wood-wide-web” ? When you go in the forest, hidden under your feet, stands millions of mushrooms connections : the mycellium. Those thread-like strands connects the different mushrooms together, ut also have some connections with the tiniest roots of trees. This type of connection is called mychorrizal network and let the mushrooms trade some nutrients to the tree and receive sugar from it (1).

In addition to that role of symbiosis, mychorrizal networks also allow between different trees about drought, imminent insect attack, weather and so on. Some researchers as Peter Wohlleben (2) go even further and conclude that trees use the communications network to support each other, sharing carbon and “loaning” sugars between tree species, such as between conifers (fir) and deciduous trees (birch).

Anticipation – What if nature could have more senses than us ?

During the 60’s, the american scientist Cleve Backster waas known for his polygraph machine, that was a way of detecting lies by pulse, respiration and galvanic skin response. One day when alone at night in the office, he saw on his desk a plant, and he wanted to test on it the lie-detection machine. In order to get a response from the machine, Backster wanted to cause anxiety to the plant, to get the same state as an human lying. Then he thought about burning one of the leaves. But before he burns it, the machine registered a big response coming from the plant ! Backster was sure : not only had the plant demonstrated fear — it had also read his mind (3).

This can be a bit hard to believe, but some people tried to do the experiment on themselves and had similar results (4). So maybe plants are actually able of more than humans and can anticipate thoughts in a way.

Sources :

  1. The Mushrooming internet of trees, Jack Savage, Forest Society.org, 2018
  2. La vie secrète des arbres, Peter Wohlleben, 2017
  3. Cleve Backster. He talked to plants and they talked back, The New York Times Magazine, Josh Eels
  4. Plants have feelings (primary perception), video from Mythbusters

What is your relationship to nature ?

What is nature ? But, what is nature for you ? How do you interact with it ?

Those are some questions I was asking to myself, but moreover I wanted to have different answers than mine about it. So I did a few interviews to have some other opinions about the perception of nature.

I asked three friends : Andrea (24yo, Spain), Julien (23yo, France) and Ina (23yo, Taïwan) to tell me more about their relationship to nature.

I asked them the following questions :

  1. Can you draw/explain in your own words what is nature for you ?
  2. What is the strongest memory you have of you with nature ? What emotions did you feel ?
  3. How would describe your relationship to nature ? How do you perceive it ?
  4. How often are you in contact with it ? In what ways ?
  5. Do you miss its contact ?
  6. What do you think about how we treat nature nowadays ?

From those interviews, some common answers emerged.

Here are two drawings I got.

In none of them there are humans. The interviewees explained to me that for them, nature didn’t really includes humans. One of the reason is that everything that has been built by humans is not nature. Another answer was that nature was everything that is without human beings.

So only with this first question, I was able to see how in people’s mind, nature was a concept in opposition to the human society.

To the question about the memories, I got two stories talking about volcanos (in Iceland and Italy) and one was about the first time smelling odors of nature. It was the first hike she was doing with her family, and her father taught her that the things she could smell were things of the nature. This story was really cute because it shows how genuine children are and are curious about nature. As adults, we don’t really notice anymore the smell of nature.

Interviewees also agreed that nature was out of the cities. They were all urban people and contact with nature was really rare for them, or with “organised” nature as parks, flowerbeds, pets… But for them, it is also true that we couldn’t live entirely in the nature as past ages because it is too wild for us nowadays.

To the question What do you think about how we treat nature nowadays ?, they all tell me about ecological problems, and they were not satisfied about the current state.

Those interviews confirmed that I was right about the separation we make today between us and nature. It’s perceived as something appart from us. But unfortunately for me, none of them seemed to be really interested in being close to nature again. Why ? Maybe because nature is so excluded from our lives that we forgot it ? Or that we’ve freed ourselves from its boundaries ? There is something to explore about that question of the benefits nature is offering to us, or why we should be close to it again.

To go further, I should continue to do interviews, maybe with people form different ages (grand parents, children) or people that lives out of cities, or people that have really special relationship to nature.

Mindmap of the interviews

“A very long Wait”

#The Topic

“One month after my episode I finally got the device, I wore it for 2 days, and then I gave it back. My doctor called me 10 days after, I will have to go through the process again because she needed more data. So… almost two months will be passed by the time I get a diagnosis. It’s a very long wait”.

This is one comment I got from one of the patients I interviewed. The feeling of being involved in a process that takes a lot of time to give a result back creates a feeling of uncertainty in the patient while waiting for a diagnosis. This can lead either to anxiousness or tedium depending on the patient’s personality.


The old-school Holter devices method of data transmission relies on the patient returning the device, downloading the data to the hospital, and analyzing it by the doctor. In addition to time, the effectiveness of the collected data is questionable due to the fact that these devices record information for two days in which there may or may not be heart rhythm disturbances.

New devices are testing the use of advanced algorithms that allow data to be recorded 24/7, offering clear advantages when it comes to making a proper diagnosis. In addition to this, they allow the possibility of comparing with other data already recorded from patients with similar indications, which can facilitate the analysis process.

The use of this new technology is not yet fully widespread, but it is obvious that this is the way that must be taken to increase the speed of diagnosis, facilitate the doctors’ work, and care about the patient’s mental health. Maybe the use of this type of new generation holters, which can be easily used by patients at home, combined with specific and occasional medical tests (if necessary) carried out in the hospital by more complex devices that can record more interesting data, is the recipe that offers both better results and better user experiences. But, could domestic use devices reach the complexity of hospital devices without leaving aside their comfort of use for the patient? Probably, but when? Is it going to be a very long wait?

Pocket ECG Holter Monitor | New Generation of Holter Monitors

Warum haben wir Bilder gern?


Sie geben uns Information, die wir schneller und unter weniger Anstrengung und auch weniger bewusst wahrnehmen können.

Fotografie bietet uns im Gegensatz zu jeglichen anderen Arten der Abbildung die Wirklichkeit. Oder zumindest die falsche Wirklichkeit. Der Mensch glaubt, das reale Produkt, die reale Person oder die realen Gefefühle abgebildet zu sehen. Werbung will unsere Aufmerksamkeit gewinnen. Fotografie (bzw. realistische computergenerierte Modelle) gibt visuelle Stimulation und lässt Menschen etwas “echtes” sehen. Dies vermittelt einerseits Vertrauen. Andererseits ist die Möglichkeit, Produkte und vor allem Details so realistisch abzubilden für den Menschen ungewohnt und neu, was Aufmerksamkeit an sich zieht.

Technische Fortschritte ermöglichen neue Arten von Bildern zu machen

Technische Fortschritte ermöglichen es etwa, Realität mit unwirklichen Elementen zu kombinieren oder immer feiner und detailreicher zu werden. Der Mensch nimmt trotzdem etwas “Echtes” wahr und ist nocheinmal mehr von der Unmöglichkeit gefasst.

Ein unwirkliches Bild wirkt als Fotografie, also als Abbildung der Wirklichkeit trotzdem real

Weil Bilder im besten Fall die Wirklichkeit vorgaukeln, sind sie oft auch einfach schöner als die Wirklichkeit -> weil Kompositionen den Wunsch des Gehirns nach geordneten Systemen befriedigen und weil das Wesentliche wahrgenommen werden kann, ohns ich anstrengen zu müssen.

Das Auge muss nicht auf ein Element fokussieren. Da das Bild in einer Ebene liegt, ist die Arbeit des “Objektfokussierens” für den Menschen schon getan.

Ein Bild ist meistens soweit verkleinert, dass man das darauf gezeigte mit einem Blick erfassen kann. Große reale Objekte mit hin- und hergehenden Blicken zu scannen ist beim Bild nun nicht nötig.

Beim Betrachten eines Bildes ist klar: jetzt geht es nur um visuellen Input. Sich auf andere Sinneseindrücke zu konzentrieren braucht man hier nicht.

Ein Bild stoppt die Zeit. Wir können Momente sehen, die sonst viel zu schnell vorbeigehen würden, um sie bewusst wahrzunehmen. Und brauchen uns damit auch keinen Stress machen. Das Bild kann lange und ruhig angesehen, analysiert werden, ohne in die abgebildete Situation eingreifen zu müssen. (Z.B. Unfallmoment).

Anders als beim sehen des realen Inhaktes: Objekte, die für den Inhalt nicht relevant sind, können weggelassen werden. Wichtige Objekte können in eine sinnvolle Komposition gebracht werden.

Die Abbildung kann den Inhalt bei bestmöglichen Verhältnissen einfangen und dem Menschen zeigen. Er muss dafür nicht zu bestimmtem Wetter an einen bestimmten Ort.

Ein Bild ist in seinen (meistens vier) Seiten “eingesperrt”. Unterbewusst geht seitlich des visuellen Reizes keine Gefahr für Betrachter oder Betrachterin aus. Es beruhigt.


Abbildungen sind Sozial

Wichtig ist dann noch die Frage, was das Gehirn mit wahrgenommenen Bildern eigentlich macht. Ein wichtiger Bereich unseres Gehrins für die Wahrnehmung von Abbildungen ist zum Beispiel jener, der für das Erkennen von Gesichtern zuständig ist.

Welches Gesicht vermittelt einen bedrückten und welches einen selbstbewussten Eindruck?

Menschen finden Sympathie in Abbildungen mit anderen Menschen. Aber auch bei Comicfiguren, Mascottchen, Tiere oder Icons werden Gesichter wahrgenommen. Sogar bei Autos wird darauf geachtet, sie oft von vorne abzubilden, weil Scheinferfer ect. einer Gesichtsstrucktur ähneln und daher unterbewusst mehr Aufmerksamkeit erregt. Dann spielt der Gesichtsausdruck natürlich auch eine Rolle. Um Emotionen zu erzeugen ist ein abgebildetes Gesicht ein schneller weg. Emotionales Spiegeln ein instinktiver Automatismus der meisten Menschen um Befindlichkeiten anderer einzuschätzen. Automatisch macht man das Gegenüber nach – und fühlt sich dann selbst so. (Du lächelst – ich lächle – ich freue mich).


Schuster, M.: Fotos sehen, verstehen, gestalten. Eine psychologie der Fotografie. Berlin: Springer 2005

Siegert, G. Brecheis, D.
Werbung in der Medien- und Informationsgesellschaft. Eine kommunikationswissenschaftliche Einführung.

welt.de, Warum Menschen Stimmungen aufsaugen wie ein Schwamm.

Typografie – ein kurzes Glossar

Den Unterschied zwischen Typeface und Font merkt man sich noch recht leicht. Doch wer (oder was) gehört zur Schriftfamilie und wie ist das Verwandtschaftsverhältnis zur Schriftsippe? Was sind Schriftfetten im Gegensatz zu Schriftbreiten und gibt es ein Reglement für Bezeichnungen von extra light über halbfett bis ultra? Wie unterscheidet man eine echte Kursive von einer unechten? Was verbirgt sich typografisch hinter dem Begriff Displays und warum sollten Grafiker:innen ein Auge für die Schriftkontur entwickeln? Fragen über Fragen, die ich als Designerin beantworten können möchte. Beschäftigt man sich mit Schrift und Typografie, ist eine detaillierte Auseinandersetzung mit typografischen Begriffen unumgänglich. Es ist wie beim Sprachenlernen: Ohne Vokabeln geht’s nicht. Deshalb möchte ich diesen Beitrag der Klärung einiger Begriffe widmen, die ständige Begleiter in der Arbeit mit Schrift sind (oder sein sollten).  

1 Schrift(art), Typeface, Schriftschnitt und Font

Was wir im Deutschen mit Schrift oder Schriftart bezeichnen, heißt im Englischen Typeface. Also Helvetica ist eine Typeface. Typefaces tragen Namen und unterscheiden sich in bestimmten Designmerkmalen der Glyphen, zum Beispiel das Vorhandensein oder Fehlen von Serifen, Proportionen oder Ausrichtung von Buchstaben. Schrift(arten), also Typefaces, können unterschiedlich klassifiziert werden – dies wurde bereits näher im vorhergehenden Beitrag diskutiert. Es gibt Serifen-Typefaces und serifenlose Typefaces, dekorative Typefaces und Script-Typefaces usw. Wichtig dabei ist, dass eine Typeface alle Schriftschnitte einer Schrift meint.

Schriftschnitt, im Englischen Font, bezeichnet im Gegensatz die unterschiedlichen Ausformungen, die es von einer Typeface gibt: von leicht über normal bis halbfett und fett, von extraschmal bis extrabreit. Ein Font ist also immer ein Teil einer Typeface. Auch kursive Schnitte sind Fonts einer Typeface. Garrick Webster, Blogger von creativebloq.com erklärt den Unterschied zwischen Typeface (Schrift/Schriftart) und Font (Schriftschnitt) wie folgt: „The main difference between a ‘font’ and a ‘typeface’ is that the former exists as part of the latter. Helvetica is a typeface – a complete set of sans serif characters with a common design ethos. However, it is made up of a whole collection of fonts, each in a specific weight, style and size, with different levels of condensation as well as italic versions.“ 

Friedrich Forssman verwendet den Begriff Font nur für den digitalen Schriftsatz. Er schreibt dazu: „In digitalen Schriftdateien ist jeweils ein Schriftschnitt in einem Font abgelegt. […] Darunter sind auch interne Steuerungszeichen, wie die Anweisungen für den Wortzwischenraum oder einen Zeilenwechsel […]“. (vgl. 2004:49). Obwohl die Begriffe Typeface (Schrift/Schriftart) und Font oft synonym gebraucht werden, verwenden wir sie in ihrer Anwendung automatisch richtig – da Desktop-Publishing-Programme auf deren korrekte Anwendung ausgelegt sind. Zuerst wählen wir eine Schrift (Typeface) aus und danach stellen wir den gewünschten Schnitt (Font) in einer bestimmten Schriftgröße ein, erklärt Garrick Webster von Creative Blog weiter: „The reason we focus on fonts today is largely as a result of desktop publishing and word processing applications, which have a font menu. When you click it, you get a list of typefaces to choose from – Arial, Baskerville, Caslon etc – and from there you set the specifics of the font – Medium Italic 16 point, for example.“

2 Schriftfamilie versus Schriftsippe 

Die Ausgangsschrift jeder Typeface ist in der Regel die Normale. Abgeleitet von diesem normalen Schriftschnitt gibt es noch weitere Schriftschnitte – zum Beispiel einen leichten, halbfetten oder fetten Schriftschnitt. Auch die Kursive ist eine Ableitung der Normalen. All diese Schnitte gemeinsam bilden eine Schriftfamilie. Dass eine Schriftfamilie aus mehreren Schnitten besteht ist für komplexere typografische Arbeiten Voraussetzung, da man für Auszeichnungen innerhalb des Textes, für Überschriften oder zur Kennzeichnung unterschiedlicher Textebenen mehrere Schnitte benötigt (vgl. Forssman 2004:59).

Bei manchen Schriften existiert neben der Schriftfamilie mit ihren unterschiedlichen Schnitten auch noch eine Schriftsippe. Eine Schriftsippe hat mehrere Ausgangsschriften, also mehrere Normale: ohne Serifen, mit Serifen oder noch eine weitere mit extra betonten Serifen. Von manchen Schriften gibt es, zum Beispiel, eine Serif-Variante, eine Grotesk sowie eine Semi-Serif-Variante, also eine Schriftfamilie, bei der die Buchstaben an manchen Endungen Serifen aufweisen und an manchen nicht. Gemeinsam bilden die drei Schriftfamilien eine Schriftsippe. Die Ausgangsschriften einer Schriftsippe werden durch ihre stilistische Übereinstimmung zusammengehalten.  Die Rotis von Otl Aicher oder die Thesis von Luc de Groot wären Beispiele für solche Schriftsippen (vgl. Forssman 2004:66).

Eine einzelne, gut ausgebaute Schriftfont enthält Groß- und Kleinbuchstaben sowie Kapitälchen, Satzzeichen, Ziffern, Ligaturen, Akzentbuchstaben sowie Akzente. Darüber hinaus sind oft mathematische und physikalische Zeichen, Währungszeichen und andere Sonderzeichen und einige griechische Buchstaben im Font enthalten. Nachfolgend möchte ich nun die einzelnen Mitglieder einer Schriftfamilie näher betrachten.

3 Mitglieder einer Schriftfamilie

Wie bereits erwähnt, bildet die Normale die Ausgangsschrift einer Schriftfamilie. Von ihr stammen die restlichen Mitglieder ab.  

Die Kursive 

Die klassische Auszeichnungsschrift zur aufrecht stehenden Antiqua ist die Kursive. Forssman und de Jong nennen sie auch die „Schwester“ der Normalen (2004:59). Kursive Varianten gibt es bereits seit dem frühen 16. Jahrhundert als Satzschriften. Anfangs war die Kursive weniger als Ergänzung, sondern als Alternative zur Normalen gedacht. Es dauerte aber nur kurze Zeit, bis die beiden aufeinander abgestimmt zur gemeinsamen Verwendung geschnitten wurden. Die Kursive leitet sich von der flüssig zu schreibenden Kurrentschrift ab. Ihr entscheidendes Merkmal ist der handschriftliche Duktus, also die Art der Linienführung, in der der Schwung der federgeschriebenen Kurrentschrift erhalten bleibt. Innerhalb der Kursiven gibt es Varianten, die stark geneigt sind und andere, die nahezu aufrecht scheinen. Prinzipiell unterscheidet sich die Kursive von der Normalen neben dem Duktus auch durch die Farbe, also den Grauwert den der kursive Text aufweist. In Bezug auf die Auszeichnung des Textes wird die Kursive traditionell für kurze Zitate, Titel sowie fremde Sprache verwendet.  

Echte Kursive versus unechte Kursive

Wie eingangs erwähnt gibt es echte und unechte kursive Schriften. Während die echte Kursive eine eigens gezeichnete Schrift ist, wird die unechte lediglich elektronisch „kursiviert“ – also der normale Schriftschnitt einfach schräggestellt. Diese Möglichkeit bieten nahezu alle Textprogramme, sollte im professionellen Satz aber vermieden werden, weil das Ergebnis zumeist unschön ist. Echte Kursive unterscheiden sich also stark von unechten. Das liegt auch daran, dass einige Buchstaben der echten Kursiven andere Formen haben:

  • Das kursive a hat meist keinen Bauch.
  • Im kursiven e verschmelzen Rundung und Querbalken. 
  • Das kursive f hat eine Unterlänge. 
  • Das kursive g hat oft eine anders geformte Unterlänge als das gerade. 

Jedoch weisen nicht alle Kursiven alle diese Merkmale auf (vgl. Forssman 2004:59).

Geneigte Schriften (oblique / slanted / slope roman)

Des Weiteren gibt es kursive Schriften, die nicht aus kursiven Formen – wie oben beschrieben – aufgebaut sind. Diese bezeichnet man nicht als echte Kursive, sondern als geneigte Schriften oder oblique. Im Englischen werden sie auch slanted oder slope roman genannt. Oblique-Schriften sind keine elektronisch verzerrten Schriften, sondern Normale, die durch die Schriftgestalter:innen kontrolliert geneigt wurden. Die Strichstärken und Kurvenverläufe sind so bearbeitet, dass unerwünschte Verdickungen korrigiert sind. 

Alternate Fonts und Zierbuchstaben

Für manche Schriften gibt es alternative Buchstabenformen, zusätzliche Ligaturen und Schmuckelemente. Diese sind in eigenen Fonts, also eigenen elektronischen Schriftdateien untergebracht und werden als alternate fonts bezeichnet. Bei Kursiven bezeichnet man alternative Buchstaben auch als Zierbuchstaben (vgl. Forssman 2004:62). Bei vielen Schriften nehmen diese alternativen Buchstaben sehr üppige Formen an, weshalb sie nur selten und oft nur am Anfang oder Ende von Worten verwendet werden können. Für längere Texte sind ausgefallene Buchstaben nicht geeignet – für Titel eignen sie sich jedoch gut und bieten sparsam eingesetzt eine einfache Möglichkeit für reizvolle Kontraste. 

3.3 Ligaturen

Ligaturen sind Zeichen, die aus mehrere verbundenen Buchstaben bestehen. Sie sollen störende Lücken vermeiden und betonen im Deutschen zudem Lauteinheiten. Deshalb sind Ligaturen vor allem bei zwei aufeinanderfolgenden Buchstaben mit Oberlänge häufig (f,l,i,t), da ohne Verbindung eine unschöne Lücke zwischen den Oberlängen entstehen würde. 

Ligaturen können in allen Sprachen gesetzt werden. Ausnahmen bilden im Deutschen Wortfugen, also der Übergang zwischen zusammengesetzten Worten, zum Beispiel zwischen „Stoff“ und „Igel“ bei „Stoffigel“. Auch wenn die Laufweite vergrößert wird, dürfen keine Ligaturen mehr verwendet werden, da diese Buchstaben ja zusammengesetzt bleiben. Eine besondere Ligatur ist das &-Zeichen, das aus der Verbindung von e und t entstanden ist. In manchen Schriften sind im &-Zeichen diese beiden Buchstaben noch erkennbar.

Kapitälchen

Zeitgleich mit der Kursiven entstanden ebenso ab dem 16. Jahrhundert bereits die Kapitälchen: Versalien (Großbuchstaben) in der x-Höhe der Kleinbuchstaben (oder ein wenig darüber hinaus). Kapitälchen haben eine größere Laufweite (Buchstabenabstand) als normale Versalien und ihre Strichstärke wurde an die Kleinbuchstaben angepasst. Aufgrund des Unterschieds in der Zeichnung von Kapitälchen und Großbuchstaben, dürfen Kapitälchen niemals durch verkleinerte Großbuchstaben ersetzt werden. Auch wenn verkleinerte Großbuchstaben eines dickeren Schriftschnittes echten Kapitälchen oft sehr ähnlich sehen, stellen sie im korrekten typografischen Satz keine Alternative dar. In ihrer Form entsprechen Kapitälchen jedoch den Großbuchstaben, weshalb sie kein „scharfes ß“ besitzen. Wie bei Versalien muss dieses immer durch zwei „s“ ersetzt werden. 

Fetten und Breiten 

Leichte, halbfette, fette und schmale, breite oder extrabreite Schnitte entstanden im Gegensatz zur Kursiven und den Kapitälchen erst wesentlich später. Der Begriff Fette bezeichnet die Strichstärke, die von leicht (extramager), mager, normal bis halbfett, fett und extrafett (ultra) reichen kann – also immer „fetter“ wird. Die Breite meint die Ausdehnung der Buchstaben in ihrer Breite, also ob die Buchstaben extraschmal oder schmal, normal, breit oder extrabreit gezeichnet sind. Buchstabenbreiten können auch elektronisch verändert werden: 100 Prozent gibt dabei die vom Schriftgestalter vorgegebene Breite an, die jeweils in Prozentschritten verbreitert oder geschmälert werden kann. Diese Art der Zurichtung sollte aber vermieden werden, da sie immer zu unschönen Ergebnissen führt. Stattdessen verwendet man vorhandene schmale oder breite Schriften.  

Eine der ersten Schriften, die als Systemschrift mit systematisch aufeinander abgestimmten Fetten und Breiten, jeweils aufrecht und kursiv, auf den Markt kam, war die Univers aus dem Jahr 1957. 

Display-Schriften 

Von vielen Schriften gibt es Text-Varianten sowie Display-Varianten. Der Grund ist, dass die meisten Schriften, die für den Einsatz in Lesegraden (circa 8 bis 12 pt) optimiert sind, in Schaugraden, also in großer Größe, nicht gut aussehen. Deshalb werden zusätzlich Display-Schnitte gezeichnet, bei denen die Proportionen und Strichstärkenkontraste für große Schriftgrößen abgestimmt sind. In der Regel sind Displays schlanker und haben elegantere Proportionen. Der Unterschied zwischen Grund- und Haarstrichen darf bei Displays größer sein als bei Textschriften, da ein zu großer Kontrast bei Lesegraden für eine schlechte Lesbarkeit sorgen würde. 

Ornamente 

Unter Ornamenten versteht man in der Typografie typografische Schmuckelemente, Rahmen und Linien, die passend zur Ausgangsschrift gezeichnet wurden und gut mit dieser verwendet werden können. Sie stammen aus der Zeit vor dem digitalen Satz, wurden jedoch bei manchen Schriften ebenso digitalisiert und sind in der Font-Datei enthalten. Forssman und de Jong warnen davor, Ornamente oder Schmuckinitialen in übertriebenem Maße einzusetzen, argumentieren jedoch auch, dass mit ihnen – gezielt eingesetzt – Leichtigkeit und Eleganz vermittelt werden können. Gerade auf Verpackungen von Lebensmitteln oder Kosmetika, bei Anzeigen, Geschäftsdrucksorten oder Büchern können Ornamente den Stil der Gestaltung positiv unterstützen. Ein genaues Regelwerk gäbe es aber nicht, so Forssmann und de Jong. Nur so viel: So beweglich und bezaubernd sie sein können, müssten sie aber immer „wertvolle Untertanen des Gestaltungszusammenhanges bleiben.“ (Forssman 2004:185). 

Ziffernformen

Das Wort Ziffer meint die grafischen Zeichen 0–9, die in einem Text zu Zahlen werden. Man unterscheidet einstellige und höhere Zahlen. Höhere Zahlen werden aus mehreren Ziffern gebildet, zum Beispiel 234 aus 2-3-4. 

Je nach Schrift hat man zwei bis vier (manchmal sogar noch mehr) Ziffernsets zur Verfügung. Typografisch unterscheidet man:

  • Versalziffern (lining numerals): Ziffern auf Großbuchstabenhöhe; teils etwas kleiner
  • Mediävalziffern (oldstyle numerals): Ziffern auf Kleinbuchstabenhöhe, die Ziffern 3,4,5,7,9 mit Unterlänge
  • Kapitälchenziffern: entsprechen Versalziffern in Kapitälchengröße 

In Mengentexten sollten immer Mediävalziffern zum Einsatz kommen, da sie sich gut in den Textfluss einfügen. Für kurze Texte, Titel oder in Fußnoten können auch Versalziffern zum Einsatz kommen – sobald aber ein Lesefluss entstehen sollen, sind Mediävalziffern das Ziffernset der Wahl.  

Von jedem Ziffernset sollten in einer Schrift eine proportionale Variante und eine für Tabellen zur Auswahl stehen. Proportionalziffern haben – wie Buchstaben – unterschiedliche Breiten und sind für den Einsatz im Text geeignet. Tabellenziffern haben immer dieselbe Schriftbreite, weshalb sie sich gut für den Einsatz in Tabellen bzw. für einen Satz eignen, in dem die Ziffern untereinander angeordnet werden müssen. 

Ergänzungszeichensätze 

Für einige typografische Arbeiten sind besondere Zeichen erforderlich. Diese findet man in DTP-Programmen wie Indesign normalerweise unter Glyphen. Ergänzungszeichensätze gibt es, zum Beispiel, für den mathematischen Satz, für den Fremdsprachensatz oder den Satz phonetischer Zeichen. 

Da es nur wenige Schriften gibt, die einen umfassenden Sonderzeichensatz anbieten, raten Forssman und de Jong, unbedingt noch vor der Entwurfsphase die Verfügbarkeit von eventuell benötigten Sonderzeichen zu überprüfen (vgl. 2004:64). Eine jener Schriften, die über ein sehr gut ausgebautes Repertoire an Ergänzungszeichen verfügt ist die Times – sie bietet sogar sehr viele Fremdsprachenfonts an, was gerade in Übersetzungsfällen praktisch ist.  

Anmerkung: Schriftbezeichnungen innerhalb der Schriftfamilie

Die Bezeichnungen der verschiedenen Schriften einer Schriftfamilie unterliegen keiner Regel – eine Schrift, die von einem Schriftgestalter als „fett“ verkauft wird, empfindet ein anderer vielleicht nur als „halbfett“. Darüber hinaus werden unterschiedliche Bezeichnungen für denselben Schnitt verwendet. Forssman und de Jong stellen eine Übersicht über die gängigsten Bezeichnungen auf Deutsch, Englisch und Französisch zur Verfügung (vgl. Forssman 2004:65). 

Anmerkung: Schriftenhersteller 

Da sich Schriften mit gleichem Namen von verschiedenen Herstellern erheblich unterscheiden können, setzen viele Schriftenhersteller ihren Namen oder ein Buchstabenkürzel vor oder nach die Bezeichnung der Schrift, um identifiziert werden zu können. So stehen beispielsweise ein „A“ für Adobe Systems Inc., „ATF“ für Kingsley/American Typefounders Type Corp., „ITC“ für International Typeface Corporation oder „MT“ für Monotype Corporaten. Eine Liste der bekanntesten Schrifthersteller findet sich in Forssmanns und de Jongs Detailtypografie.

4 Die Schriftkontur 

Ein Großteil der Schriften, die man für den Digitalsatz kaufen kann, sind keine neuen Entwürfe, sondern basieren auf bestehenden Schriften. Viele dieser Ursprungsschriften gehen noch auf den Handbleisatz zurück, wurden für den Maschinensatz zugerichtet, dann für die Fotosatzmaschine umgearbeitet und schlussendlich erst digitalisiert. Bei jeder dieser Stationen war es notwendig, Anpassungen für die technischen Verhältnisse vorzunehmen –  und jedes Mal musste die Schriftkontur interpretiert und neu gezeichnet werden. Viele dieser Anpassungen betrafen wichtige Bereiche wie die Zurichtung der Schrift (Dicktenausgleich) oder die Proportionen zwischen x-Höhe und Ober- und Unterlänge. Dadurch kann es passieren, dass Schriften, die nicht sorgfältig digitalisiert wurden, viel an ursprünglicher Eleganz und Präzision verloren haben. Forssman und de Jong argumentieren, dass solche Schriften in Lesegraden womöglich noch gut funktionieren, sich die Fehler in der Schriftkontur jedoch in Displaygrößen offenbaren. Als Grafiker:innen sollten man deshalb ein Auge für die Schriftkontur entwickeln und je nach Einsatz entscheiden, ob sich eine Schrift eignet oder ob etwaige Mängel sogar ihren Reiz haben. 

5 Das typografische Maßsystem

Das typografische Maßsystem hat sich über mehr als zwei Jahrhunderte zur Zeit des Handbleisatzes entwickelt. Darauf folgten die Linotype- und Monotype-Satzmaschinen, danach die kurze Zeit der Fotosatzmaschine und schlussendlich der Siegeszug des digitalen Satzes. Der Punkt ist die Einheit des typografischen Maßes und wurde über die zuvor genannten Etappen immer wieder neu definiert. Heute existieren drei unterschiedliche Punkte: 

  • Fournier-Punkt
  • Didot-Punkt
  • Pica-Point

Der Punkt ist als Angabe für die Schriftgröße und den Zeilenabstand nach wie vor von Bedeutung. Alle anderen Maße werden heute mit dem metrischen Maßsystem, also in Zentimeter oder Millimeter, angegeben. 

In Europa entwickelte sich von Frankreich aus zuerst der Fournier-Punkt und in der Folge der Didot-Punkt. Im 19. Jahrhundert boomten in Amerika die Schriftgießereien, was zur Einführung des amerikanischen Pica-Points führte. Ende des 19. Jahrhunderts wurde der Pica-Point von britischen Druckern übernommen und seit Mitte des 20. Jahrhunderts ist er das Standardmaß für Schriftgrößen und Zeilenabstände im gesamten Computersatz. Wer heute also Punkt sagt oder pt schreibt, meint den Pica-Point. 

Schriftgrad vs. Schriftgröße

Der Begriff Schriftgrad stammt aus dem Bleisatz und meint die unterschiedlich großen Ausführungen einer einzelnen Schrift. Bei den Zeichnungen der Schriftgraden wurden die Unterschiede in der optischen Wahrnehmung und die technischen Anforderungen des Drucks von sehr kleinen und sehr großen Schriften berücksichtigt. Aus diesem Grund unterscheiden sich die Zeichnungen für kleine und große Grade deutlich. 

Im Gegensatz dazu kennt der Digitalsatz keine individuell gezeichneten Schriftgrade. Kleine und große Schriften werden aus derselben Schriftkontur erzeugt, d.h. digitale Schriften werden linear vergrößert oder verkleinert. Deshalb sprechen wir heute nicht mehr von Schriftgraden, sondern von Schriftgrößen. Die stufenlose Vergrößerung ist praktisch, hat aber andererseits den Nachteil, dass Schriften eigentlich nur in den für sie vorgesehenen Größen gut aussehen. Für dieses Problem gibt es heute zwei Lösungen: Die gängigere Lösung sind zusätzlich zu den Text-Schriften vorhandene Designgrößen der Schriften – beispielsweise Display- oder Titling-Varianten. Adobe Systems bietet häufig bereits vier Designgrößen an: 

  • Caption (6–8 pt)
  • Regular (9–12 pt)
  • Subhead (14–24 pt) 
  • Display (25–72 pt) 

Die zweite Lösung sind Variable Fonts – eine Weiterentwicklung der komplexen Multiple Master-Schriften, mit denen bereits in den 1990ern Schriftgrößen entlang von Design-Achsen stufenlos verstellbar waren. Je nach Konzeption bieten Variable Fonts die Möglichkeit Schriften entlang von unterschiedlichen Designachsen linear zu interpolieren. Dies betrifft nicht nur die Schriftgröße, sondern kann auch Breite, Fette, Neigung und Strichtstärkenkontrast betreffen. Während man bei herkömmlichen Schriften für mehrere Schnitte auch mehrere Schriftdateien installieren muss, besteht eine Variable Font aus nur einem Font File, in die die variablen Interpolationsachsen integriert sind (vgl. Beinert 2021). 

Pica-point und DTP-Punkt

Nimmt man es genau, unterscheidet sich der heute im Digitalsatz verwendete Punkt nochmals vom Pica-Point – er ist eine leicht modifizierte Variante des Letzteren und wird oft auch DTP-Punkt genannt. Der Unterschied zum Pica-Point wird jedoch erst ab der dritten Kommastelle sichtbar. Wie zuvor bereits erwähnt, wird der DTP-Punkt nur mehr für die Schriftgröße und den Zeilenabstand verwendet. Satzbreite, Seitenränder und Papierformat werden in Europa in Millimetern angegeben. 

Schriftgröße vs. Schriftbild

Im Bleisatz bezeichnete der Schriftgrad die Größe des Schriftkegels, dem Metallklötzchen, auf das das zu druckende Zeichen gegossen wurde. Da aus technischen Gründen das Zeichen immer etwas kleiner sein musste als der Kegel, gab der Schriftgrad nur mittelbar die Größe des Schriftbildes an – aber immerhin. Im digitalen Satz gibt es nur virtuelle Kegel, deren Verhältnis zur Größe des Schriftbildes jedoch nicht festgelegt ist. Im Digitalsatz, in dem wir heute alle arbeiten, kann das Verhältnis zwischen virtuellem Kegel und Schriftbildhöhe also variieren: die Schriftbildgröße kann wie im Bleisatz etwas kleiner sein als der Kegel, genau gleich groß oder den Kegel sogar überragen. Obwohl Schriften im digitalen Satzsystem mit derselben Schriftgröße gesetzt werden und damit nominell gleich groß sind, können sie sich optisch stark unterscheiden. Damit hat die Schriftgröße in Punkt bei digitalen Fonts eigentlich wenig Aussagekraft. Fazit: Es gilt immer die tatsächliche Größe des Schriftbildes zu messen. 

Versalhöhe, Vertikalhöhe, x-Höhe und Schriftlinie 

Für die Versalhöhe wird die Höhe der Großbuchstaben ohne Versalakzente (also E und nicht É) gemessen. Für das Maß bietet sich das H mit seiner geraden Ober- und Unterseite an. Das O ist aus optischen Gründen immer etwas höher als das H. Die Vertikalhöhe meint die maximale vertikale Ausdehnung der Schrift – ebenfalls ohne Versal-Akzente, aber einschließlich aller Ober- und Unterlängen der Kleinbuchstaben. Mit der x-Höhe misst man die Basishöhe der Kleinbuchstaben, zum Beispiel die Höhe des kleinen x mit seinen geraden Abschlüssen. Die Schriftlinie bezeichnet die Linie, auf der die Buchstaben (ohne Unterlänge) sitzen. 

6 Begriffe der Schriftbearbeitung:
Zurichtung, Kerning, Laufweite (Spacing), Randausgleich 

Sich das Regelwerk der Schriftbearbeitung in diesem Beitrag genauer auszusehen, würde den Rahmen sprengen. Trotzdem möchte ich abschließend noch kurz auf Begrifflichkeiten eingehen, um die man in der typografischen Arbeit nicht umhinkommt. Damit eine Schrift gut aussieht, müssen nicht nur die einzelnen Buchstabenformen sorgfältig gezeichnet oder digitalisiert worden sein, sondern auch der Rhythmus der Zeichen muss stimmen. Dieser Rhythmus hängt von der Zurichtung, dem Kerning und der Laufweite ab. Treffen zudem unterschiedliche Schriftgrößen aufeinander, muss auch der Randausgleich beachtet werden. 

Die Zurichtung  

Die Zurichtung einer Schrift beschreibt ihren Dicktenausgleich. Das Festlegen einer bestimmten Breite für jedes Zeichen und die Position des Zeichens innerhalb dieser Breite nennt man Zurichten. Zurichtung ist Aufgabe der Schriftgestalter:innen bzw. Schrifthersteller – wenn die Zurichtung der Schrift nicht gut ist, ist sie nicht verwendbar. 

Kerning

Kerning meint das Ausrichten von Zeichenpaaren. Der deutsche Begriff ist Unterschneiden und meinte ursprünglich im Bleisatz das Engermachen von Zeichenpaaren durch das Wegschneiden von nichtdruckenden Teilen. Im digitalen Gebrauch kernt man durch die Eingabe von Minus- oder Pluswerten, wodurch die jeweiligen zwei Zeichen auseinander oder zusammenrücken. Kerning hat grundsätzlich zwei Aufgaben: Da Buchstaben unterschiedliche Formen haben, würden manche Paar-Kombinationen zu eng oder zu weit sitzen. Hier muss durch Unterschneiden entgegengewirkt werden. Die zweite Aufgabe ist das Spationieren von Interpunktion. Interpunktionszeichen sitzen oft viel zu eng an den Buchstaben. Das kann auch bei eigentlich gut gekernten Schriften der Fall sein, weshalb es sich auch als Grafiker:in lohnt, sich näher mit Kerning zu beschäftigen.  

Ob eine Schrift gut oder schlecht gekernt ist, erkennt man an unterschiedlichen Zeichenkombinationen:  

  • zu eng stehende Buchstaben – typisch sind „Wo“, „To“ oder „Te“
  • sich berührende Buchstaben – typisch sind „fk“, „fh“, „(j“, „f)“, „f?“ oder „fä“
  • zu eng stehende Kombinationen aus Buchstaben und Satzzeichen – zum Beispiel „l!“ oder „g:“ 
  • gute Musterzeile zur Kontrolle: Aufhalten (ja auf) Wolf? Torf Tell!; fährt.

Obwohl man in DTP-Programmen die Möglichkeit hat, das Kerning einer Schrift zu verändern, sollte man in der Praxis besser auf gut gekernte Schriften setzen und das Kerning nur im Notfall – etwa wie zuvor beschrieben bei wirklich zu eng stehenden Interpunktionen – bedienen. 

Laufweite

Die Laufweite meint den generellen Buchstabenabstand – also nicht nur von zwei Zeichen wie beim Kerning, sondern zwischen allen Zeichen. Abhängig von der Laufweite haben die Buchstaben eher viel Abstand oder die Schrift läuft gegenteilig eher eng. Die Laufweite kann in Satz- oder Layoutprogrammen durch die Eingabe von positiven oder negativen Werten leicht beeinflusst werden, was durchaus häufig von Nöten ist. Viele Schriften benötigen eine Laufweitenkorrektur abhängig von ihrer Schriftgröße. Die Faustregel nach Forssman und de Jong lautet hier: Kleine Schrift eher weit halten, große Schrift eher eng (vgl. 2004:93). 

Randausgleich

Durch die verschiedenen Buchstabenformen und Satzzeichen ergibt es sich, dass die linke Satzkante im Flattersatz und zusätzlich auch die rechte Satzkante im Blocksatz etwas unruhig wirken. Beispiele hierfür: Ein „T“ oder ein Gedankenstrich „–“ am Zeilenfang bringen einen gewissen Weißraum mit, ein Trennstrich oder ein Punkt am Zeilenende haben weniger Substanz als ein „d“ oder ein „l“. In DTP-Programmen kann man einen Randausgleich einstellen. Dies bedeutet, dass man für bestimmte Zeichen wie „T“ oder „–“ Werte festlegt, damit diese ein wenig über die rechte oder linke Satzkante hinausgeschoben werden. Das individuelle Setzen des Randausgleichs erfordert Fingerspitzengefühl und kann auch zu schlechteren Ergebnissen führen als ein Satz ohne Randausgleich. Für Forssmann und de Jong ist er deshalb in der Regel verzichtbar. (Anzumerken ist jedoch, dass es in gewissen DTP-Programmen wie Indesign die Möglichkeit des optischen Randausgleichs gibt, was auf relativ einfachem Wege den Blocksatz schöner ausrichtet.)


Literatur

Beinert, Wolfgang. Variable Fonts [online]. Typolexikon, 2021-08-30 [Letzter Zugriff am 2022-01-24]. Verfügbar über: https://www.typolexikon.de/variable-fonts/

Forssman, Friedrich und de Jong, Ralf. Detailtypografie. Mainz: Hermann Schmidt, 2004. 

Perraudin, Daniel. Mikrotypografie – Typografie 1 [Vorlesungsunterlagen]. Verfügbar über: auf Anfrage. 

Webster, Garrick. Font vs typeface: ultimate guide [online]. Creative Bloq, 2019-07-04 [Letzter Zugriff am 2022-01-25]. Verfügbar über: https://www.creativebloq.com/features/font-vs-typeface

Bildnachweise

Falls im BU nicht anders angegeben: © Karin Schmerda