Will 3D audio make remote simultaneous interpreting a pleasure?

Now THAT’S what I want: Virtual Reality for my ears!

Apparently, simultaneous interpreters are not the only ones suffering from Zoom fatigue, i.e. the confusion and inability to physically locate a speaker using our ears can lead to a condition that’s sometimes referred to as “Zoom Fatigue”. But it looks like there is still reason to hope that, acoustically, video conferences become more of a pleasure and less of an ordeal in years to come. At least that’s what current discussions around this topic make me hope … This (four year old!) video by BBC Click illustrates quite nicely what 3D sound for headphones is about:

https://www.youtube.com/watch?v=51za5u3LtEc&feature=youtu.be

Binaural recording is a method of recording sound with the intent to create an immersive 3D stereo sound sensation for the listener of actually being in the room with the performers. A dummy head, aka „Kunstkopf“, is used for recording, which has two dummy ears in the shape of human ears with microphones in them so as to simulate the perception of the human ear. Sound recorded via binaural recording is intended for replay using headphones. And the good thing is: What was originally made for the gaming and movie industry is now also bound to conquer the video conferencing market.

Mathias Johannson, the CEO of Dirac, is rather confident In less than a decade, 3D audio over headsets with head-tracking capabilities will allow us to have remote meetings in which you can move about an actual room, having sidebar discussions with one colleague or another as you huddle close or step away. What is more, Johannson reckons that spatial audio could be made available to videoconference users early in 2021. Dirac wants to offer 3D audio technology to video chat platforms via an off-the-shelf software solution, so no expensive hardware would be required. Google, on the other hand, already advertises its Google Meet hardware for immersive sound. But from what we have learned six months into Covid-19, it is difficult even to persuade participants to wear a cabled headset (not to mention using an ethernet cable instead of a wifi connection), I am personally not too optimistic that expensive hardware is the way forward to high-quality remote simultaneous interpretation.

So, will such a software-based solution possibly not only provide a more immersive meeting experience but also be able to provide decent sound even without remote participants connected from their home offices having to use special equipment, i.e. headsets? I asked Prof. Jochen Steffens, who is a sound and video engineer, for his opinion. The answer was rather sobering regarding equipment: For 3D audio, a dry and clean recording is required, which at the moment is not possible using built-in microphones. Equipment made for binaural recording, however, would not really serve the purpose of simultaneous interpreting either, as the room sound would actually be more of a disturbance for interpreting. Binaural recording is rather made for recording the sound of real threedimensional sound impressions like in concert halls and the like. For video conferencing, rather than headsets, Steffens recommends using unidirectional microphones; he suggests, for example, an inexpensive cardioid large-diaphragm microphone, mounted on a table stand. And the good news: If you are too vain to wear a headset in video conferences, with decent sound input being delivered by a good microphone, any odd wireless in-ear earphones can be used for listening, or even the built-in speakers of your laptop as long as you turn them off while speaking.

But what about the spatial, immersive experience? And how will a spatial distribution of participants happen if, in fact, there is no real room to match the virtual distribution to? As Prof. Steffens explained to me, once you have a good quality sound input, people can indeed be mapped into a virtual space, e.g. around a table, rather easily. The next question would be if, in contrast to the conference participants, we as interpreters would really appreciate such a being-in-the-room experience. While this immersion could indeed allow for more situational awareness, we might prefer to always be acoustically positioned right in front of the person who is speaking instead of having a „round table“ experience. After all, speakers are best understood when they are placed in front of you and both ears get an equally strong input (the so-called cocktail party effect of selectively hearing only one voice works best with binaural input). And this would, by the way, nicely match a close front view of the person speaking.

And then, if ever video conferencing can offer us a useful immersive experience, couldn’t it even end up being more convenient than a „normal“ on-site simultaneous interpreting setting? More often than not, we are rather isolated in our booths with no more than a poor view of the meeting room from a faraway/high above/hidden-next-door position. So much so that I am starting to wonder if 3D audio (and video, for that matter) could also be used in on-site conference rooms. According to Prof. Steffens, this would be perfectly feasible by „simply“ using sound engineering software.

But then the next question arises: While simultaneous interpreters used to be „the voice in your ear“, they might now be assigned a position in the meeting space … the voice from above, from behind (like in chuchotage), or our voices could even come from where the speaker is sitting who is being interpreted at the moment. Although for this to happen, the speaker’s voice would have to be muted completely, which might not be what we want. Two voices coming from the same position would be hard to process for the brain. So the interpreter’s voice would need to find its own „place in space“ after all – suggestions are welcome!


About the author

Anja Rütten is a freelance conference interpreter for German (A), Spanish (B), English (C) and French (C) based in Düsseldorf, Germany. She has specialised in knowledge management since the mid-1990s.

 

 

 

 

 

Conference Interpreters and Their Listening Behaviour—a Guest Article by Lisa Woytowicz

Listening is an integral part of every conference interpreter’s job. It might therefore be surprising that there is hardly any research on conference interpreters’ listening behaviour. Since I did not find too much on the issue, I conducted my own study.

About Listening

Studies on listening behaviour exist. But generally, they are conducted by scholars in the field of psychology or communication studies. According to these experts, listening is a multidimensional construct which consists of behavioural, cognitive, and affective processes.

Every time we listen, we—or rather our brains—process information on several levels: When somebody speaks, we receive (verbal and non-verbal) signals. We identify sounds and put them together. We recognise words, sentences and what they mean. During this process, our short-term memory continuously verifies whether the incoming information corresponds to the information stored in our long-term memory. Besides, it adds new information and establishes new links.

There is evidence that the more we already know about an issue, the faster our short-term memory processes the information. This is not only fascinating; it also is one of the reasons why preparing an interpreting assignment is key.

Listening as a Skill

However, there is a tiny but important step in the listening process which is often ignored or at least underestimated: every listener has an intention, a goal she pursues. Selecting a listening goal is the very first step of the listening process which commonly happens subconsciously. Nevertheless, it is a decision every listener makes. And it determines which of the incoming signals are considered relevant and which will be ignored.

When interpreting simultaneously, conference interpreters are special listeners because they are “double listeners”. They need to listen to the speaker and—at the same time—to themselves. They listen to the information they interpret while also making sure that their rendition makes sense and is grammatically and semantically correct. This kind of listening behaviour might be part of the job description. Nevertheless, it is quite unnatural.

Experts agree that listening is “an identifiable set of skills, attitudes, and abilities [that] can be formulated and taught to improve individual performance” (Worthington & Bodie, 2017, p. 8). And this is brilliant! It means that interpreters can learn to make conscious listening decisions to become better listeners and thus (even) better interpreters.

Different Listening Styles

The Listening Styles Profile (LSP) is a concept to describe listening behaviour. According to the latest version of the LSP, listening styles are listening goals which are triggered by individual predispositions (i.e., they are partially stable) and elements of the listening situation (i.e., they are partially not stable).

There are four different listening styles:

  • Relational listening: a concern with and awareness of the speakers’ feelings and emotions,
  • Analytical listening: focussing on the full message before forming an opinion,
  • Task-oriented listening: a concern with the amount of time spent listening and a desire to interact with focused speakers,
  • Critical listening: a tendency to evaluate and critically assess messages for accuracy and consistency. (Bodie & Worthington, 2017, p. 403)

Data on listening behaviour is collected using self-assessment questionnaires. For my research project, I used the LSP-R8 (Rinke, 2016).

Assessing the Listening Behaviour of Different Professions

I asked representatives of three different professions as well as students enrolled in the respective university courses about their listening behaviour. Using an online questionnaire, I was able to gather data on the listening behaviour of 242 (future) psychologists, teachers, and conference interpreters.

Several t-tests were performed to determine statistically relevant differences between the groups mentioned above. If you are into statistics, let me know and I am happy to give you the details. But for now, let us skip the statistical part and get straight to the results. So, here is what I found:

  • Conference interpreters have a stronger tendency toward Critical listening than the other professionals.
  • Conference interpreters have a weaker tendency toward Relational listening than the other professionals.

To my surprise, there were no statistically relevant differences among the student groups. Apparently, future conference interpreters’ listening behaviour does not differ very much from the way future psychologists or future teachers listen.

Therefore, I concluded that the frequent use of a certain listening style on-the-job might result in applying it frequently, even in other contexts. If you think about it, this is not very far-fetched. The more we use a certain skill, the more we train it and the better we get at it. And when we are good at something, we tend to do it more often. In the end, this cycle might lead to partially automatising a certain listening behaviour.

Remember, interpreters are double listeners who always make sure that their rendition is correct. So, they often apply Critical listening when sitting in the booth. Psychologists and teachers—in their professional contexts—surely use a lot more Relational listening. In the end, psychologists are paid to know how people feel; and teachers regularly need to put themselves into the shoes of their students to meet their needs.

Conclusions

What are these findings good for? Well, competent listeners can flexibly switch between different listening styles, always adapting to new listening contexts. Irrespective of one’s profession, this might be a goal everybody could strive for. At the end of the day, being a good listener is a great asset.

It looks as though conference interpreters should train to use Relational listening more often. They could start thinking about situations in which this listening style (or the others) could come in handy, particularly if Critical listening is more of a hindrance than a help. These might be situations which involve talking to clients, colleagues, family, and friends.

Furthermore, conference interpreters could try to consciously apply different listening styles in the booth. Depending on the speaker, they might grasp more of the relevant information by focussing on her emotions (Relational listening) or on the full message (Analytical listening).

Interpreting trainers could consider establishing listening behaviour as part of the curriculum. Besides, the LSP might help explain certain flaws, such as omissions, contresens, etc., which could be relevant for giving (better) feedback.

Since listening plays such an important role in every conference interpreter’s (professional) life, there are plenty of other conclusions to be drawn. Are you interested in discussing your suggestions? Just send me an e-mail: info@lw-dolmetschen.de

 

References

Bodie, G. D. & Worthington, D. L. (2017). Profile 36 listening styles profile-revised (LSP-R). In D. L. Worthington & G. D. Bodie (Eds.), The sourcebook of listening research. Methodology and measures (pp. 402–409). Wiley-Blackwell.

Imhof, M. (2010). Zuhören lernen und lehren. Psychologische Grundlagen zur Beschreibung und Förderung von Zuhörkompetenzen in Schule und Unterricht. In M. Imhof & V. Bernius (Eds.), Zuhörkompetenz in Unterricht und Schule. Beiträge aus Wissenschaft und Praxis (pp. 15–30). Vandenhoeck & Ruprecht.

Rinke, E. M. (2016, May 14). A general survey measure of individual listening styles: Short form of the listening styles profile-revised (LSP-R8) [AAPOR Poster Session 3]. Annual Conference of the American Association for Public Opinion Research, Hilton Austin, Austin, TX, United States.

Worthington, D. & Bodie, G. D. (2017). Defining listening. A historical, theoretical, and pragmatic assessment. In D. L. Worthington & G. D. Bodie (Eds.), The sourcebook of listening research. Methodology and measures (pp. 3–17). Wiley-Blackwell.

Woytowicz, L. (2019). Persönlichkeitseigenschaften und Listening Styles von Konferenzdolmetschern im Vergleich zu anderen Berufsgruppen [unpublished master’s thesis]. Johannes Gutenberg University Mainz.


About the author

Lisa Woytowicz is a professional conference interpreter for German, English, and Portuguese, based in Essen (Germany).

www.lw-dolmetschen.de

Why not listen to football commentary in several languages? | Fußballspiele mehrsprachig verfolgen

+++ for English, see below +++ para español, aún más abajo +++

Ich weiß nicht, wie es Euch ergeht, aber wenn ich im Fernsehen ein Fußballspiel verfolge, frage ich mich mitunter, was jetzt wohl der Kommentator der anderen Mannschaft bzw. Nationalität dazu gerade sagt. Die Idee, (alternative) Fußballkommentare über das Internet zu streamen, hat sich zumindest im deutschsprachigen Raum bislang noch nicht so recht durchgesetzt, www.marcel-ist-reif.de hat den Dienst zumindest wieder eingestellt. In Spanien ist man da mit Tiempo de Juego besser dran, und dann gibt es noch talksport.com, was ich noch nicht ausprobiert habe. Aber eine andere durchaus praktikable Alternative, um simultan neben der eigentlichen TV-Übertragung andere Kommentare aus nahezu aller Herren Länder zu hören, bietet ja das Smartphone (wer auch sonst) mit einer entsprechenden Radio-App (mein Favorit für Android ist Radio.fm). So habe ich dann kürzlich beim EM-Gruppenspiel Schweden gegen Belgien einfach über den Kopfhörer parallel zur deutschen TV-Übertragung im belgischen Radio mitgehört – und das war durchaus amüsant! Zeitweise war ich mir nicht sicher, ob der deutsche und der belgische Kommentator das gleiche Spiel sahen, aber die Hintergrundgeräusche aus dem Stadion (im Radio immer minimal verzögert) waren beruhigenderweise identisch. Also eine echte Empfehlung nicht nur für die, die sich nicht entscheiden können, zu welcher Mannschaft sie halten sollen. Und nun hoffe ich natürlich umso mehr auf ein Viertelfinale Deutschland – Spanien!

+++ English version +++

I don’t know about you, but when I watch football on TV, I often wonder what the other team’s/country’s commentator might be saying right now. If you want to listen to Spanish commentary in parallel, you are lucky, as there is Tiempo de Juego streaming football commentary via browser, Android and iOS app. There is http://talksport.com in English, which I have not tried yet. In Germany, however, the idea of streaming (alternative) football commentary over the internet has not quite made it so far (www.marcel-ist-reif.de have given up apparently), but another way of listening in to other commentaries of almost any country in the world is (guess what!) the good old smartphone, with those many radio streaming apps available. My favourite one for Android is Radio.fm, and I have just lately tuned into the Belgian radio while watching the European Championship match Sweden vs. Belgium on German TV. It was both fun and interesting, really. Sometimes I was not sure whether they were talking about the same match, but the background noise from the stadium (slightly delayed over the radio) told me they were indeed. So it is really worth a try, especially for those who cannot decide which team to support. And I’m now hoping all the more for a quarter final between Germany and Spain!

+++ versión española +++

No sé ustedes, pero yo, cuando veo un partido de fútbol en la tele, a veces me pregunto qué estará diciendo el comentarista del otro bando en ese momento. Esta idea de facilitar comentarios audio por medio de internet, casi no se usa en Alemania (en www.marcel-ist-reif.de ya dejaron de ofrecerlo). En España, ya van bastante mejor, con Tiempo de Juego se pueden escuchar los comentarios a través del navegador o usando una app (Android y iOS). En inglés existe talksport.com, todavía me falta probarlo. Pero también existe otra posibilidad muy práctica para escuchar comentarios de fútbol de casi todas partes del mundo y es (adivinen qué) el smartphone que con sus tantas apps transmite por internet un sinfín de radioemisoras del mundo entero (mi app favorita es Radio.fm). De este modo, hace poco, viendo el partido de la Eurocopa entre Suecia y Bélgica en la televisión, por medio de mi celular y los auriculares escuché en paralelo a los comentaristas de una radioemisora belga y me resultó súper divertido. A veces me surgían dudas de si realmente los comentaristas belgas y alemanes estaban viendo el mismo partido, pero el ruido del estadio era idéntico (con un pequeño desfase en la transmisión por radio), así que… todo bien. Realmente lo recomiendo, no sólo para aquellos que no saben a qué selección apoyar. ¡Y por ahora espero aún más los cuartos de final entre España y Alemania!

Audio-Vorbereitung 3: Hurra, mein Glossar spricht! Aus mehrsprachigen Tabellen mp3s zaubern

So hocherfreut ich war festzustellen, dass der Computer problemlos geschriebenen Text vorliest und das Vorgelesene auch ohne viel Murren als mp3 herausrückt, so sehr hat es mich dann gefuchst, dass das mit mehrsprachigen Glossaren nicht so mir nichts, dir nichts funktionieren wollte. Ich habe also einige Spracherzeugungssoftware-Hersteller mit der Frage genervt und ein bisschen rumprobiert, und siehe da, letztendlich habe ich doch einen einigermaßen bequemen und bezahlbaren Weg gefunden:

Für 20 EUR habe ich mir TextAloud gegönnt (bereits vorgestellt hier http://wp.me/p3KGB8-2n) und bin damit bestens gewappnet. Man muss dem Programm nur mit ein paar Tags auf die Sprünge helfen, damit es weiß, an welcher Stelle es welche Sprache sprechen muss, aber dann funktioniert es wunderbar.

Folgende Tabelle habe ich TextAloud zum Vorlesen gegeben, in der ich vor jede Spalte eine zusätzliche Spalte eingefügt habe, in der steht, welche Stimme sprechen soll:

ExcelGlossar mit Tags

Wie diese Tags aussehen, findet man heraus, indem man es einmal in TextAloud direkt ausprobiert:

TextAloud

Die fertig präparierte Excel-Tabelle befördert man dann per Copy&Paste in TextAloud:

TextAloud Glossar

Dann klickt man auf „Speak“ oder „To File“ – und fertig!

Hier das Ergebnis zum Anhören:

Nicht schlecht für einen Computer, finde ich. „Te-ha-ymian“ ist ein bisschen lustig, aber auf jeden Fall erfüllt das Ganze seinen Zweck, sich im Auto, beim Sektfrühstück oder beim Kugelschreiberzusammenschrauben die 200 wichtigsten Termini für die morgige Konferenz noch einmal anzuhören.

Und zum Schluss die gute Nachricht: Wenn man sich die Mühe einmal gemacht hat exterior painting, speichert man sich einfach eine leere Vorlage in Excel (so wie diese hier: Glossar für TextAloud LEER, geht wahrscheinlich auch in Word) und muss beim nächsten Mal nur noch seine Glossarspalten hineinkopieren.

Viel Spaß beim Ausprobieren!

Audio-Vorbereitung 2: Die kostenlosen Microsoft-Computerstimmen und was man damit machen kann

Sich Textdokumente durch eine Computerstimme vorlesen zu lassen, ist einfacher, als mancher vielleicht denkt. Es geht im Prinzip sogar mit den Bordmitteln von Windows 7 oder 8. In diesem Beitrag beschreibe ich im Einzelnen,

  • was man tun muss, damit man sich dann ziemlich komfortabel in MS-Word einen Text vorlesen lassen kann und
  • wie man daraus mp3-Dateien erzeugt bzw. mit welchen kostenlosen und kostengünstigen Programmen das noch besser/einfacher geht.

Aus eigener Erfahrung kann ich nur für Windows 8 und Office 2013 sprechen. Mir wurde jedoch gesagt, dass es in Mac OS ungleich einfacher ist, sich Texte vorlesen zu lassen und diese als mp3 zu speichern (Alex, vielleicht möchtest Du das in einem Kommentar vertiefen?).

In Windows 8 ist eine so genannte „Sprachausgabe“ enthalten. Sie klingt auf Deutsch mit der Stimme von Hedda so:

In britschem Englisch mit Hazels Stimme so:

Um diese zu nutzen, muss man vorher nur ein paar Dinge tun:

– Die „Microsoft Speech Platform – Runtime (Version 11)“ herunterladen und installieren:
http://www.microsoft.com/en-us/download/details.aspx?id=27225

Die gewünschten Sprachen herunterladen und installieren:
http://www.microsoft.com/en-us/download/details.aspx?id=27224
Hier einfach auf den „Englisch“-Button klicken, danach bekommt man eine Auswahl der verfügbaren Sprachen. „TTS“ steht für Text to Speech (Sprachausgabe), „SC“ steht hier für Speech Recognition (Spracherkennung).

(Wer Windows 7 und Office 2010 hat, findet hier die entsprechenden Anweisungen von Microsoft: http://office.microsoft.com/en-us/word-help/using-the-speak-feature-with-multilingual-tts-HA101825279.aspx)

Damit hat man alles an Bord und muss dann nur noch die Sprachausgabefunktion in Word aktivieren:

  • Datei/Optionen/Symbolleiste für den Schnellzugriff
  • Befehle auswählen: Befehle nicht im Menüband
  • In MS-Word den Befehl „Sprechen“ auswählen und auf “Hinzufügen” klicken (in MS-Excel alle Befehle mit “Eingabezellen”).
  • Mit OK bestätigen

Und schon steht die Vorlese-Schaltfläche zur Verfügung:

Leider kann man sich hiermit die Texte nur „live“ vorlesen lassen, aber keine Audio-Datei erzeugen (wie man es am Mac kann).

Dazu reicht es aber, sich die kostenlose Aufnahmesoftware Audacity zu installieren (http://audacity.sourceforge.net/download/), und schon kann es losgehen: In Audacity als Audioquelle „Stereo Mix“ auswählen (damit nicht über das Raummikrofon aufgenommen wird), auf „Aufnahme“ – roter runder Punkt – klicken und dann in Word die Sprachausgabe starten.

Alles in allem also eine gut zu nutzende Funktion, wenn einmal alles eingerichtet ist.

Der Nachteil: Man muss sich zur mp3-Erzeugung wirklich immer den kompletten Text vorlesen lassen, was schnell lästig werden kann. Außerdem stoppt die Vorlesefunktion immer automatisch nach ca. 5 Minuten, d.h. man kann das System auch nicht einfach eine Stunde durchlaufen lassen und sich in der Zeit die Nägel lackieren gehen. Dieses Problem lässt sich aber ziemlich einfach lösen, etwa mit dem kostenlosen

MiniReader der zu Amazon gehörenden Firma IVONA: http://www.ivona.com/en/mini-reader/

Die Leiste legt sich über jedes Fenster und man muss nur den gewünschten Text markieren und auf Play klicken, schon liest es los. Der Ivona MiniReader bietet automatisch sowohl die installierten Microsoft-Stimmen an als auch zur Probe Ivona-eigene Stimmen.IvonaMiniReaderFREE

Die Ivona-Teststimmen kann man bei der Installation auswählen; es gibt mindestens Deutsch, Englisch (US/UK), Französisch, Spanisch (auch lateinamerikanisch), Portugiesisch (auch brasilianisch), Rumänisch, Italienisch, Niederländisch, Türkisch, Polnisch, Russisch, Schwedisch. Einzeln kosten die Stimmen ab 29 EUR, es gibt aber auch günstigere Pakete. http://www.ivona.com/en/voices/#offer

Ivonas Marlene liest den Kommissionsbeschluss folgendermaßen: Sie liest hier mal schneller und mal langsamer, weil ich während der Aufnahme mit dem Geschwindigkeitsregler gespielt habe. Am Anfang war sie mir ein bisschen zu flott und klang deshalb schnippisch. Die „Doppelebes-teuerung“ kann ich ihr verzeihen. Insgesamt auf jeden Fall brauchbar!

Der große Vorteil des kostenlosen MiniReaders ist jedenfalls, dass er sechs Seiten (mehr habe ich nicht getestet) ohne Abbruch durchliest. Man kann damit allerdings auch keine Audiodatei erzeugen, dazu benötigt man dann wieder bspw. Audacity.

Alternativ bietet dies der kostenpflichtige Ivona Reader: http://www.ivona.com/en/reader/ Einsprachig gibt es diesen ab 49 EUR, mehrsprachige Pakete ab 129 EUR. Damit kann man dann Audio-Dateien generieren und theoretisch auch taggen, um einzelnen Textstellen unterschiedliche Sprachen bzw. Stimmen zuzuweisen.

Eine Alternative zum MiniReader + Audacity oder dem kostenpflichtigen Ivona Reader ist mein persönlicher Favorit  TextAloudhttp://www.nextup.com/TextAloud/ für 29,95 USD (19,99 EUR exkl. MWSt). Damit bekommt man eigentlich alles, was man braucht: Viele Sprachen, mp3-Generierung und Tagging für Glossare (dazu mehr im nächsten Blog-Beitrag). TextAloud

Stimmen kann man einzeln für einen Preis von 26,70 bis 34,20 EUR dazukaufen. Das Programm nutzt aber auch die installierten Stimmen von Microsoft und Ivona.

All dies habe ich getestet und es hat wunderbar funktioniert – TextAloud ist jetzt mein Standard-Instrument für das ziemlich problemlose Erstellen von Audio-Dateien auch aus mehrsprachigen Glossaren. Aber dazu mehr demnächst!

 

 

Audio-Vorbereitung 1 oder: Liest mir mal bitte jemand meine Vorbereitungstexte vor?

Als Dolmetscher sind wir ja alle auch ein bisschen in den Charme der gesprochenen Sprache verliebt. Meine Frage, wie ich auch in der Dolmetschvorbereitung mehr mit gesprochenen statt geschriebenen Wörtern zu tun haben könnte, hat deshalb zwar auch zum Ziel, beispielsweise die Autofahrt zum Anhören von Texten oder auch von mehrsprachiger Terminologie zu nutzen (mobile learning oder m-learning). Aber ganz abgesehen davon höre ich auch gerne aus Freude am Vorgelesenbekommen. Und nicht zuletzt halte ich es auch für plausibel, dass es uns Dolmetschern beim Abrufen von Terminologie als Klangbilder hilft, wenn wir diese auch in Form von Klangbildern und nicht als Schriftbilder gelernt haben.

Mit all diesen Beweggründen im Rücken habe ich mich nun also vor Wochen aufgemacht, die perfekte Lösung für das Erstellen von Audio-Dateien aus geschriebenen Texten zu finden – Stichwort Sprachausgabe, Sprachsynthese oder auch Text-to-Speech (TTS). Hier gibt es im Wesentlichen zwei Optionen:

1. die im Betriebssystem (Windows oder Mac OS) enthaltene Spracherzeugungsfunktion,

2. spezielle Spracherzeugungssoftware.

Es hat sich herausgestellt, dass eine besondere Herausforderung darin liegt, mehrsprachige Texte zu vertonen, also den Sprachwechsel innerhalb eines Textes (Glossars) zu bewerkstelligen – aber auch das ist möglich! Die unterschiedlichen Möglichkeiten zur einsprachigen bzw.  mehrsprachigen Vertonung werde ich in den nächsten Tagen in gesonderten Beiträgen vorstellen, denn sie sind teilweise etwas erklärungsintensiv.

Es sei nur so viel gesagt: Ich habe vergangene Woche im Auto eine halben Stunde lang Hedda (der deutschen Microsoft-Stimme) dabei gelauscht, wie sie mir einen EU-Kommissionsbeschluss über aggressive Steuerplanung vorliest. Das möchte ich Euch natürlich nicht vorenthalten:

Gut, Hedda hat einen leicht französischen Akzent, und mir ist plötzlich klar geworden, was für eine schöne und sinntragende Sache doch die Prosodie ist (Die englische Hazel hat mich da schon eher überzeugt. Aber ich denke, insgesamt sind die englischen Kunststimmen besser entwickelt als die restliche Sprachenwelt). Aber alles in allem habe ich mich nachher gut vorbereitet gefühlt. Das Gute (oder Schlechte) beim Vorlesen ist nämlich, dass man auch bei langweiligen Textpassagen gezwungen ist, sich beispielsweise mit den Finessen der Benennung von Mitgliedern einer Expertengruppe auseinanderzusetzen. Was schon mal gar nicht dumm ist.