What do conference interpreters‘ booth notes tell us about their information management?

First of all, a big thank you to all of you who followed my call and provided copies of their booth notes for my little study – I finally managed to collect booth notes from 25 colleagues! Now, what was this study all about? The purpose was to see what interpreters write down intuitively on a blank sheet of paper, i.e. with no given structure like a terminology database, supposing that what you find on these notes is what is really relevant in the booth. What I was interested in was

1. to see if these notes possibly confirmed what research says about knowledge management, or terminology management more in particular,

2. to check if this information can be mapped to the structures of booth-friendly terminology managmenent systems.

I was also hoping to get some inspiration about the more general question of how (or if) computers could best support conference interpreters in their work.

As the information on the notes might be confidential, the first thing I decided to do was create a mock set of notes reflecting the statistics of my sample notes:

– Average number of terminological records per set of notes: 20 (10 nouns, 4 phrases, 6 acronyms)
– Of all terminological records, 99.6% were technical or specialised terminology.
– 14 records were in one language only (2 in source language, 12 in target language), 5 records in two languages, 1 record in three and more languages.
– Non-terminological records: 6 numbers; 1 context information like names of legal acts, persons, positions; graphic illustrations (1 drawing, 1 underline)

My self-made model notes look like this:

Of all the things I observed in the notes, I was more surprised by what I did not see than by what I saw:

– Hardly any verbs and adjectives
– not really many drawings illustrating conceptual relations
– 72 % of all „terminological records“ found were made in one language only, and each interpreter wrote down terminology in one language only at least once.

Overall, it looks like the „deeper“ information about content and semantic relations is rather dealt with during preparation while information work in the booth is more about having  crucial context information and the right technical term in the target language (almost all terminological records were of technical nature). In short, this filling of personal knowledge gaps in the booth is the tip of the iceberg of a conference interpreter’s information and knowledge work. This confirms what research says, but makes me wonder whether a terminology tool that – in booth mode – displays key terms in the current target language only (possibly in word clouds) might be more efficient as a word-finding trigger than bilingual, glossary-style lists. Or is cognitive overload the only reason why simultaneous interpreters would note down their terms in one language only in the booth?

Luckily I was even able to collect one team sample, i.e. the notes of 5 interpreters working at the same conference. It was interesting to see that there was indeed some overlapping in the terms noted down and that these „shared“ terms were mainly written at the top of the respective sheets. In particular, 2 acronyms were written down by all 5 interpreters, another 2 acronyms by 4 of the 5 interpreters, and one technical term by 3 of them. Just like the complete study, this is by no means representative, but at least it indicates that it might be possible to provide key terms for certain meetings which are useful to all interpreters.

Beyond statistics and hard data, this study made me think a lot about the possible reasons that put interpreters off going paperless in the booth. It also inspired me to discuss this question with colleagues. It appears that there are several factors that tend to work better on paper than on a computer:

– Screen space: There is only so much information you can display on a computer screen. With agenda, meeting documents, glossaries and online ressources, it is hard to squeeze everything onto a display not much bigger than a regular sheet of paper.

– Exchange plattform: Simultaneous interpreters in the booth like to use a sheet of paper as a kind of exchange platform to ask for coffee, write down when to change turns and note down difficult terms, numbers etc. to support each other.

– Permanent visibility: Once written down on paper, information doesn’t usually disappear from our view easily, something that may well happen on a computer.

– Document handling: When working with different documents (original and translation of speeches, draft agreements, legislative texts), they can be arranged on a desk (if not too small) in a way to find one’s way through them and/or share them with the colleague who is busy interpreting in order to find the right page or line for her o him.

– Input: The input function of pen and paper is just very intuitive.

These were my main conclusions from this lovely little study. If you want to know all the details, I encourage you to read the full article, which was published in the Proceedings of the 40th Conference Translating and the Computer, London, UK, November 15-16, 2018, p 132-144. All the slides are also available for download.


About the author

Anja Rütten is a freelance conference interpreter for German (A), Spanish (B), English (C) and French (C) based in Düsseldorf, Germany. She has specialised in knowledge management since the mid-1990s.

Neurophysiologie des Simultandolmetschens | Neurophysiology of simultaneous interpreting – by Eliza Kalderon

+++ for English, scroll down +++

Etwa eineinhalb Jahre nach Beenden der Promotion freue ich mich über die Möglichkeit, im Blog meiner Kollegin, die das Projekt „Neurophysiologie des Simultandolmetschens: eine fMRI-Studie mit Konferenzdolmetschern“ von Anfang an voller Begeisterung und Engagement unterstützte, eines der spannendsten Ergebnisse vorstellen zu dürfen.

Die drei nachfolgenden Abbildungen stellen sogenannte Render-Bilder dar, d. h. dass die 3D-Bilder jeder einzelnen Versuchsperson zu einer Bildsynthese zusammengefasst wurden, da der wiederkehrende Wert sowie die Suche nach übereinstimmenden neuronalen Mustern in den untersuchten Leistungen im Mittelpunkt des wissenschaftlichen Interesses standen.

In den Bedingungen wurden Masken, sogenannte regions of interest (ROI), angewandt, in denen das Simultandolmetschen im Vergleich zu einer weiteren Aufgabe stand – in unserem Fall im Vergleich zum Shadowing. Durch diese Masken kann die Kalkulation der Gehirnaktivierung auf eine definierte anatomische Region eingegrenzt werden. Anhand der verwendeten Maskierung konnte also die Aktivität bestimmter Aktivierungscluster, die zum Broca- bzw. zum Wernicke-Areal gehören, bestimmt werden.

Abbildung 1 – DE>ES

In Abbildung 1 wurde die Mehraktivierung beim Simultandolmetschen aus dem Deutschen ins Spanische und das Simultandolmetschen aus dem Spanischen ins Deutsche ohne Maskierung kontrastiert, das heißt mit Abbildung der Aktivierung über das ganze Gehirn.

Beim Vergleich der Dolmetschrichtung wird die vom Simultandolmetschen aus dem Spanischen ins Deutsche hervorgerufene Gerhirnaktivierung von dem Simultandolmetschen aus dem Deutschen ins Spanische subtrahiert. Unter diesen zwei getesteten Bedingungen haben die Probanden eine Rede aus ihrer Muttersprache Deutsch in ihre aktive Fremdsprache (B-Sprache, Spanisch) gedolmetscht beziehungsweise in der anderen Bedingung eine Rede aus dem Spanischen ins Deutsche gedolmetscht. Die Abbildung zeigt, dass beim Simultandolmetschen in die spanische Sprache das Gehirn der deutschmuttersprachlichen Konferenzdolmetscher beidhemisphärisch im primären motorischen somatosensorischen Kortex aktiviert wurde.

Das bedeutet, dass deutschmuttersprachliche Dolmetscher für die Artikulation im Spanischen mehr Mundmotorik aktivieren als beim Simultandolmetschen in ihre Muttersprache. Das bedeutet wiederum, dass sie für die Performanz in der spanischen Sprache mehr Kontrolle über die Sprachmuskulatur brauchen. Zu beobachten war weiterhin eine Aktivierung im medialen superioren Frontallappen. In diesem Areal ist das strategische Denken (prospective memory, BURGESS et al. 2011) angesiedelt.

Abbildung 2 – ES>DE

In Abbildung 2 ist der umgekehrte Kontrast dargestellt, die Mehraktivierung beim Simultandolmetschen aus dem Spanischen ins Deutsche, das heißt, von der neuronalen Aktivität beim Simultandolmetschen aus dem Spanischen ins Deutsche wurde die neuronale Aktivität aus dem Deutschen ins Spanische subtrahiert. Sie zeigt eine Aktivierung des inferioren Temporallappens, in dem visuelle Informationen verarbeitet werden.

Es ist auch die Aktivierung eines Areals im medialen präfrontalen Kortex zu beobachten, der mit dem prospektiven Denken in Verbindung gebracht wird (vgl. BURGESS et al. 2011). Dort legt man sich Handlungsstrategien zurecht. Bei der Verdolmetschung ins Spanische sind sie sprachlich-motorischer Natur (beansprucht wird also das motorische Arbeitsgedächtnis; ein analoges Ergebnis findet sich bei TOMMOLA et al. 2000: 162).

Abbildung 3 stellt eine Zusammenfassung der beiden vorherigen Abbildungen dar. Hier wurde das Simultandolmetschen in beide Sprachrichtungen in einem Bild gegenübergestellt. Die rot markierten Areale stellen die Mehraktivierung beim Simultandolmetschen aus dem Deutschen ins Spanische dar, die blauen das Simultandolmetschen vom Spanischen ins Deutsche.

Abbildung 3 – Vergleich

Wie man sieht, wurden beim Simultandolmetschen ins Spanische besonders die motorischen Areale beansprucht. In der umgekehrten Sprachrichtung dominieren eine rechtsseitige Aktivierung im inferioren Temporallappen sowie ein aktiviertes Cluster im medialen Präfrontalkortex.

Diese Bilder lieferten uns ein überraschendes und unerwartetes Ergebnis: Dass selbst das trainierte Gehirn von Konferenzdolmetschern eine immense Menge an Kapazitäten für die Artikulation in der Fremdsprache benötigt.

Wer das komplette Studiendesign sowie alle Ergebnisse nachlesen möchte, kann gerne den folgenden frei zugänglichen Link anklicken.

Und last, but not least, möchte ich mich noch einmal bei Anja Rütten und all den Kolleginnen und Kollegen herzlich bedanken, dass sie die lange Fahrt nach Homburg (Saar) auf sich genommen haben, um die Studie und die beeindruckenden Ergebnisse zu ermöglichen.


+++ English version +++

About one and a half years after the project’s completion, I am particularly pleased to present one of the most fascinating results of my doctoral research about neurophysiological processes in simultaneous intepreting on the blog of my colleague, who provided enthusiastic and committed support to this research project from the outset.

The three images below are what is referred to as “render images”: They represent a 3D synthesis of each individual subject in a single image as this research primarily focussed on recurring values and identifying neuronal patterns in the performance analysed.

Masks were applied to the different tasks to outline what is known as regions of interest (ROI). This served to contrast simultaneous interpreting and a second task – shadowing in our case. With the help of these masks, it became possible to limit the calculation of brain activation to a defined anatomic region. This allowed to specify the attribution of an activation and its localisation. It was thus possible to determine the activity outlined after masking of certain activation clusters attributed to Broca’s area or Wernicke’s area.

Figure 1 – DE>ES

Figure 1 shows the contrast in activation between simultaneous interpreting from German into Spanish and simultaneous interpreting from Spanish into German without masking. In other words, it shows the activation of the entire brain.

For a comparison of interpreting directions, the brain activation caused by simultaneous interpreting from Spanish into German was subtracted from that caused by simultaneous interpreting from German into Spanish. In the two tested settings, the subjects were asked to interpret a speech from their mother tongue (German) into their active working language (“B language”, Spanish) and, for the reverse setting, from Spanish into German. The image shows bi-hemispheric activation of the primary motor somatosensory cortex of the brain of a German native conference interpreter when interpreting into Spanish.

This implies that a German native conference interpreter requires stronger activation of mouth movement when articulating in Spanish than when simultaneously interpreting into their mother tongue. This in turn implies that they need stronger control of the muscles in their vocal tracts for a performance in Spanish. Furthermore, activation in the medial superior frontal lobe was observed. This is the area were strategic thinking (prospective memory BURGESS et al. 2011) is located.

Figure 2 – ES>DE

Figure 2 shows the reverse contrast, namely the stronger activation linked to simultaneous interpreting from Spanish into German. This is the result of subtracting the neuronal activity related to German into Spanish from the neuronal activity caused by interpreting from Spanish into German. It illustrates an activation of the inferior temporal lobe which is where visual input is processed.

We can observe an activation of the medial prefrontal cortex, which is associated with prospective memory (BURGESS et al. 2011). This area is responsible for developing strategies for action. These strategies are of motor-linguistic nature when interpreting into Spanish (it is the motor working memory which is responsible; TOMMOLA et al. 2000:162 draw similar conclusions).

The final image summarises the two previous images. It contrasts the process of simultaneous interpretation in both language directions. Areas marked in red represent stronger activation during simultaneous interpretation from German into Spanish. Areas in blue mark simultaneous interpreting from Spanish into German.

Figure 3 – Comparison

It is evident that simultaneous interpreting into Spanish particularly engages the motor brain areas. The dominant activation areas in the reverse language direction are in the right inferior temporal lobe and a cluster in the medial prefrontal cortex.

These images provided a surprising and unexpected finding: Even a practiced conference interpreter uses large amounts of capacity for articulating in the foreign language.

If you are interested in reading the complete research design and all other findings, you are welcome to follow this link (free access).

Last but certainly not least I would like to thank Anja Rütten and all other colleagues for taking the long journey to Homburg (Saar) to participate in this experiment and making these impressive results possible.

References

BURGESS, B.W.; GONEN-YAACOVI, G.; VOLLE, E. (2011): „Functional neuroimaging studies of prospective memory: What have we learnt so far?”. Neuropsychologia 49. 2246-2257
TOMMOLA, J.; LAINE, M.; SUNNARI, M.; RINNE, J. (2000): „The translating brain: cerebral activation patterns during simultaneous interpreting”. Neuroscience Letters 294(2). 85-88

Macht mehr Monotasking?

Ich kann es ja eigentlich nicht mehr hören: „Wir fummeln viel zu oft an unseren Handys herum! Wir sind immer abgelenkt. Wir müssen mal wieder ein Buch umarmen! Und in ein Geschäft gehen!“ Hallo? WIR sind erwachsen und lieben Computer und Handys auch, weil sie einen Ausknopf haben. Den haben nämlich weder Aktenberge noch vollgestopfte Schaufenster oder Fußgängerzonen. Also.

Eine Frage in dieser Wir-sind-viel-zu-abgelenkt-Diskussion finde ich allerdings doch interessant: Können wir chronischen Multitasker denn überhaupt Monotasking? Nicht wir im Sinne von digital-verdorbene Mitglieder der Gesellschaft, nein, wir als Simultandolmetscher. Wir verstehen, speichern und formulieren Inhalte ja fortwährend gleichzeitig, in zwei Sprachen, und es wurden sogar schon Kollegen gesichtet, die währenddessen (!) noch Vokabeln recherchieren, Flüge buchen oder Sudoku spielen. Selbst, wenn wir gerade nicht aktiv dolmetschen, hören wir … sorry, höre ich oft mit einem Ohr dem Redner zu und schaue mit dem anderen Ohr Dinge nach, die mich interessieren, lese Zeitung oder schreibe Mails. Erst am Nachmittag reiße ich mir dann auch schon mal die Kopfhörer ab und schließe die Augen oder starre  vor mich hin.

Bei dieser Frage nach dem Monotasking bin ich vor einiger Zeit auf einen sehr interessanten Artikel gestoßen, der die umgekehrte Frage stellt: Kann der Mensch überhaupt Multitasking? Laut dort zitierter Studie sind tatsächlich weniger als drei Prozent aller Menschen  wirklich multitasking-fähig. Alle anderen hüpfen nur mehr oder minder geschickt zwischen den verschiedenen Aufgaben hin und her und büßen dabei an Leistungsfähigkeit (hier simuliertes Autofahren und Merkaufgaben mit zwischengeschalteten Rechenaufgaben) deutlich ein (Strayer and Watson 2010). Nun sind sicher weniger als 2,5 % der Weltbevölkerung Simultandolmetscher, deshalb können wir uns einfach einbilden, wir fallen alle in diese 2,5%-Gruppe. Wer es aber genau wissen möchte, für den gibt es tatsächlich einen web-basierten Test, bei dem Ihr herausfinden könnt, ob Ihr ein „supertasker“ seid oder nicht.

Nun sind wir Menschen aber nicht nur mehrheitlich nicht fürs Multitasking gemacht, nein, es beeinträchtigt uns offensichtlich auch in unserer Monotasking-Leistungsfähigkeit. In einer Studie von Ophir, Nass und Wagner 2009 zum Thema „macht Multitasking blöd“ wurden „heavy media multitaskers“ und „light media multitaskers“ verglichen und es war festzustellen, dass HMM leichter abzulenken waren, wenn sie sich auf eine Aufgabe konzentrieren sollten, gleichzeitig waren sie beim Wechseln zwischen verschiedenen Aufgaben schlechter als die LMM.

Drastischer noch drückt es Sandra Bond Chapman in ihrem Artikel Why Single-Tasking Makes You Smarter aus: „Multitasking is a brain drain that exhausts the mind, zaps cognitive resources and, if left unchecked, condemns us to early mental decline and decreased sharpness. Chronic multitaskers also have increased levels of cortisol, the stress hormone, which can damage the memory region of the brain.“

Warum tun wir uns das Multitasking denn dann überhaupt an, wenn es Stress verursacht und die geistige Leistungsfähigkeit beeinträchtigt? Ganz einfach: Neben den Stresshormonen sind auch noch die Glückshormone im Spiel. Beim Multitasking wird Dopamin ausgeschüttet, wir werden quasi für die ständige Erledigung kleiner Aufgaben belohnt. Was ein Grund dafür sein könnte, dass man sich den Stress des Multitaskings überhaupt freiwillig antut bzw. das Monotasking eventuell verlernt. Oder während des Dolmetschens Sudoku spielt.

Stellt sich die Frage, ob diese Erkenntnisse – die vorwiegend aus dem Blickwinkel des Medienkonsums zu sehen sind – sich auf das Simultandolmetschen übertragen lassen … Sucht vielleicht jemand noch ein Thema für eine Masterarbeit?

Über die Autorin:
Anja Rütten ist freiberufliche Konferenzdolmetscherin für Deutsch (A), Spanisch (B), Englisch (C) und Französisch (C) in Düsseldorf. Sie widmet sich seit Mitte der 1990er dem Wissensmanagement.

 

 

 

Word Clouds – much nicer than Word Lists

I have been wondering for quite some time if word lists are the best thing I can come up with as a visual support in the booth. They are not exactly appealing to the eye, after all …

So I started to play around with word cloud generators a bit to see if they are of any use. Here comes a short summary of my conclusions:

The tool I liked most was WordItOut by Enideo from the UK. You can copy and paste text or tables easily and create nice word clouds in no time.

I tested it with three kinds of documents:

  1. My personal glossary
  2. Plain text
  3. Term extraction results from SketchEngine

Personal short glossary

I like to create a shortlist of my most-important-to-remember terms and have it on display permanently in the booth. Usually, there are no more than 10 to 20 terms on this list. So I copied in a short sample glossary with numbers from 1 to 10 added behind the terms (indicating frequency but meaning importance) and the result was this:

OK, it’s monolingual, but why not add some colour to the booth and print a second one?

Of course it does not help if you don’t know the equivalents. But especially when working mainly into one target language, some colleagues tend to write down terms in their target language anyway (more insight about this subject to be published in autumn!).

And if you really like a fancy booth decoration, you can always do some manual work and create a table with the equivalents in your working languages in one field

and get your bilingual word cloud:

By the way, you can choose the font and colour or simply press the „regenerate“ button again and again until you like what you get.

My conclusion: I love it! Easy enough to use from time to time as a nice booth decoration – or use it as a desktop wallpaper, for that matter.

Plain text

When using plain text, words are displayed in varying sizes depending on their frequency in the text. While this is not as useful as term extraction, where terms are extracted based on much more complicated algorithms, it still gives you an idea of what the most frequent words in the text are. This can be useful, for example, for target language vocabulary activation (or when learning a new language?).

One downside, however, is that multi-word terms like “circular economy” are torn apart, so you would need to post-edit the list of words adding a ~ between the words you wish to be kept together.

Another problem is that when using any language other than English, no stop word list is pre-determined (you can add one, though). This means that, for example in German, you end up getting a cloud of der, die, das, und, er, sie, es, aber, weil, doch.

My conclusion: A lot of potential but little real use cases.

Term extraction results

The nicest thing is of course to have an extraction tool with a built-in word cloud generator, like SDL Trados Studio has.

But if you use other term extraction tools, you can still copy the extraction results into the word cloud generator. I used a term list extracted by SketchEngine,  copied in the list of extracted terms plus scores and the result was this:

Multi word terms are no problem at all, and the size of the terms varies according to the scores calculated by SketchEngine for each term. Much more relevant than frequency in most cases …

My conclusion: Very nice!

PS: If you are interested in terminology extraction for interpreters, Josh Goldsmith is conducting an interesting study on this subject. First results may be expected to be presented in November at the 2nd Cologne Conference on Translation, Interpreting and Technical Documentation (CGN18).

 

About the author

Anja Rütten is a freelance conference interpreter for German (A), Spanish (B), English (C) and French (C) based in Düsseldorf, Germany. She has specialised in knowledge management since the mid-1990s.

How to measure the efficiency of your conference preparation

Half of the time we dedicate to a specific interpreting assignment is often spent on preparation. But while many a thought is given to the actual interpreting performance and the different ways to evaluate it, I hardly ever hear anyone discuss their (or others‘) preparation performance. However, if we want to be good information and knowledge managers rather than mere information and knowledge workers, we need to close the management cycle and put extra effort into checking if our work serves its purpose and making possible adjustments to optimise it.

Efficiency being the ratio between input and output (how much do you spend to make a dollar?), the question now is what to measure in the first place. Admittedly, the efficiency of information and knowledge work is not the easiest thing to measure. Apart from the fact that whilst interpreting we have other things to worry about, it is hard to tell the difference between the way we actually interpret and the way we would have done without the most essential part of our information work, i.e. preparation. Strictly speaking, previous work experience and knowledge acquired outside the interpreter’s professional life also count as „preparation“ and can even be more helpful than preparation in the stricter sense.

To put the concept of efficiency of information and knowledge work in conference interpreting into measurable terms, it could be reduced to the following question:

How much time do you spend to make a useful information unit?

As it happens, back in 2006 I conducted a case study to check exactly this: a conference interpreter’s preparation effort in relation to its usefulness. As a baseline, I decided to use the terminology prepared for a technical meeting, assuming that this is what comes closest to a quantifiable amount of information. Even if preparation is not all about terminology (or glossaries), it is an important part, and if it is well done, it covers semantics and context information as well.

So in order to get a number representing the output, I simply counted all the terminological units prepared for one meeting (376) and afterwards had the interpreter count those units that actually came up in the meeting (197) so that the terms prepared „in vain“ could be deducted. I then calculated the percentage of the used terms in relation the total amount of elaborated terms, the so called usage rate. In the case study the overall usage rate at the conference at hand was 52%. The usage rate of terminology from a previous conference of the same client about the same subject was 48 % (81 out of 168 terminological units). This has of course no statistical significance whatsoever, but it can surely be a useful indicator for the individual interpreter. And interestingly, when repeating this exercise with my students from now and then, the results are usually of a similar order of magnitude.

Once the output (terms used) has been determined, it can be related to the input. Assuming that the input is mainly the time spent on preparing the terminological units that came up in the conference, this time is divided by the terms used in order to obtain the relative or average time spent per terminological unit. This value can be considered an approximation to the efficiency of the interpreter’s information work. In the case study the average time spent per term used was 5 minutes (9.5 hours for 113 terms). When repeating this exercise with students, this value usually ranges roughly from 1 to 10 minutes.

Such numbers of course merely serve to quantify the information work we do. In order to really complete the management cycle and find out in how far preparation could possibly be optimised, a closer look needs to be taken at the quality of information and knowledge gaps that occur during the interpreting assignment at hand and how they are or could be handled – which is a different story altogether.

References

Informations- und Wissensmanagement im Konferenzdolmetschen. Sabest 15. Frankfurt: Peter Lang. [dissertation] www.peterlang.net

About the author

Anja Rütten is a freelance conference interpreter for German (A), Spanish (B), English (C) and French (C) based in Düsseldorf, Germany. She has specialised in knowledge management since the mid-1990s.

Booth notes wanted for a study | Kabinenzettel für Studienzwecke gesucht

Dear fellow conference interpreters! For a study on information management in the booth, I am currently collecting sample booth notes (those papers you scribble terminology, names, numbers, acronyms or whatever on). So if you would like to make your personal contribution to this study, it would be great if you could email or whatsapp me a scan or foto of your booth notes to ruetten@sprachmanagement.net or +49 178 2835981. Your notes will of course be treated confidentially. Thanks a lot in advance!

Liebe DolmetschkollegInnen! Für eine informationswissenschaftliche Studie sammle ich derzeit Kabinenzettel, also die Blätter, auf denen Ihr Eure Notizen jeglicher Art verewigt, sei es Terminologie, Namen, Abkürzungen oder was auch immer. Wenn Ihr mir also einen Eurer Schriebe zur Verfügung stellen möchtet, würde ich mich sehr freuen. Gerne als Scan oder Foto emailen oder appen an ruetten@sprachmanagement.net oder 0178 2835981. Natürlich wird alles vertraulich behandelt. Schon jetzt mein herzliches Dankeschön!

Can computers outperform human interpreters?

Unlike many people in the translation industry, I like to imagine that one day computers will be able to interpret simultaneously between two languages just as well as or better than human interpreters do, what with artificial neuronal neurons and neural networks‘ pattern-based learning. After all, once hardware capacity allows for it, an artificial neural network will be able to hear and process many more instances of spoken languages and the underlying content than my tiny brain will in all its lifetime. So it may recognise and understand the weirdest accents and the most complicated matter just because of the sheer amount of information it has processed before and the vast ontologies it can rely on (And by that time, we will most probably not only be able to use digital interpreters, but also digital speakers).

The more relevant question by then might rather be if or when people will want to have digital interpretation (or digital speakers in the first place). How would I feel about being replaced by a machine interpreter, people often ask me over a cup of coffee during the break. Actually, the more I think about it, the more I realise that in some cases I would be happy to be replaced by a machine. And it is good old Friedemann Schulz von Thun I find particularly helpful when it comes to explaining when exactly I find that machine interpreters might outperform (out-communicate, so to say) us humans (or machine speakers outperform humans).

As Friedemann Schulz von Thun already put it back in 1981 in his four sides model (https://en.wikipedia.org/wiki/Four-sides_model), communication happens on four levels:

The matter layer contains statements which are matter of fact like data and facts, which are part of the news.

In the self-revealing or self-disclosure layer the speaker – conscious or not intended – tells something about himself, his motives, values, emotions etc.

In the relationship layer is expressed resp. received, how the sender gets along with the receiver and what he thinks of him.

The appeal layer contains the desire, advice, instruction and effects that the speaker is seeking for.

We both listen and speak on those four layers, be it on purpose or inadvertently. But what does that mean for interpretation?

In terms of technical subject matter, machine interpretation may well be superior to humans, whose knowledge base despite the best effort will always be based on a relatively small part of the world knowledge. Some highly technical conferences consist of long series of mon-directional speeches given just for the sake of it, at a neck-breaking pace and with no personal interaction whatsoever. When the original offers little „personal“ elements of communication (i.e. layer 2 to 4) in the first place, rendering a vivid and communicative interpretation into the target language can be beyond what human interpretation is able to provide. In these cases, publishing the manuscript or a video might serve the purpose just as well, even more so in the future with increasing acceptance of remote communication. And if a purely „mechanical“ translation is what is actually needed and no human element is required, machine interpreting might do the job just as well or even better. The same goes e.g. for discussions of logistics (“At what time are you arriving at the airport?”) or other practical arrangements.

But what about the three other, more personal and emotional layers? When speakers reveal something about themselves and listeners want to find out about the other person’s motives, emotions and values or about what one thinks of the other, and it is crucial to read the message between the lines, gestures and facial expressions? When the point of a meeting is to build trust and understanding and, consequently, create a relationship? Face to face meetings are held instead of phone calls or video conferences in order to facilitate personal connections and a collective experience to build upon in future cooperation (which then may work perfectly well via remote communication on more practical or factual subjects). There are also meetings where the most important function is the appeal. The intention of sales or incentive events generally is to have a positive effect on the audience, to motivate or inspire them.

Would these three layers of communication, which very much involve the human nature of both speakers and listeners, work better with a human or a machine interpreter in between? Is a human interpreter better suited to read and convey personality and feelings, and will human interaction between persons work better with a human intermediary, i.e. a person? Customers might find an un-human interpreter more convenient, as the interpreter’s personality does not interfere with the personal relation of speaker and listener (but obviously not provide any facilitation either). This “neutral” interpreting solution could be all the more charming if it didn’t happen orally, but translation was provided in writing, just like subtitles. This would allow the voice of the original speaker to set the tone. However, when it comes to the „unspoken“ messages, the added value of interpreters is in their name: They interpret what is being said and constantly ask the question „What does the speaker mean or want?“ Mood, mocking, irony, reference to the current situation or persons present etc. will most probably not be understood (or translated) by machines for a long time, or never at all. But I would rather leave it to philosophers or sci-fi people to answer this question.

About the author:
Anja Rütten is a freelance conference interpreter for German (A), Spanish (B), English (C) and French (C) based in Düsseldorf, Germany. She has specialised in knowledge management since the mid-1990s.

Wissensmanagement im Konferenzdolmetschen – ein bisschen Theorie

Was bedeutet eigentlich Wissensmanagement für Konferenzdolmetscher?

Was man für einen Dolmetscheinsatz wissen muss, ist schnell beschrieben: So ziemlich alles in allen Arbeitssprachen. Auf der Händlertagung eines Waschmaschinenherstellers kann es plötzlich um Fußballtaktik gehen, der CFO bei einer Bilanzpressekonferenz hat womöglich eine Schwäche für Bibelzitate. Deshalb gilt grundsätzlich: Die Vorbereitung ist nie zu Ende. Da aber bekanntlich Zeit Geld ist und selbst Dolmetscher nicht alles wissen können, ist bei unserer Informations- und Wissensarbeit der Management-Begriff entscheidend, das Streben nach dem Bestmöglichen zur Erreichung des Ziels (anstelle eins unreflektierten Abarbeitens).

Strategisch ist dabei die qualifizierte Entscheidung zwischen dem Bereithalten von Information (auf Papier oder im Computer) und dem Aneignen von Wissen (im Kopf). Dieses Wechselspiel zwischen Daten, Information und Wissen ist typisch für die verschiedenen – ineinandergreifenden – Verarbeitungsebenen der Dolmetschvorbereitung:

Zusammentragen von Daten und Recherche relevanter Informationen (Tagesordnung, alte Protokolle, Präsentationen, Manuskripte, Webseiten der involvierten Parteien, Glossare),

fehlende Information wie Sachzusammenhänge und terminologische Lücken recherchieren, Auswertung und Aufbereitung der Informationen,

Nutzung der aufbereiteten Informationen, also Abgleichen mit dem eigenen Wissensbestand, Abruf und Einbindung (gezieltes Lernen der wichtigsten Terminologie und Sachverhalte bzw. das intuitive Auffindbarmachen im Dolmetscheinsatz).

Semiotik des Dolmetschens

Ähnlich wie in einem Zeichensystem finden sich auch in der Dolmetschsituation drei Informations- und Wissensdimensionen: die sprachliche, wahrnehmbare Form, die Begriffswelt (Inhalt) und die außersprachliche Wirklichkeit (Situation). Diese drei „Himmelsrichtungen“ können in der Dolmetschvorbereitung als innerer Kompass Orientierung bieten.

Anders als Übersetzer oder Terminologen arbeiten Dolmetscher für den Moment, für eine einmalige Situation mit einer definierten Gruppe von Beteiligten. Entsprechend hat diese Situation mehr Gewicht, verleit aber auch mehr Freiheit. „Richtig“ gedolmetscht ist, was hier akzeptiert oder bevorzugt wird, auch wenn es außerhalb dieser Runde niemand verstehen würde. Was korrekt belegt ist, sei es durch eine Norm, ein Nachschlagewerk oder Referenzliteratur, wird umgekehrt nicht zwingend von den Zuhörern verstanden, sei es aufgrund des Bildungshintergrundes oder auch einer anderen regionalen Herkunft.

Selbstverständlich ist es durchaus wichtig, die andersprachigen Benennungen etwa für Aktiengesellschaft, Vorstand, Aufsichtsrat und Verwaltungsrat zu kennen (Form). Im Notfall sind solche Benennungen aber nachschlagbar oder (oft effizienter) mit Druck auf die Räuspertaste bei den Kollegen erfragbar. Ist der semantische Zusammenhang zwischen diesen Begriffen bzw. die Unterschiede zwischen den Systemen unterschiedlicher Länder nicht klar (Inhalt), so wird das Füllen dieser Verständnislücke ad hoc schwierig, und die durch fehlendes Verständnis entstehenden inhaltlichen Dolmetschfehler wiegen oft schwerer als „das falsche Wort“, das aber den Inhalt dennoch transportiert. Noch irritierender wirkt es mitunter, wenn das situative Verständnis fehlt, sprich die Funktion des Aufsichtsratsvorsitzenden mit der des Vorstandsvorsitzenden verwechselt wird. Bei aller sprachlich-fachlichen Einarbeitung sollte man daher nie vergessen, sich die konkrete Kommunikationssituation zu vergegenwärtigen.

Wenn nun also Informations- und Wissensmanagement für Dolmetscher bedeutet, sich nach jedem Dolmetscheinsatz zu fragen, ob man als Wissensarbeiter optimal gearbeitet hat, wo sind denn dann die Stellschrauben, an denen man drehen kann? Grundsätzlich lohnt es sich, verschiedene Optimierungsansätze für sich selbst einmal zu durchdenken.

Selektion

Die hohe Kunst der effizienten Dolmetschvorbereitung – bzw. des Informationsmanagements im Allgemeinen – liegt häufig im Abwägen: Welche Informationen bzw . welches Wissen benötigt man (am dringendsten), was ist entbehrlich? Siehe hierzu auch Not-To-Learn Words.

Extraktion

Bei tausend Seiten Text, zweitausend Powerpoint-Folien oder einem 400-Einträge-Glossar ist es eine gute Idee, das Wichtigste (siehe oben) zu extrahieren/herauszufiltern/herauszusuchen. Für die Extraktion von Terminologie aus Texten gibt es mehr oder weniger gut funktionierende Tools. Für die inhaltliche Seite lohnt sich mitunter auch die Suche nach “menschlichen” Zusammenfassungen zu bestimmten Themen, zu vielen bekannteren Büchern gibt es für wenig Geld auch redaktionell angefertigte Zusammenfassungen, die EU hat gar eine spezielle Seite mit Zusammenfassungen von Rechtsakten angelegt.

Eingrenzen und Erweitern

Meistens hat man entweder zu viel oder zu wenig Information.

Im Internet lässt sich das zu viel oder unbrauchbar oft durch ein paar Handgriffe erledigen: Verwenden von Ausschlusswörtern (ein Minuszeichen oder NOT vor das Wort setzen), Eingrenzung auf eine bestimmte Seite (site:) verwandte Seiten finden (related:), Definitionen suchen (define:), Berücksichtigung von Synonymen bei der Suche (~), Herkunftsland (loc:) usw. Wenn man die zahlreichen Online-Nachschlagewerke durchsuchen möchte, können Such-Tools, die verschiedene Quellen gleichzeitig durchsuchen, die Arbeit erleichtern und Nerven schonen – so etwa sb.qtrans.de.

Bei der eigenen Terminologie ist es wichtig, dass man die Suche wahlweise nach Themenbereich („Bilanzen“), Kunden, Sprachen, Anlass („Jahresbilanzpressekonferenz Firma XY in Z“) oder Art der Veranstaltung (etwa EBR) eingrenzen kann.

Übersichtlichkeit

Verbringt man (gefühlt) mehr Zeit mit dem Suchen als mit dem Finden, so kann es sinnvoll sein, gedanklich einen Schritt zurückzutreten und zu überlegen, an welcher Stelle genau es ruckelt. Beispielsweise kann man zu einem Auftrag alle Informationen in einer Excel-Datei sammeln (Tagesordnung, Glossar etc.), um diese auf einen Schlag durchsuchen zu können. Bei sehr vielen Manuskripten oder zu diskutierenden Sitzungsdokumenten können auch Notizbuch-Programme wie MS-OneNote oder Evernote hervorragend für Übersicht und Ordnung sorgen. Prinzipiell findet man seine Termini schneller, wenn man sie in einer einzigen Datenbank ablegt und nicht in unterschiedlichen Dokumenten – denn früher oder später gibt es immer Überschneidungen zwischen verschiedenen Einsatzbereichen oder Kunden. Muss man in der Kabine mit dem Blick bzw. der Aufmerksamkeit ständig zwischen Computer und Papierunterlagen wechseln, kann es sich lohnen, eine bewusste Entscheidung gegen diesen Medienbruch zu treffen und konsequent am Rechner oder auf Papier zu arbeiten.

Wenn in einer Sitzung mit Paralleltexten gearbeitet wird, etwa wenn ein Vertragstext diskutiert wird, lohnt es sich, über eine ordentliche Paralleltextanzeige nachzudenken. Oft leistet das Kopieren in eine Tabelle hier wahre Wunder, aber auch der Import in ein Translation-Memory-System ist, wenn das Alignieren einigermaßen funktioniert, eine sehr komfortable Kabinenlösung. Selbst pdfs in mehreren Sprachen lassen sich mit einem praktischen Tool nebeneinanderlegen.

Strukturierung

Ordnung ist da halbe Leben … warum eigentlich? Ganz einfach: Man verbringt nicht so viel Lebenszeit mit dem Überlegen, wo man dieses und jenes nun hinräumen soll bzw. hingeräumt hat. Deshalb ist beispielsweise eine ordentliche Dateiablagesystematik und eine Terminologiedatenbank ein Beitrag zur schnellen Wissenslückenfüllung im Dolmetscheinsatz sowie zur allgemeinen Dolmetscherzufriedenheit. Hinzu kommt, dass eine gute Datenstruktur der beste Weg zur Null-Nachbereitung ist. Zumindest beim Simultandolmetschen meist leicht zu bewerkstelligen, ist es nützlicher, motivierender und leichter zu merken, Wissenslücken gleich in der Anwendungssituation zu recherchieren. Wenn man die gefundene Information ordentlich ablegt (Terminologie dem Kunden/Thema/Anlass zugeordnet), erübrigt sich die Nachbereitung am eigenen Schreibtisch.

Systematisierung und Beschleunigung

Egal, wie gut man sich strukturiert und organisiert, manchmal ist man einfach nicht schnell genug oder vergisst das Wichtigste. Hier hilft es, Standards zu schaffen. Handlungen, die eine Gewohnheit sind, erfordern weniger Aufmerksamkeit und Energie. Immer die gleiche Ablagesystematik bei E-Mails und Dokumenten, eine Checkliste für die Angebotserstellung, Standardfragen („Wer macht Was mit Wem Wozu?“) bei mündlichen Kundenbriefings, Rituale bei der Aktivierung von Passivwissen. Manches kann man auch an den Computer delegieren, zum Beispiel die Erinnerung an die Steuererklärung oder das Abonnieren von Zeitungen und Newslettern.

Oft kann Software helfen, etwa beim gleichzeitigen Durchsuchen unzähliger Dateien mit einer Desktopsuchmaschine, beim Abgleich von Texten mit Glossaren oder bei der Alignierung verschiedener Sprachfassungen mittels eines Translation-Memory-Systems. Aber auch rein geistige, nicht computergestützte Fähigkeiten lassen sich beschleunigen, so etwa durch das Erlernen effizienterer Lesetechniken wie Improved Reading.

Kooperation und Arbeitsteilung

Noch relativ neu, aber aus dem Dolmetschalltag vieler Kollegen schon kaum noch wegzudenken, sind cloudbasierte Plattformen zur Teamzusammenarbeit. Vor allem bei extrem fachspezifischen und dichten Konferenzen, in denen das Dolmetschteam sich die Vorbereitungsarbeit teilt, bieten sie eine Möglichkeit, emeinsam und doch unabhängig voneinander v.a. Terminlogie zu erarbeiten und Dokumente abzulegen. Die Vorteile liegen auf der Hand: Das Team ist immer auf dem gleichen Stand, kann sich zu Detailfragen austauschen, jeder kann die Wissenslücken des anderen ergänzen. Wenn eine solche einfache Datenbank gut strukturiert ist, hat auch jeder die Möglichkeit, seine persönliche Ansicht zu generieren, ohne von subjektiv als irrelevant empfundenen Daten „gestört“ zu werden.

Und bei dieser Vielzahlt an Möglichkeiten gilt natürlich genau wie in der Kabine: Nur nicht die Übersicht verlieren 😉

————————
Über die Autorin:
Anja Rütten ist freiberufliche Konferenzdolmetscherin für Deutsch (A), Spanisch (B), Englisch (C) und Französisch (C) in Düsseldorf. Sie widmet sich seit Mitte der 1990er dem Wissensmanagement.

Informations- und Wissensmanagement im Konferenzdolmetschen. Sabest 15. Frankfurt: Peter Lang. [Dissertation] www.peterlang.net

Simultaneous interpreting with VR headset | Dolmetschen unter der Virtual-Reality-Brille | Interpretación simultanea con gafas VR

+++ for English see below +++ para español, aun más abajo +++
2016 wurde mir zum Jahresausklang eine Dolmetscherfahrung der ganz besonderen Art zuteil: Dolmetschen mit Virtual-Reality-Brille. Sebastiano Gigliobianco hat im Rahmen seiner Masterarbeit am SDI München drei Remote-Interpreting-Szenarien in Fallstudien durchgetestet und ich durfte in den Räumen von PCS in Düsseldorf als Probandin dabei sein. Mehr zu den Erkenntnissen seiner Untersuchungen dürfen wir hoffentlich im Laufe des Jahres von Sebastiano selbst erfahren. Hier deshalb nur meine persönlichen Impressionen:
 
  • Relativ offensichtlich, aber doch eine Herausforderung: Mit VR-Brille auf dem Kopf ist man in der realen Welt blind. Das ist für das Bedienen des Dolmetschpultes nicht ganz trivial, so dass ich mich während der ersten fünf Minuten panisch am Lautstärkeknopf festgekrallt habe, um diesen bloß nicht aus dem Griff zu verlieren. Erstaunlicherweise hatte ich aber schon nach kurzer Zeit die geographische Lage des Lautstärkereglers so verinnerlicht, dass ich auch freihändig dolmetschen konnte und meine Hand den Regler trotzdem bei Bedarf problemlos wiederfand. Mir stellt sich spontan die Frage, ob es dafür im Gehirn ein separat zuständiges Areal gibt (so wie den Extra-Magen für Nachtisch).
  • Ich hätte nicht gedacht, dass es unter der VR-Brille so nett ist. Bisher kannte ich aus der VR-Welt nur abgefahrene Spielszenarien wie Spukschlösser oder Unterwasserwelten. Nun befand ich mich aber in einer ganz normalen Arbeitsumgebung, einer Art Werksführung, und stand in Gestalt einer Kamera auf einem Stativ mitten zwischen den Rednern und konnte durch Kopfdrehung intuitiv genau dorthin blicken, wohin ich wollte. Dass ich dabei dem jeweiligen Redner immer ungeniert mitten ins Gesicht glotzen konnte, ohne diesen zu irritieren, war lustig und auch fürs Dolmetschen ziemlich nützlich. Jedenfalls musste ich zu keinem Zeitpunkt mit Blick auf das Genick des Redners dolmetschen.
  • 360-Grad-Drehungen auf dem Bürostuhl in der herkömmlichen Dolmetschkabine sind etwas beschwerlich.
  • Natürlich kann man nicht ewig mit so einem Klotz auf dem Kopf arbeiten, frisurenschädlich ist er obendrein. Aber als Motorola 1983 das erste (800 g schwere!) Handy auf dem Markt brachte (1987 zu sehen in Wallstreet an der Seite von Michael Douglas), hatte auch noch niemand unsere heutigen schnuckeligen Smartphones im Sinn.

————————
Über die Autorin:
Anja Rütten ist freiberufliche Konferenzdolmetscherin für Deutsch (A), Spanisch (B), Englisch (C) und Französisch (C) in Düsseldorf. Sie widmet sich seit Mitte der 1990er dem Wissensmanagement.

+++ EN +++ EN +++ EN +++ EN +++

In 2016, I had a real end-of-year special: interpreting with a virtual reality headset on (or rather: around) my head. Sebastiano Gigliobianco, student at the SDI in Munich, wanted to test three remote interpreting scenarios for his master’s thesis – and I was one of the lucky test persons who were invited to the premises of PCS in Düsseldorf. We will hopefully hear more about Sebastiano’s findings in the course of the year. For the moment, I would like to share with you my personal impressions:
  • Obviously, with VR goggles on, you are blind for the real world. A fact, however, not to be neglected when it comes to handling the knobs and buttons of the interpreter console in the booth. So for the first five minutes, I did not dare to let go of the volume control. But then after some time, to my own surprise I managed to locate the knob quite easily, so that I could speak and use both my hands freely and still control the volume intuitively. This makes me wonder whether there is a separate brain area for geographic localisation of things that does not interfere with interpreting. (Just like that extra stomach the dessert seems to go to.)
  • I hadn’t expected to be that much at ease wearing a VR headset. So far, my VR experience has been all haunted castles and underwater scenery. But now I found myself in the middle of a very normal working environment, i. e. a kind of factory tour, standing (in the form of a camera mounted on a tripod) right between the participants. And by simply turning my head, the camera would swivel around and let me look where I wanted to look. Basically, I could stare right into the speaker’s face without causing irritation, which was both fun and very useful. I really liked the fact that at no time I had to interpret looking at the speaker’s back.
  • 180 degree rotations are not the most comfortable thing to do sitting on an office chair in a traditional interpreting booth.
  • You obviously cannot spend a whole day interpreting with this clumsy apparatus mounted on your head (not even to mention what it does to your hair). But then, when Motorola launched the first mobile phone back in 1983 (starring in „Wall Street“ together with Michael Douglas in 1987), none of us had in mind those neat little smartphones we have nowadays.

————————–
About the author:
Anja Rütten is a freelance conference interpreter for German (A), Spanish (B), English (C) and French (C) based in Düsseldorf, Germany. She has specialised in knowledge management since the mid-1990s.

+++ ES +++ ES +++ ES +++ ES +++

Para finalizar el año 2016, tuve una experiencia muy especial: interpretar en un entorno de realidad virtual, o sea con unas gafas VR puestas. Sebastiano Gigliobianco, estudiante del SDI en Múnich, estudió tres escenarios de interpretación remota en el marco de su tesis de máster, y a mí me tocó participar como voluntaria en las instalaciones de PCS en Düsseldorf. Espero que muy pronto podamos aprender más sobre los hallazgos de Sebastiano, así que, por el momento, me limito a compartir mis impresiones personales:
  • Con las gafas VR puestas, uno está ciego en el mundo real, un hecho nada desdeñable cuando se trata de manejar los botones de una consola de interpretación. De modo que, durante los primeros cinco minutos de interpretación, no solté ni un segundo el control de volumen. Pero luego me fui acostumbrando, y al final tenía memorizada la ubicación de este botón y con mucha facilidad podía controlar el volumen de forma intuitiva y hablar usando mis manos libremente. Casi pareciera que hay un área cerebral para localizar cosas que funciona independientemente de la interpretación simultánea. (Igual que el famoso estómago separado para postres en donde siempre cabe un postrecito.)
  • No me hubiera imaginado que estaría tan a gusto trabajando con las gafas VR. Hasta la fecha, mi experiencia VR se había limitado a los castillos embrujados y los paisajes acuáticos. Pero en este caso, me encontré en medio de un entorno de interpretación muy normal, o sea un tipo de visita de planta, ubicada (en forma de una cámara que está montada sobre un trípode) justamente entre los interlocutores. Nada más moviendo la cabeza podía hacer girar la cámara y con eso dirigir mi mirada en la dirección que quisiera. Esto me permitía mirar al orador directamente a la cara, cosa que en la vida normal sería un poco indiscreta, pero así no causó ninguna irritación. Era divertido y muy útil a la vez. Y me encantó que en ningún momento tuve que interpretar a una persona que me daba la espalda.
  • Las rotaciones de 180 grados no se realizan con facilidad en una silla giratoria dentro de una cabina de interpretación común y corriente.
  • Está claro que no se puede pasar un día entero interpretando con esas gafotas monstruosas en la cabeza (ni hablar de cómo te dejan despeinada).  Pero en fin, cuando Motorola lanzó el primer celular en 1983 (y fue una especie de protagonista en 1987 al lado de Michael Douglas en „Wall Street“), tampoco nos hubiéramos imaginado los smartphones chiquititos y chulos que tenemos hoy en día.

 

————————–

La autora:
Anja Rütten es intérprete de conferencias autónoma para alemán (A), español (B), inglés y francés (C), domiciliada en Düsseldorf/Alemania. Se dedica al tema de la gestión de los conocimientos desde mediados de los años 1990.

Hello from the other side – Chinese and Terminology Tools. A guest article by Felix Brender 王哲謙

As Mandarin Chinese interpreters, we understand that we are somewhat rare beings. After all, we work with a language which, despite being a UN language, is not one you’d encounter regularly. We wouldn’t expect colleagues working with other, more frequently used languages to know about the peculiarities of Mandarin.

This applies not least to terminology tools. Many of the tools available to interpreters do now support Chinese-script entries. And indeed: Interpreting from English into Chinese, terminology software works as well for Chinese as it would for any other language – next to good old Excel, I myself have used InterPlex, Interpret Bank and flashterm. It’s rather when working from Chinese into English that things get tricky – and that’s not necessarily a software issue.

Until recently, many interpreters were convinced and rather adamant that simultaneous interpreting with Chinese is downright impossible, and I am sometimes tempted to agree. Compared to English – left alone German – Chinese is incredibly dense. Many words consist of only one syllable, and only very few of more than two. Owing to the way Chinese works grammatically, the very same idea can be expressed a lot more concisely in Chinese than English. To make matters worse, we replace modern Mandarin expressions with written, Classical Chinese equivalents in formal Mandarin. As a rule of thumb, the more formal the Chinese used, the more succinct it will be as well – rather different from English or German. This also is the case with proper names and terminology, which will usually have abbreviated forms that are a lot shorter syllable-wise than their English equivalents.

Adding to that, Chinese natives are incredibly fond of their language and make ample use of its full range of options: Using rare and at times byzantine expressions and words is appreciated and applauded as a sign of good education; it is never perceived as pedantic or conceited. This includes idioms (chengyu 成語), which usually refer to a story from the Chinese Classics in a highly condensed fashion: They generally contain a mere four syllables and usually function as adjectives, in contrast to English or German. In English, we will need at least a full sentence to explain what is being said, even if the same or a similar idiom exists. Chinese also frequently uses xiehouyu 歇後語: proverbs consisting of two parts, the first presenting a scenario, the second outlining the rationale of the story. Usually, the second part will be left out because Chinese natives will be able to deduce it from the first – similar to speak of the devil (and he will appear) in English. Needless to say, there hardly ever is an English equivalent, and seeing that we are operating in entirely different cultural contexts, ironing out cultural differences when explaining xiehouyu will take additional time.

It will be no surprise to hear that Chinese discursive and grammatical peculiarities make it a difficult language to interpret from: relative clauses tend to be lengthy – and are always placed in front of the noun they describe; Chinese doesn’t mark tenses as such but rather uses particles to outline how different events and actions relate to each other, in contrast to linear notions of time and tenses in European languages, so we are often left guessing; he and she are homonyms in Mandarin; to name but three examples.

Considering all of this, we see that more often than not, simultaneous interpreting from Chinese is a race against the clock and an exercise in humility – and there isn’t much time to look up words in the first place.

In Modern Mandarin, there are only around 1,200 possible syllables, with each syllable being a morpheme, i.e. a component bearing meaning; in English, we have a far greater range of possible syllables, and they only make sense in context, as not every syllable carries meaning: /mea/ and /ning/ do not mean anything per se, but meaning does. For Chinese, this implies that homophones are a common occurrence. And while we aim for perfect clarity and lucidity in English, Chinese rather daoistically indulges in ambivalence. Clever plays on words, being illusive and vague and giving listeners space to interpret what you might actually mean: not bad style, but an art to be honed. Apart from having to spend more capacity and time on identifying terms and words used in the original, this adds another layer of difficulty with regards to looking up terminology in the booth: The fastest way to type Chinese characters is by using pinyin romanisation, but owing to the huge number of homonyms, any syllable in romanized transliteration will give you a huge range of options. This means that we would have to spend at least another second or so simply to select the correct character from a drop-down list – and we will not enjoy the pleasure of word prediction that works for other languages.

In practice, this means that besides very intensive preparation before the event, we rely on what might be the oldest terminology tool in the world: our booth buddy. They are particularly important because in Chinese, we obviously don’t have any cognates – something than might get us off the hook working with European languages. We also heavily rely on our colleagues sitting next to us for figures: Chinese has ten thousand (萬) and one hundred million (億) as units in their own right, so rather than talking about one million and one billion, the Chinese will talk about a hundred times ten thousand and ten times one hundred million, respectively. This means we will have to be calculating while interpreting: a feat hard to accomplish if you are out there on your own.

While I started out thinking that not being able to use terminology software to the same extent I would use it for German-English would be quite a nuisance, I have found that this is rather an instance of the old man living at the border whose horse runs away1, as you’d say in Chinese. Interpreting is teamwork after all, and working with Chinese, we are acutely aware that we rely on our booth buddy as much as they rely on us and that we can only provide the excellent service we do with somebody else in the booth. With that in mind, professional Chinese interpreters always make for great partners in crime in the booth.

About the author:

Felix Brender 王哲謙 is a freelance conference interpreter for English, Chinese and German based in Düsseldorf/Germany. He also teaches DE>EN at the University of Heidelberg, and ZH>EN interpreting as a guest lecturer in Leeds, UK, and Taipei, Taiwan.

1 (which, as the story goes, then returns, bringing a fine stallion with it, which is then ridden by his son, who falls of the horse and breaks his leg, which is why he is not drafted and sent to war, ultimately saving his life; meaning that any setback may indeed be a blessing in disguise, similar but not entirely identical to every cloud has a silver lining. One of the most frequently used Chinese sayings, eight syllables of which the latter four are generally left out: 塞翁失馬,焉知非福, which literally translates as ‘When the old man from the frontier lost his horse, how could one have known that it would not be fortuitous?’. I rest my case.)