Interpreting and the Computer – finally a happy couple?

This year’s 39th edition of the Translating and the Computer conference, which Barry Olsen quite rightly suggested renaming to Translating and Interpreting and the Computer :-), had a special focus on interpreting, so obviously I had to go to London again! And I was all the more looking forward to going there as – thanks to Alex Drechsel’s and Josh Goldsmith’s wonderful idea – I was going to be a panelist for the first time in my life (and you could tell by the   just how excited we all were about our panel, and the whole conference for that matter).

The panelists were (from left to right):
Joshua Goldsmith (EU and UN accredited freelance interpreter, teacher and researcher, Geneva)
Anja Rütten (EU and UN accredited AIIC freelance interpreter, teacher and researcher, Düsseldorf)
Alexander Drechsel (AIIC staff interpreter at the European Commission, Brussels – don’t miss Alex’ report about Translating and the Computer 39 including lots of pictures of the event!)
Marcin Feder (Head of Interpreter​ Support and Training Unit at the European Parliament, Brussels)
Barry Slaughter Olsen (AIIC freelance interpreter, Associate Professor at the MIIS Monterey and Co-President of InterpretAmerica),
Danielle D’Hayer, our moderator (Associate Professor at London Metropolitan University)

If you have an hour to spare, here’s the complete audio recording (thanks for sharing, Alex!): “Live at TC39: New Frontiers in Interpreting Technology” on Spreaker.

If I had to summarise the conference in one single word, it would be convergence. It appears to me from all the inspiring contributions I heard that finally things are starting to fall into place, converging towards supporting humans in doing their creative tasks and decision-making by sparing them the mechanical, stupid work. This obviously does not only apply to the small world of interpreting, but to many other professions, too. “It is not human against machine, but human plus mashine”, as Sarah Griffith Masson, Chair of the Institute of Translation and Interpreting (ITI) and Senior Lecturer in Translation Studies at the University of Portsmouth, put it in her speech.

OK, this is easy to say on a conference called “Translating and the Computer”, where the audience is bound to be a bit on the nerdy side. And the truth is, Gloria Corpas Pastor, Professor of Translation and Interpreting of the University of Malaga, presented some slightly sobering results of her survey about the use of computers among translators and interpreters. It looks like interpreters are less technology-prone than translators, a fact that made most of us in the audience nodd knowingly. But no reason to be pessimistic, given the many interesting use cases presented at the conference, plus the efforts being made, for example, at the European Commission and Parliament to provide confererence interpreters with the tools they need for their information and knowledge management, as Alexander Drechsel and Marcin Feder reported.

So while for everyone who is not an interpreter, interpreters rather seem to be the frontier to be overcome by technology, the conference was all about new frontiers in interpreting in the sense of how technology can best be used in order to support interpreters and turn the relation between interpreters and computers into a symbiotic one. Here are the key ideas I personally took home from the conference:

Whatsappify translators’ software

A question asked by several representative from international organisations like WIPO (who by the way have this wonderful online term database called WIPO pearl), EU, WTO and UN was what our ideal software support for the booth would look like. Unfortunately, the infallible information butler described back in 2003 has not become reality yet, but many things like intuitive searching and filtering, parallel reading/scrolling of documents in two languages, linking the term in its textual context to the entry in the term database have been around for twenty years in Translation Memory systems. Most international organisations have so many translation ressources that could be tapped if only the access to them were open and a bit more tailored to the needs of interpreters. Translators and interpreters could then benefit from each others work much more than they tend to do nowadays. Obviously, a lot could be gained by developing more interpreter-friendly user interfaces.

Which reminds me a bit of WhatsApp. People who wouldn’t go anywhere near a computer before and could hardly manage to receive, let alone write, an email, seem to have become heavy WhatsApp users with the arrival of smartphones. While good old emails have been offering pretty much the same functions AND don’t force you to use always the same device, it’s stupid WhatsApp that finally has turned electronic written communication into the normal thing to do, simply by being much more fashionable, intuitive and user-friendly. So maybe what we need is a “WhatsAppification” of Translation Memory systems in order to make them more attractive (not to say less ugly, to quote Josh Goldsmith) to interpreters?

Making the connection between glossaries and documents

Clearly in the world of glossary or terminology management for simultaneous interpreting, of the nine interpreter-specific solutions I am aware of and had the honour to present in a workshop (thanks to everyone for showing up at 9 am!), InterpretBank and InterpretersHelp are the most forward-moving, ambitious and innovative ones. InterpretersHelp has just released a term extraction feature (to be tested soon) similar to that of Intragloss, i.e. you can add terms from parallel reference texts to your glossary easily. InterpretBank has even integrated a real term extraction feature similar to that of SketchEngine (also to be tested soon). If interpreters cannot be bothered to use translation memories after all, maybe that’s the way forward.

Automatic speech recognition reducing interpreters’ listening effort

Claudio Fantinuoli from Germersheim presented InterpretBank’s latest beta function: It uses speech recognition to provide life transcription of the speech, extracts numbers, names and technical terms and displays them, the latter together with their target language equivalents from the glossary.  This is the impressive demo video giving a glimpse of what is technically feasible.

Although it has to be admitted that it was made in a controlled environment with the speaker pronouncing clearly and in Britsh English. But still, there is reason to hope for more!

There was a nice coincidence that struck me in this context: Recently, I conducted a case study (to be published in 2018) where I analysed interpreters’ booth notes. In this study, numbers, acronyms (mostly names of organs or organisations) and difficult technical terms (mainly nouns) were the items most frecuently written down – and this is exactly what InterpretBank automatically highlights on the transcription screen.

What I have always liked about InterpretBank, by the way, is the fact that there is always science behind it. This time Bianca Prandi, doctoral student at the University of Germersheim, presented the research she plans on the cognitive load of using CAI or computer-assisted interpreting or CAI tools. I am really looking forward to hearing more of her work in the future.

The second speaker who showed a speech recognition function to support interpreters was keynote speaker Prof. Alexander Waibel – not a conference interpreter, for a change, but reputable personal trainers and Professor of Computer Science at Carnegie Mellon University, Pittsburgh and at the Karlsruhe Institute of Technology, Germany (who even has his own Wikipedia entry). During his extremely interesting and entertaining speech about deep learning, neuronal mashine translation and speech recognition, he also presented a life transcript function to support interpreters in the booth.

Paper and electronic devices all becoming one thing

I very much enjoyed talking and listening to the two most tablet-savy conference interpreters I am aware of (doubling as my co-panelists), Alexander Drechsel and Josh Goldsmith. I find the idea of using a tablet for note-taking very enticing, even more so after having seen Josh’s demo. And I don’t agree that the only reason to replace paper by a tablet is to look better or “just to try it out”. Alex and Josh could name so many advantages (consulting a dictionary or glossary in parallel, adjusting the pen colour, not having to turn the pages of your block after every two sentences). The most obvious to me is that don’t have to be afraid of running out of paper, by the way. And luckily, Josh’s study now tells us which devices are best suited to interpreters’ needs:

When we discussed the use of computers among interpreters and interpreting students in the panel, it was interesting to hear about the different experiences. Everyone seemed to agree that young interpreters or interpreting students, despite being “digital natives” and computer-savvy (which most panelists agreed is a myth), cannot necessarily be expected to be able to manage their information and knowledge professionally. On the other hand, common practice seemed to differ from using paper, laptop computers, tablets or even doing relying completely on smartphonse for information management, like our wonderful panel moderator Danielle D’Hayer reported her students did. She seemed to me the perfect example of not “teaching” the use of technologies, but just using them right from the beginning of the courses.

Remote everything: cloud-based online collaboration and distance interpreting

Although in the panel discussion not everyone seemd to share my experience, I think that team glossaries, nowadays more often than not created in Google Sheets, are about to become common practice in conference preparation. Apart from being great fun, it saves time, boosts team spirit, and improves the knowledge base of everyone involved. Not to mention the fact that it is device and operating system neutral, visit if you have lack of time maybe they have solution you need. There is, however, a confidentiality problem when using sensible customer data, but this could be solved by using encrypted solutions like or

Now once we are all able to collaborate, prepare and get to know each other online, we seem to be perfectly prepared to work in simultaneous interpreting teams remotely, i.e. from different places. Luckily, the two most knowledgeable colleagues in remote interpreting I know of, Klaus Ziegler (AIIC freelance interpreter and chair of the AIIC technical committee) and Barry Olsen), were at the conference, too. There is so much to be said about this subject that it would fill several blog posts. My most important lessons were: Remote interpreting technologies don’t necessarily imply lower rates in interpreting. The sound quality of videoconferences via normal (private) phone lines is usually not sufficient for simultaneous interpreting. The use of videoconference interpreting seems to be much more widespread in the U.S. than it is in Europe. It is a good idea for conference interpreters’ associations like AIIC to play an active role (as Klaus Ziegler is thankfully doing) in the development of technologies and standards.

Simultaneous and consecutive interpreting merging into simconsec

The last thing to be noted as converging thanks to modern technology is simultaneous and consecutive interpreting, i.e. using tablets and smartpens to record the original speech and replaying it while rendering the consecutive interpretation. Unfortunately, there was not time to talk about this in detail, but here is a one minute demo video to whet your appetite.

And last but not least: Thank you very much to Barry Olsen for the lovely live interview we had (not to be missed: the funny water moment)!

And of course: Spread the word about next year’s 40th anniversary of Translating and the Computer!

Simultaneous interpreting with VR headset | Dolmetschen unter der Virtual-Reality-Brille | Interpretación simultanea con gafas VR

+++ for English see below +++ para español, aun más abajo +++
2016 wurde mir zum Jahresausklang eine Dolmetscherfahrung der ganz besonderen Art zuteil: Dolmetschen mit Virtual-Reality-Brille. Sebastiano Gigliobianco hat im Rahmen seiner Masterarbeit am SDI München drei Remote-Interpreting-Szenarien in Fallstudien durchgetestet und ich durfte in den Räumen von PCS in Düsseldorf als Probandin dabei sein. Mehr zu den Erkenntnissen seiner Untersuchungen dürfen wir hoffentlich im Laufe des Jahres von Sebastiano selbst erfahren. Hier deshalb nur meine persönlichen Impressionen:
  • Relativ offensichtlich, aber doch eine Herausforderung: Mit VR-Brille auf dem Kopf ist man in der realen Welt blind. Das ist für das Bedienen des Dolmetschpultes nicht ganz trivial, so dass ich mich während der ersten fünf Minuten panisch am Lautstärkeknopf festgekrallt habe, um diesen bloß nicht aus dem Griff zu verlieren. Erstaunlicherweise hatte ich aber schon nach kurzer Zeit die geographische Lage des Lautstärkereglers so verinnerlicht, dass ich auch freihändig dolmetschen konnte und meine Hand den Regler trotzdem bei Bedarf problemlos wiederfand. Mir stellt sich spontan die Frage, ob es dafür im Gehirn ein separat zuständiges Areal gibt (so wie den Extra-Magen für Nachtisch).
  • Ich hätte nicht gedacht, dass es unter der VR-Brille so nett ist. Bisher kannte ich aus der VR-Welt nur abgefahrene Spielszenarien wie Spukschlösser oder Unterwasserwelten. Nun befand ich mich aber in einer ganz normalen Arbeitsumgebung, einer Art Werksführung, und stand in Gestalt einer Kamera auf einem Stativ mitten zwischen den Rednern und konnte durch Kopfdrehung intuitiv genau dorthin blicken, wohin ich wollte. Dass ich dabei dem jeweiligen Redner immer ungeniert mitten ins Gesicht glotzen konnte, ohne diesen zu irritieren, war lustig und auch fürs Dolmetschen ziemlich nützlich. Jedenfalls musste ich zu keinem Zeitpunkt mit Blick auf das Genick des Redners dolmetschen.
  • 360-Grad-Drehungen auf dem Bürostuhl in der herkömmlichen Dolmetschkabine sind etwas beschwerlich.
  • Natürlich kann man nicht ewig mit so einem Klotz auf dem Kopf arbeiten, frisurenschädlich ist er obendrein. Aber als Motorola 1983 das erste (800 g schwere!) Handy auf dem Markt brachte (1987 zu sehen in Wallstreet an der Seite von Michael Douglas), hatte auch noch niemand unsere heutigen schnuckeligen Smartphones im Sinn.

Über die Autorin:
Anja Rütten ist freiberufliche Konferenzdolmetscherin für Deutsch (A), Spanisch (B), Englisch (C) und Französisch (C) in Düsseldorf. Sie widmet sich seit Mitte der 1990er dem Wissensmanagement.

+++ EN +++ EN +++ EN +++ EN +++

In 2016, I had a real end-of-year special: interpreting with a virtual reality headset on (or rather: around) my head. Sebastiano Gigliobianco, student at the SDI in Munich, wanted to test three remote interpreting scenarios for his master’s thesis – and I was one of the lucky test persons who were invited to the premises of PCS in Düsseldorf. We will hopefully hear more about Sebastiano’s findings in the course of the year. For the moment, I would like to share with you my personal impressions:
  • Obviously, with VR goggles on, you are blind for the real world. A fact, however, not to be neglected when it comes to handling the knobs and buttons of the interpreter console in the booth. So for the first five minutes, I did not dare to let go of the volume control. But then after some time, to my own surprise I managed to locate the knob quite easily, so that I could speak and use both my hands freely and still control the volume intuitively. This makes me wonder whether there is a separate brain area for geographic localisation of things that does not interfere with interpreting. (Just like that extra stomach the dessert seems to go to.)
  • I hadn’t expected to be that much at ease wearing a VR headset. So far, my VR experience has been all haunted castles and underwater scenery. But now I found myself in the middle of a very normal working environment, i. e. a kind of factory tour, standing (in the form of a camera mounted on a tripod) right between the participants. And by simply turning my head, the camera would swivel around and let me look where I wanted to look. Basically, I could stare right into the speaker’s face without causing irritation, which was both fun and very useful. I really liked the fact that at no time I had to interpret looking at the speaker’s back.
  • 180 degree rotations are not the most comfortable thing to do sitting on an office chair in a traditional interpreting booth.
  • You obviously cannot spend a whole day interpreting with this clumsy apparatus mounted on your head (not even to mention what it does to your hair). But then, when Motorola launched the first mobile phone back in 1983 (starring in “Wall Street” together with Michael Douglas in 1987), none of us had in mind those neat little smartphones we have nowadays.

About the author:
Anja Rütten is a freelance conference interpreter for German (A), Spanish (B), English (C) and French (C) based in Düsseldorf, Germany. She has specialised in knowledge management since the mid-1990s.

+++ ES +++ ES +++ ES +++ ES +++

Para finalizar el año 2016, tuve una experiencia muy especial: interpretar en un entorno de realidad virtual, o sea con unas gafas VR puestas. Sebastiano Gigliobianco, estudiante del SDI en Múnich, estudió tres escenarios de interpretación remota en el marco de su tesis de máster, y a mí me tocó participar como voluntaria en las instalaciones de PCS en Düsseldorf. Espero que muy pronto podamos aprender más sobre los hallazgos de Sebastiano, así que, por el momento, me limito a compartir mis impresiones personales:
  • Con las gafas VR puestas, uno está ciego en el mundo real, un hecho nada desdeñable cuando se trata de manejar los botones de una consola de interpretación. De modo que, durante los primeros cinco minutos de interpretación, no solté ni un segundo el control de volumen. Pero luego me fui acostumbrando, y al final tenía memorizada la ubicación de este botón y con mucha facilidad podía controlar el volumen de forma intuitiva y hablar usando mis manos libremente. Casi pareciera que hay un área cerebral para localizar cosas que funciona independientemente de la interpretación simultánea. (Igual que el famoso estómago separado para postres en donde siempre cabe un postrecito.)
  • No me hubiera imaginado que estaría tan a gusto trabajando con las gafas VR. Hasta la fecha, mi experiencia VR se había limitado a los castillos embrujados y los paisajes acuáticos. Pero en este caso, me encontré en medio de un entorno de interpretación muy normal, o sea un tipo de visita de planta, ubicada (en forma de una cámara que está montada sobre un trípode) justamente entre los interlocutores. Nada más moviendo la cabeza podía hacer girar la cámara y con eso dirigir mi mirada en la dirección que quisiera. Esto me permitía mirar al orador directamente a la cara, cosa que en la vida normal sería un poco indiscreta, pero así no causó ninguna irritación. Era divertido y muy útil a la vez. Y me encantó que en ningún momento tuve que interpretar a una persona que me daba la espalda.
  • Las rotaciones de 180 grados no se realizan con facilidad en una silla giratoria dentro de una cabina de interpretación común y corriente.
  • Está claro que no se puede pasar un día entero interpretando con esas gafotas monstruosas en la cabeza (ni hablar de cómo te dejan despeinada).  Pero en fin, cuando Motorola lanzó el primer celular en 1983 (y fue una especie de protagonista en 1987 al lado de Michael Douglas en “Wall Street”), tampoco nos hubiéramos imaginado los smartphones chiquititos y chulos que tenemos hoy en día.



La autora:
Anja Rütten es intérprete de conferencias autónoma para alemán (A), español (B), inglés y francés (C), domiciliada en Düsseldorf/Alemania. Se dedica al tema de la gestión de los conocimientos desde mediados de los años 1990.

Impressions from Translating and the Computer 38

The 38th ‘Translating and the Computer’ conference in London has just finished, and, as always, I take home a lot of inspiration. Here are my personal highlights:

  • Sketch Engine, a language corpus management and query system, offers loads of useful functions for conference preparation, like web-based (actually Bing-based) corpus-building, term extraction (the extraction results come with links to the corresponding text, the lists are exportable to common, reusable formats) and thesaurus-building. The one thing l liked most was the fact that if, for example, your clients have their websites in several languages, you can enter the urls of the different language versions and SketchEngine will download them, so that you can then use the texts a corpus. You might hear more about SketchEngine from me soon …
  • XTM, a translation memory system, offers parallel text alignment (like many others do) with the option of exporting the aligned texts into xls. This finally makes them reusable for those many interpreting colleagues who, for obvious reasons, do not have any translation memory system. And the best thing is, you can even re-export an amended version of this file back into the translation memory system for your translator colleagues to use. So if you interpret a meeting where a written agreement is being discussed in several language versions, you can provide the translators first hand with the amendments made in the meeting.
  • SDL Trados now offers an API and has an App Store. New hope for an interpreter-friendly user interface!

All in all, my theory that you just have to wait long enough for the language technology companies to develop something that suits conference interpreters’ needs seems to materialise eventually. Also scientists and software providers alike were keen to stress that they really want to work with translators and interpreters in order to find out what they really need. The difficulty with conference interpreters seems to be that we are a very heterogeneous community with very different needs and preferences.

And then I had the honour to run a workshop on interpreters workflows and fees in the digital era (for some background information you may refer to The future of Interpreting & Translating – Professional Precariat or Digital Elite?). The idea was to go beyond the usual “digitalisation spoils prices and hampers continuous working relations” but rather find ways to use digitalisation to our benefit and to boost good working relationships, quality and profitability. I was very happy to get some valuable input from practicioners as well as from several organisations’ language services and scientists. What I took away were two main ideas: interface-building and quality rating.

Interface-building: By cooperating with the translation or documentation department of companies and organisations, quality and efficiency could be improved on both sides (translators providing extremely valuable and well-structured input for conference preparation and interpreters reporting back “from the field”). Which brings me back to the aforementioned positive outlook on the sofware side.

Quality rating: I noticed a contradiction which has never been so clear to me before. While we interpreters go on about the client having to value our high level of service provided and wanting to be paid well for quality, quality rating and evaluation still is a subject that is largely being avoided and that many of us feel uncomfortable with. On the other hand, some kind of quality rating is something clients sometimes are forced to rely on in order to justify paying for that (supposedly) expensive interpreter. I have no perfect solution for this, but I think it is worth some further thinking.

In general, there was a certain agreement that formalising interpreters’ preparation work has its limitations. It is always about filling the very personal knowledge gaps of the individual (for a very particular conference setting), but that technologies can still be used to improve quality and keep up with the rapidly growing knowledge landscape around us.


About the author:
Anja Rütten is a freelance conference interpreter for German (A), Spanish (B), English (C) and French (C) based in Düsseldorf, Germany. She has specialised in knowledge management since the mid-1990s.


Dictation Software instead of Term Extraction? | Diktiersoftware als Termextraktion für Dolmetscher?

+++ for English see below +++

Als neulich mein Arzt bei unserem Beratungsgespräch munter seine Gedanken dem Computer diktierte, anstatt zu tippen, kam mir die Frage in den Sinn: “Warum mache ich das eigentlich nicht?” Es folgte eine kurze Fachsimpelei zum Thema Diktierprogramme, und kaum zu Hause, musste ich das natürlich auch gleich ausprobieren. Das High-End-Produkt Dragon Naturally Speaking, von dem mein Arzt schwärmte, wollte ich mir dann aber doch nicht gleich gönnen.  Das muss doch auch mit Windows gehen und mit dem im Notebook eingebauten Raummikrofon, dachte ich mir (haha) … Eingerichtet war auch alles in Nullkommanix (unter Windows 10 Auf Start klicken, den Menüpunkt “Erleichterte Bedienung” suchen, ” Windowsspracherkennung” auswählen) und los ging’s. Beim ersten Start durchläuft man zunächst ein kurzes Lernprogramm, das die Stimme kennenlernt.

Und dann konnte es auch schon losgehen mit dem eingebauten Diktiergerät, zunächst testhalber in Microsoft Word. Von den ersten zwei Spracheingaben war ich auch noch einigermaßen beeindruckt, aber schon bei “Desoxyribonukleinsäure” zerplatzten alle meine Träume. Hier meine ersten Diktierproben mit ein paar gängigen Ausdrücken aus dem Dolmetschalltag:

– 12345
– Automobilzulieferer
– Besserungszeremonien Kline sollte es auch viel wie Wohnen Nucleinsäuren für das (Desoxyribonukleinsäure)
– Beste Rock Siri Wohnung Klee ihnen sollte noch in Welle (Desoxyribonukleinsäure)
– Verlustvortrag
– Rechnungsabgrenzungsposten
– Vorrats Datenspeicherung
– Noch Händewellenlänge (Nockenwelle)
– Keilriemen
– Brennstoffzellen Fahrzeuge

Gar nicht schlecht. Aber so ganz das Spracherkennungswunder war das nun noch nicht. In meiner Phantasie hatte ich mich nämlich in der Dolmetschvorbereitung Texte und Präsentationen entspannt lesen und dabei alle Termini und Zusammenhänge, die ich im Nachgang recherchieren wollte, in eine hübsche Tabelle diktieren sehen.  Aber dazu musste dann wohl etwas “Richtiges” her, wahrscheinlich zunächst einmal ein gescheites Mikrofon.

Also setzte ich mich dann doch mit der allseits gepriesenen Diktiersoftware Dragon Naturally Speaking auseinander, chattete mit dem Support und prüfte alle Optionen. Für 99 EUR unterstützt die Home-Edition nur die gewählte Sprache. Die Premium-Version für 169 EUR unterstützt die gewählte Sprache und auch Englisch. Ist die gewählte Sprache Englisch, gibt es nur Englisch. Möchte ich mit Deutsch, Spanisch, Englisch und womöglich noch meiner zweiten C-Sprache Französisch arbeiten, wird es also erstens kompliziert und zweitens teuer. Also verwarf ich das ganze Thema erst einmal, bis wenige Tage später in einem völlig anderen Zusammenhang unsere liebe Kollegin Fee Engemann erwähnte, dass sie mit Dragon arbeite. Da wurde ich natürlich hellhörig und habe es mir dann doch nicht nehmen lassen, sie für mich und Euch ein bisschen nach ihrer Erfahrung mit Spracherkennungssoftware auszuhorchen:

Fee Engemann im Interview am 19. Februar 2016

Wie ist die Qualität der Spracherkennung bei Dragon Naturally Speaking?

Erstaunlich gut. Das Programm lernt die Stimme und Sprechweise kennen und man kann ihm auch neue Wörter “beibringen”, oder es liest über sein “Lerncenter” ganze Dateien aus. Man kann auch Wörter buchstabieren, wenn das System gar nichts mehr versteht.

Wozu benutzt Du Dragon?

Ich benutze es manchmal als OCR-Ersatz, wenn eine Übersetzungsvorlage nicht maschinenlesbar ist. Das hat den Vorteil, dass man gleich den Text einmal komplett gelesen hat.

In der Dolmetschvorbereitung diktiere ich meine Terminologie in eine Liste, die ich dann nachher durch die Begriffe in der anderen Sprache ergänze. Das funktioniert in Word und auch in Excel. Falls es Schwierigkeiten gibt, liegt das evtl. daran, dass sich die Kompatibilitätsmodule für ein bestimmtes Programm deaktiviert haben. Ein Besuch auf der Website des technischen Supports schafft hier Abhilfe. Für Zeilenumbrüche und viele andere Befehle gibt es entsprechende Sprachkommandos. Wenn man das Programm per Post bestellt und nicht als Download, ist sogar eine Übersicht mit den wichtigsten Befehlen dabei – so wie auch ein Headset, das für meine Zwecke völlig ausreichend ist. Die Hotline ist im Übrigen auch super.

Gibt es Nachteile?

Wenn ich einen Tag lang gedolmetscht habe, habe ich danach manchmal keine Lust mehr, mit meinem Computer auch noch zu sprechen. Dann arbeite ich auf herkömmliche Art.

Wenn man in unterschiedlichen Sprachen arbeitet, muss man für jede Sprache ein neues Profil anlegen und zwischen diesen Profilen wechseln. Je nach Sprachenvielfalt in der Kombination könnte das lästig werden.

Mein Fazit: Das hört sich alles wirklich sehr vielversprechend an. Das größte Problem für uns Dolmetscher scheint – ähnlich wie bei der Generierung von Audiodateien, also dem umgekehrten Weg – das Hin und Her zwischen den Sprachen zu sein. Wenn jemand von Euch dazu Tipps und Erfahrungen hat, freue ich mich sehr über Kommentare – vielleicht wird es ja doch noch was mit der Terminologieextraktion per Stimme!

Über die Autorin:
Anja Rütten ist freiberufliche Konferenzdolmetscherin für Deutsch (A), Spanisch (B), Englisch (C) und Französisch (C) in Düsseldorf. Sie widmet sich seit Mitte der 1990er dem Wissensmanagement.

+++ English version +++

The other day, when I was talking to my GP and saw him dictate his thoughts to his computer instead of typing them in, I suddenly wondered why I was not using such a tool myself when preparing for an interpreting assignment? So I asked him about the system and, back home, went to try it myself straight away. Although what I was planning to do was not to buy the high-end dictation program Dragon Naturally Speaking I had been recommended, but instead to go for the built-in Windows speech recognition function and the equally built-in microphone of my laptop computer (bad idea) … The speech recognition module under Windows 10 was activated in no time (got to the Start menu, select “Ease of Access > Speech Recognition“) and off I went.

When the voice recognition function is first started, it takes you through a short learning routine in order to familiarise itself with your voice. After that, my Windows built-in dictation device was ready. For a start, I tried it in Microsoft Word. I found the first results rather impressive, but when it came to “Desoxyribonukleinsäure” (deoxyribonucleic acid), I was completely disillusioned. See for yourselves the results of my first voice recognition test with some of the usual expressions from the daily life of any conference interpreter:

– 12345
– Automobilzulieferer
– Besserungszeremonien Kline sollte es auch viel wie Wohnen Nucleinsäuren für das (Desoxyribonukleinsäure)
– Beste Rock Siri Wohnung Klee ihnen sollte noch in Welle (Desoxyribonukleinsäure)
– Verlustvortrag
– Rechnungsabgrenzungsposten
– Vorrats Datenspeicherung
– Noch Händewellenlänge (Nockenwelle)
– Keilriemen
– Brennstoffzellen Fahrzeuge

Not bad for a start – but not quite the miracle of voice recognition I would need in order to live this dream of dictating terminology into a list on my computer while reading documents to prepare for an interpreting assignment. Something decent was what I needed, probably a decent microphone, for a start.

So I enquired about the famous dictation software Dragon Naturally Speaking, chatted with one of the support people and checked the options. For 99 EUR, Dragon’s Home Edition only supports one language. The Premium Edition for 169 EUR supports one selected language plus English (If you choose English when buying the software, it is English-only.)  If I want German, Spanish, English and possibly also my second C-language, French, it gets both complicated and expensive. So I discarded the whole idea until, only a few days later, our dear colleague Fee Engemann happened to mention to me – in a completely different context – that she actually worked with Dragon! I was all ears and spontaneously asked her if she would like to share some of her experience with us in an interview. Luckily, she accepted!

Interview with Fee Engemann February 19th, 2016

What is the voice recognition quality of Dragon Naturally Speaking like?

Surprisingly good. The program familiarises itself with your voice and speech patterns, and you can also “teach” it new words, or let it read loads of new words from entire files. You can also spell words in case the system does not understand you at all.

What do you use Dragon for?

I use it as an OCR substitute when I get a text to translate which is not machine-readable. The big advantage is that once you have done that, you know the entire text.

When preparing for an interpreting assignment, I dictate my terminology into a list and add the equivalent terms in the other language once I have finished reading the texts. That works in MS-Word and MS-Excel. If there are problems, this may be due to the compatibility module for a certain program being deactivated. The technical support website can help in this case. There are special commands for line breaks and the like. And if you order the software on a CD (instead of simply downloading it), your parcel will not only include a list with the most important commands, but also a headset, which is absolutely sufficient for my purpose. And by the way … the hotline is great, too.

Are there any downsides?

After a whole day of interpreting, I sometimes don’t feel like talking to my computer. In this case, I simply work the traditional way.

When working with several languages, you must create one profile per language and switch between them when switching languages. This may be quite cumbersome if you work with many different languages.

My personal conclusion is that this all sounds very promising. As always, our problem as conference interpreters with these technologies (just like when creating multilingual audio files, i.e. the other way around) seems to be the constant changing back and forth between languages. If any of my readers has experience or good advice to share, I will be happy to read about it in the comments – maybe voice-based term extraction is not that far away after all!


About the author:
Anja Rütten is a freelance conference interpreter for German (A), Spanish (B), English (C) and French (C) based in Düsseldorf, Germany. She has specialised in knowledge management since the mid-1990s.









In the booth or in the hen house – experts all around | Dolmetschkabine oder Hühnerstall – Expertentum, wohin man schaut | Entre expertos: ya sea en el gallinero o en la cabina de interpretación


+++ for English see below +++ para español, aun más abajo +++

Wie inspirierend der Bau eines Hühnerhäuschens sein kann, erschließt sich eventuell nicht auf den ersten Blick. Wer im Laufe der letzten Monate die Kabine mit mir teilen und meine Hühnerfotos bewundern musste, fragt sich aber vielleicht schon seit Längerem, wann die Hennen denn nun Eingang in diesen Blog finden. Nun denn:

In den vergangenen Herbstferien haben mein Vater, mein Sohn, meine Tochter und ich uns anderthalb Tage mit dem Bau eines Hühnerhauses vertrieben. Mein Vater kommt aus der Saunabau-Branche und verfügt über einen exzessiv gut ausgestatteten Werkraum und es war ein außerordentliches Vergnügen, gemeinsam zu werkeln. Im Nachgang betrachtet fällt mir dabei auf, dass es mir durchaus schön häufiger Freude bereitet hat, Experten bei ihrem Tun auf die Finger zu schauen – ein angenehmer Nebeneffekt der extremen (zunehmenden) Fachlichkeit der meisten Dolmetscheinsätze. Dabei ist mir einerlei, ob ich einem Programmierer, einem Hufschmied, einem Schlachthausinspekteur, einem Patentanwalt oder einem Statistiker zuschauen oder zumindest zuhören darf. Bestimmte Verhaltensmuster scheinen vielen Experten gemein, die ich sowohl bei dem hühnerstallbauenden Saunafachmann als auch bei Konferenzdolmetschern wiederzufinden meine:

  • Wir machen keine halben Sachen. Nicht am Material sparen – kein billiges Sperrholz, sondern ordentliche OSB-Platten. Nicht schnell, schnell, sondern durchdacht. Wir sind immer gut vorbereitet. (Wir mögen weder schlechten Ton noch schlecht sitzende Kopfhörer und noch viel weniger schlechte Informationsversorgung im Vorfeld einer Veranstaltung.)
  • Wir kaufen nicht das hübsche 300-EUR-Hühnerhaus bei Amazon von der Stange, sondern wir wägen ab, was in diesem Garten und an diesem Haus individuell am besten funktioniert (in diesem Fall eine Kernbohrung in die Garage und das Hühnerhaus von innen dagegengesetzt). (Wir dolmetschen das, was der Redner gerade in diesem Moment meint, und nicht mit dem Wörterbuch. Wir finden für jede noch so abwegige Situation einen passenden Dolmetschmodus.)
  • Wir besitzen so viel Vorstellungsvermögen, dass wir – zunächst auf dem Papier – von null an das perfekte Häuschen konzipieren, das dann aus einem Haufen vom Baumarkt zugeschnittener Holzplatten zusammengebaut wird. (Wir wissen genau, ob simultan oder konsekutiv besser funktioniert und wie wir ein Team für genau diesen Kunden richtig zusammenstellen. Ebenso wie wir die Rede mit dem Redner mitdenken und dem anderssprachigen Zuhörer eine Version davon präsentieren, die für ihn funktioniert.)
  • Wenn wir auch noch nie im Leben einen Hühnerstall gebaut haben, so arbeiten wir uns ein und übertragen unser Wissen und unsere Fertigkeiten auf diesen neuen Anwendungsfall. (Wie an fast jedem normalen Arbeitstag eines Konferenzdolmetschers).
  • Wir haben einen Blick dafür, was geht; auch, weil wir das richtige Werkzeug sowohl kennen als auch besitzen (oder jemanden kennen, der es uns leihen kann). (Flüstern für eine zwölfköpfige Delegation sicher nicht. Wir verstehen es, große Dokumentenmengen zu bändigen, und wissen, wer gute Simultantechnik liefert.)
  • Wir können Prioritäten setzen: Welche schiefe Schraube muss noch einmal herausgedreht werden, weil sonst alles instabil wird, was kann man getrost schief stecken lassen? (Welchen Dolmetschfehler muss ich korrigieren, damit kein dramatisches Missverständnis entsteht, was kann ich stehen lassen?)
  • Spontan auftretende Schwierigkeiten halten uns nicht auf. Ein Fehler im Zuschnitt wird entweder durch Umplanung beantwortet oder die tragbare Kreissäge, die für den Fall der Fälle schon bereitsteht (wir sind immer gut vorbereitet), kommt zum Einsatz. Zu lange, auf der anderen Seite herausstehende Schrauben bedeuten nicht zwingend, dass man noch einmal zum Baumarkt fährt, sondern dass man sie kurzerhand abflext. (Fällt die Simultantechnik aus, gehen wir in den Raum und dolmetschen konsekutiv oder flüstern. Liegt das Vorbereitungsmaterial über die technischen Finessen eines Fertigungsarbeitsplatzes in Zeiten von Industrie 4.0 nicht vor, schöpfen wir aus unserem Vorwissen und machen mit Hilfe des Kabinenpartners, der uns mit Spontanrecherche und Mitschrift unterstützt, trotzdem etwas daraus.)

Theoretisch hätte ich bei dieser Baumaßnahme jeden einzelnen Handgriff auch selbst tätigen können, aber letztendlich ist doch auch ein Hühnerhaus mehr als die Summe seiner Teile. Wahrscheinlich hätte ich am falschen Ende angefangen, die falschen Bohrer verwendet und mir auch nicht die Mühe gemacht, die Sitzstange abzuhobeln, damit die Hühner keine Splitter in die weichen Fußballen bekommen.

Die richtigen Fragen stellen und der Blick fürs Ganze, das können auch Experten von Experten lernen. Also seid Experten und erfreut Euch an ebensolchen, wo Ihr nur könnt!

PS: Sehr interessant: In diesem schönen Artikel über Expertentum aus Experten-(Psychologen-)Sicht von Tad Waddington findet sich Einiges aus der Dolmetscher-Hühnerhaus-Analogie wieder.

Über die Autorin:
Anja Rütten ist freiberufliche Konferenzdolmetscherin für Deutsch (A), Spanisch (B), Englisch (C) und Französisch (C) in Düsseldorf. Sie widmet sich seit Mitte der 1990er dem Wissensmanagement.

+++ English version +++

I had no idea how inspiring it could be to build your own chicken coop. But those who have shared a booth with me lately and were obliged to admire my chicken photos may have been wondering for some time when those lovely hens will finally make their way into this blog. Now, then:

During the last autumn break my father, my son, my daughter and myself spent a day and a half designing and building a splendid new hen house. My father has a track record in the sauna-building industry and, besides, owns an excessively well-equipped little basement workshop, which made it an utmost pleasure to work together. Only later did I realise that I had experienced this fascination before when watching experts at work, i.e. people who really seem to know what they are doing. This phenomenon called expert, or expertise, is something we come across very often as interpreters (and increasingly so as interpreters tend to be recruited more often when very specific subjects are being discussed). And to me it is all the same whether I can watch or listen to a coder, farrier, slaughterhouse inspector, patent lawyer or statistician. It seems to me that most experts act alike, in a certain way, no matter if they build wooden boxes or, say, act as conference interpreters:

  • We don’t do things by halves. No cheap stuff – better go for the robust OSB panels and not the inexpensive chipboard. No hurry, think everything through properly. We always come well prepared, after all. (We don’t like bad sound, neither are we very fond of badly fitting headphones and even less of bad information supply before a conference.)
  • We do not buy the ready-made fancy little 300 € coop on Amazon. We rather ponder the pros and cons of what might best be suited for this particular house and garden and find and individual solution (in this case, drilling a big hole into the outer wall of the garage and putting the coop up against this wall from the inside). (We translate the message the speaker wants to convey in this particular situation and do not mechanically put together words like a dictionary on legs. We find a suitable mode of interpretation for any weird situation.)
  • We use our imagination in order to create the perfect solution – on paper first – which we then put together from a pile of custom cut-to-size wood panels from the DIY store. (We know exactly when sim or consec work better and we will find exactly the right people for a team to suit the needs of this special customer. Just like we think the speech alongside with the speaker and then present another version of it to the audience in the other language which will work for them).
  • We may well never have built a hen house in our lives, but we are smart enough to familiarise ourselves with the subject and transfer our knowledge and our skills to this new task. (The usual stuff on any day in the life of a conference interpreter).
  • We can tell what’s possible and what’s not; also because we know and possess the right tools (or know who to borrow them from). (Whispered interpretation for a delegation of twelve? Surely not. We know how to handle huge amounts of documents and where to rent the best conference equipment.)
  • We know our priorities: Which one of the badly placed screws can just stay where it is and when is it a good idea to take it out again and screw it in properly in order to prevent the whole thing from falling apart? (Which error do I need to correct when interpreting because there will be a terrible misunderstanding otherwise, which one will most probably pass unnoticed?)
  • Unexpected difficulties won’t stop us. One of the panels cut to the wrong dimensions means we just rearrange our construction or use the portable circular saw we have already brought, just in case (We always come well prepared, after all). If the screws turn out to be too long and stick out on the other side of the wall, we don’t necessarily go back to the DIY store to get some shorter ones. We may as well cut them off using this very handy little angle grinder we happen to possess. (If the booth sound system fails, we will get out of our booths and do consecutive or whispered interpretation if ever possible. Have we not received any information about the technical details of a modern shop floor setting in times of industry 4.0 then we will still be able to make something of it on the basis of our experience and the help of our colleague who will be doing emergency internet research and/or emergency scribbling.)

Theoretically, I would have been able to carry out every single task on my own. But I have learnt that a chicken coop is more than the sum of its parts. I would most probably have started at the wrong end, used the wrong drills and wouldn’t have bothered smooth-planing the perch so that the chickens don’t get splinters in the soft little balls they have under their feet.

Asking the right questions and seeing the big picture, that’s what experts can learn from experts. So: Be an expert, watch out for those around you and enjoy!

PD: Very interesting: Many an aspect of this henhouse-interpreter analogy can also be found in this very nice article about expertise from the expert‘s/psychologist‘s view by Tad Waddington.

About the author:
Anja Rütten is a freelance conference interpreter for German (A), Spanish (B), English (C) and French (C) based in Düsseldorf, Germany. She has specialised in knowledge management since the mid-1990s.

+++ Versión española +++

No tenía ni idea de lo inspiradora que puede ser la construcción de un gallinero. A los que han estado en cabina conmigo últimamente ya les tocó admirar las fotos de mis gallinas como si fueran mis bebés, ya se habrán preguntado cuánto tardarían en aparecer en mi blog. Pues ahora sí:

En las últimas vacaciones de otoño mi papá, mi hijo, mi hija y yo nos pasamos día y medio construyendo un gallinero. Mi padre se ha ganado la vida en la construcción de saunas, y además dispone de un taller exageradamente bien equipado, y realmente disfrutamos un montón de estar ahí todos juntos haciendo bricolaje. En retrospectiva, me quedó aun más claro por qué: Es que me encanta observar a un experto (o experta, claro) en su trabajo, y lo hago bastante seguido – un efecto secundario muy grato de lo (cada vez más) técnico que resultan muchos trabajos de interpretación. Y me da igual si se trata de un herrador, programador, inspector de matadero, abogado de patentes o estadísticos, mientras me dejen observar o escucharlos. Y mi impresión es que los expertos tienen, o mejor dicho tenemos, ciertas pautas de comportamiento en común, ya sea que se trate de ingenieros de gallineros o de intérpretes de conferencias:

  • No nos conformamos con las cosas hechas a medias. Tampoco usamos material barato – nada de tableros aglomerados de baja calidad, mejor los tableros OSB de virutas orientadas. Y no lo hacemos todo rápido, sino con calma y bien pensado. Siempre llegamos bien preparados. (A nosotros no nos gusta ni el mal sonido, ni los auriculares mal ajustados, ni mucho menos la falta de información para preparar una conferencia.)
  • Tampoco compramos el gallinero prefabricado en Amazon por 300 EUR, sino que sopesamos las ventajas y los inconvenientes de las diferentes opciones para encontrar la solución perfecta para esta casa y este jardín en particular. En este caso, consistía en perforar la pared del garaje y montar el gallinero contra la pared desde el lado interior. (Interpretamos lo que el orador quiere decir en esta situación y no nos limitamos a ser diccionarios vivientes. En situaciones absurdas encontramos la manera de hacer posible la interpretación.)
  • Tenemos la imaginación suficiente como para diseñar – primero sobre el papel – el gallinero perfecto, para luego armarlo del montón de tablas cortadas a la medida, que nos facilitaron en el negocio de materiales para la construcción. (Sabemos decir exactamente en qué situación va a funcionar la interpretación simultánea o consecutiva y qué equipo de colegas conviene enviar a qué cliente. Acompañamos al orador en sus pensamientos y creamos para el auditorio del otro idioma un discurso adecuado que funcione para ellos en ese )
  • Aunque nunca jamás en la vida hayamos construido un gallinero, nos familiarizamos con el tema y aplicamos nuestros conocimientos y nuestras aptitudes a ese nuevo caso (Lo normal en la vida de un intérprete de conferencias).
  • Tenemos buen juicio para saber lo que es posible y lo que no; porque conocemos también las herramientas adecuadas y disponemos de ellas (o por lo menos sabemos a quién pedirlas prestadas). (Susurrar para una delegación de doce personas – seguro que no; sabemos manejar grandes cantidades de documentos y en dónde conseguir el mejor equipamiento técnico.)
  • Sabemos fijar prioridades. Un tornillo mal colocado: ¿Mejor lo vuelvo a quitar y lo pongo bien?, porque si no, todo se puede venir abajo; o bien ¿puedo dejarlo tal cual y nadie se va a enterar? (¿Cuáles son los errores de interpretación que hay que corregir para evitar malentendios dramáticos? ¿Y cuáles son los que van a pasar desapercibidos?)
  • Las dificultades imprevistas no nos pueden detener. Una tabla mal cortada – pues nos reorganizamos un poquito, o usamos la sierra circular que, por si acaso, ya habíamos traído (porque siempre llegamos bien preparados). Si los tornillos son demasiado largos y salen por el otro lado de la pared, eso no significa que debamos volver a la tienda para comprar otros; más bien los cortamos con la amoladora angular. (Si falla el sistema de sonido, salimos de las cabinas e interpretamos de modo consecutivo o susurramos, según permitan las circunstancias. Si no disponemos de la documentación sobre, digamos, los puestos de trabajo ultra conectados en las factorías de la industria 4.0, igual nos organizamos, aprovechando nuestros conocimientos previos y el apoyo del colega que nos apunta cosas y busca términos en internet.)

En teoría, habría sido capaz de hacer cada una de las maniobras yo solita, pero al final, inclusive un gallinero es más que la suma de sus partes. Probablemente habría empezado por el extremo equivocado, habría usado el taladro equivocado y tampoco se me habría ocurrido alisar la percha para que las gallinas no se astillaran las delicadas plantas de sus patitas.

Hacer las preguntas acertadas y siempre contemplar el sistema en su conjunto – eso es algo que los expertos podemos aprender de otros expertos. Entonces: ¡Seamos expertos y disfrutemos de aquellos con los que nos podamos topar!

PD: Muy interesante: En este artículo maravilloso sobre la pericia – desde el punto de vista de un experto/psicólogo – de Tad Waddington se pueden encontrar algunos aspectos de la analogía gallinero-interpretación von Tad Waddington.


La autora:
Anja Rütten es intérprete de conferencias autónoma para alemán (A), español (B), inglés y francés (C), domiciliada en Düsseldorf/Alemania. Se dedica al tema de la gestión de los conocimientos desde mediados de los años 1990.