Paperless Preparation at International Organisations – an Interview with Maha El-Metwally

Maha El-Metwally has recently written a master’s thesis at the University of Geneva on preparation for conferences of international organisations using tablets. She is a freelance conference interpreter for Arabic A, English B, French and Dutch C domiciled in Birmingham.

How come you know so much about the current preparation practice of conference interpreters at so many international institutions?

The answer is quite simple really: I freelance for all of them! I am also pro paperless environments for obvious environmental and practical reasons. So even if some organisations offer a paper alternative (ILO, IMO, UNHQ, WFP) I go for the electronic version. Paperless portals of international organisations may differ in layout and how the information is organised but they essentially aim to achieve the same thing. Some organisations operate a dual document distribution system (paper and digital) with the aim of phasing out the former over time.

The European Parliament is already on its second paperless meeting and document portal. It used to be called Pericles and now it is called MINA, the Meeting Information and Notes Application. This required a bit of practice to become familiar with the new features.

I recently heard someone working in one of these paperless environments complain about the paperless approach, saying that they often struggle to find their way through a 400 pages document quickly. My first reaction was to say that hitting CTRL-F or CTRL-G is an efficient way to get to a certain part of a text quickly. But maybe there is more to it than just shortcuts. What is the reason, in your experience, that makes it difficult for colleagues to find their way around on a tablet or laptop computer?

I think that tablets represent a change and people in general resist change. It could be that we are creatures of habit. We are used to a certain way of doing things and some of us may be having a difficulty coping with all the changes coming our way in terms of technology developments. It could also be that some interpreters do not see the point of technology so they are not motivated to change something that works for them.

How is the acceptance of going paperless in general in the institutions you work for?

This depends on individual preferences. Many colleagues still prefer paper documents but I also see more and more tablets appearing in the booths. Some organisations try to accommodate both preferences. The ILO operates a dual distribution system as a step towards going completely paperless. Meeting documents are available on the organisation’s portal but are also printed and distributed to the booths. The same goes for the IMO where the interpreters are given the choice of paper or electronic versions of the documents or both.

Right, that’s what they do at SCIC, too. I take it that you wrote your master’s thesis about paperless preparation, is that right? Was the motivational aspect part of it? Or, speaking about motivation: What was your motivation at all to choose this subject?

Yes, this is correct. I am very much of a technophile and anything technological interests me. I was inspired by a paperless preparation workshop I attended at the European Parliament. It made sense to me as a lot of the time, I have to prepare on the go. It happens that I start the week with one meeting then end the week with another. Carrying wads of paper around is not practical. Having all meeting documents electronically in one place is handy. It happens a lot that I receive meeting documents last minute. There is no time to print them. So I learned to read and annotate the documents on apps on my tablet.

So while you personally basically did „learning by doing“, your researcher self tried to shed some more scientific light on the subject. Is that right? Would you like to describe a bit more in detail what your thesis was about and what you found was the most interesting outcome?

My thesis looked at training conference interpreting students to prepare for conferences of international organisations with the use of tablets. I noticed from my own experience and from anecdotes of older colleagues that meetings were getting more and more compressed. As a result, especially in peak seasons, interpreters may start the week with one conference and end it with another. Preparation on the go became a necessity. In addition, there are several international organisations that are moving towards paperless environments. Therefore, I think it is important for students to be introduced to paperless preparation at an early stage in their training for it to become a second nature to them by the time they graduate. And what a better tool to do that than the tablet? I created a course to introduce students to exactly that.

So when you looked at the question, was your conclusion that tablets are better suited than laptop computers? Currently, it seems to me that on the private market almost everyone uses laptops and at the EU, most people use tablets. I personally prefer a tablet for consecutive, but a laptop in the booth, as I can look at my term database, the internet and room documents at the same time more conveniently. I also blind-type much faster on a „real“ keyboard. I hope that the two devices will sooner or later merge into one (i.e. tablets with decent hard drives, processors and operating systems).

Now, from your experience, which of the two option would you recommend to whom? Or would you say it should always be tablets?

I prefer the tablet when travelling as:
– it is quieter in the booth (no tapping or fan noise),
– using an app like side by side, I can split the screen to display up to 4 apps/files/websites at the same time so the laptop has no advantage over the tablet here,
– it is lighter.

You have created a course for students. What is it you think students need to be taught? Don’t they come to the university well-prepared when it comes to handling computers or tablets?

The current generation of students is tech savvy so they are more likely to embrace tablets and go fully digital. The course I put together for teaching preparation with tablets relies on the fact that students already know how to use tablets. The course introduces the students to paperless environments of a number of international organisations, it looks at apps for the annotation of different types of documents, glossary management, more efficient google search among other things.

I also like to use the touchscreen of my laptop for typing when I want to avoid noise. But compared to blind-typing on a „normal“ keyboard, I find typing on a touchscreen a real pain. My impression is that when I cannot feel the keys under my fingers, I will never be able to learn how to type, especially blind-type, REALLY quickly and intuitively … Do you know of any way (an app, a technique) of improving typing skills on touchscreens?

I’m afraid I don’t really have an answer to that question. I am moving more and more towards dictating my messages instead of typing them and I am often flabbergasted at how good the output is, even in Arabic!

Talking about Arabic, is there any difference when working with different programs in Arabic?

Most of the time, I can easily use Arabic in different apps. The biggest exception is Microsoft Office on Mac. Arabic goes berserk there! I have to resort to Pages or TextEdit then. Having said that, a colleague just mentioned yesterday that this issue has been dealt with. But I have to explore it.

As to glossary management, not all terminology management tools for interpreters run on tablets. Which one(s) do you recommend to your students or to colleagues?

I use and recommend Interplex. It has a very good iPad version. The feature I like most about it is that you can search across your glossaries. I can do that while working and it can be a life saver sometimes!

If I wanted to participate in your seminar, where could I do that? Do you also do webinars?

I offer a number of seminars on technology for interpreters to conference interpreting students at some UK universities. I will keep you posted. I also have an upcoming eCPD webinar on September 19th on a hybrid mode of interpreting that combines the consecutive and simultaneous modes.

That sound like a great subject to talk about next time!

 

 

 

 

 

 

 

 

 

Can computers outperform human interpreters?

Unlike many people in the translation industry, I like to imagine that one day computers will be able to interpret simultaneously between two languages just as well as or better than human interpreters do, what with artificial neuronal neurons and neural networks‘ pattern-based learning. After all, once hardware capacity allows for it, an artificial neural network will be able to hear and process many more instances of spoken languages and the underlying content than my tiny brain will in all its lifetime. So it may recognise and understand the weirdest accents and the most complicated matter just because of the sheer amount of information it has processed before and the vast ontologies it can rely on (And by that time, we will most probably not only be able to use digital interpreters, but also digital speakers).

The more relevant question by then might rather be if or when people will want to have digital interpretation (or digital speakers in the first place). How would I feel about being replaced by a machine interpreter, people often ask me over a cup of coffee during the break. Actually, the more I think about it, the more I realise that in some cases I would be happy to be replaced by a machine. And it is good old Friedemann Schulz von Thun I find particularly helpful when it comes to explaining when exactly I find that machine interpreters might outperform (out-communicate, so to say) us humans (or machine speakers outperform humans).

As Friedemann Schulz von Thun already put it back in 1981 in his four sides model (https://en.wikipedia.org/wiki/Four-sides_model), communication happens on four levels:

The matter layer contains statements which are matter of fact like data and facts, which are part of the news.

In the self-revealing or self-disclosure layer the speaker – conscious or not intended – tells something about himself, his motives, values, emotions etc.

In the relationship layer is expressed resp. received, how the sender gets along with the receiver and what he thinks of him.

The appeal layer contains the desire, advice, instruction and effects that the speaker is seeking for.

We both listen and speak on those four layers, be it on purpose or inadvertently. But what does that mean for interpretation?

In terms of technical subject matter, machine interpretation may well be superior to humans, whose knowledge base despite the best effort will always be based on a relatively small part of the world knowledge. Some highly technical conferences consist of long series of mon-directional speeches given just for the sake of it, at a neck-breaking pace and with no personal interaction whatsoever. When the original offers little „personal“ elements of communication (i.e. layer 2 to 4) in the first place, rendering a vivid and communicative interpretation into the target language can be beyond what human interpretation is able to provide. In these cases, publishing the manuscript or a video might serve the purpose just as well, even more so in the future with increasing acceptance of remote communication. And if a purely „mechanical“ translation is what is actually needed and no human element is required, machine interpreting might do the job just as well or even better. The same goes e.g. for discussions of logistics (“At what time are you arriving at the airport?”) or other practical arrangements.

But what about the three other, more personal and emotional layers? When speakers reveal something about themselves and listeners want to find out about the other person’s motives, emotions and values or about what one thinks of the other, and it is crucial to read the message between the lines, gestures and facial expressions? When the point of a meeting is to build trust and understanding and, consequently, create a relationship? Face to face meetings are held instead of phone calls or video conferences in order to facilitate personal connections and a collective experience to build upon in future cooperation (which then may work perfectly well via remote communication on more practical or factual subjects). There are also meetings where the most important function is the appeal. The intention of sales or incentive events generally is to have a positive effect on the audience, to motivate or inspire them.

Would these three layers of communication, which very much involve the human nature of both speakers and listeners, work better with a human or a machine interpreter in between? Is a human interpreter better suited to read and convey personality and feelings, and will human interaction between persons work better with a human intermediary, i.e. a person? Customers might find an un-human interpreter more convenient, as the interpreter’s personality does not interfere with the personal relation of speaker and listener (but obviously not provide any facilitation either). This “neutral” interpreting solution could be all the more charming if it didn’t happen orally, but translation was provided in writing, just like subtitles. This would allow the voice of the original speaker to set the tone. However, when it comes to the „unspoken“ messages, the added value of interpreters is in their name: They interpret what is being said and constantly ask the question „What does the speaker mean or want?“ Mood, mocking, irony, reference to the current situation or persons present etc. will most probably not be understood (or translated) by machines for a long time, or never at all. But I would rather leave it to philosophers or sci-fi people to answer this question.

About the author:
Anja Rütten is a freelance conference interpreter for German (A), Spanish (B), English (C) and French (C) based in Düsseldorf, Germany. She has specialised in knowledge management since the mid-1990s.

Simultaneous interpreting with VR headset | Dolmetschen unter der Virtual-Reality-Brille | Interpretación simultanea con gafas VR

+++ for English see below +++ para español, aun más abajo +++
2016 wurde mir zum Jahresausklang eine Dolmetscherfahrung der ganz besonderen Art zuteil: Dolmetschen mit Virtual-Reality-Brille. Sebastiano Gigliobianco hat im Rahmen seiner Masterarbeit am SDI München drei Remote-Interpreting-Szenarien in Fallstudien durchgetestet und ich durfte in den Räumen von PCS in Düsseldorf als Probandin dabei sein. Mehr zu den Erkenntnissen seiner Untersuchungen dürfen wir hoffentlich im Laufe des Jahres von Sebastiano selbst erfahren. Hier deshalb nur meine persönlichen Impressionen:
 
  • Relativ offensichtlich, aber doch eine Herausforderung: Mit VR-Brille auf dem Kopf ist man in der realen Welt blind. Das ist für das Bedienen des Dolmetschpultes nicht ganz trivial, so dass ich mich während der ersten fünf Minuten panisch am Lautstärkeknopf festgekrallt habe, um diesen bloß nicht aus dem Griff zu verlieren. Erstaunlicherweise hatte ich aber schon nach kurzer Zeit die geographische Lage des Lautstärkereglers so verinnerlicht, dass ich auch freihändig dolmetschen konnte und meine Hand den Regler trotzdem bei Bedarf problemlos wiederfand. Mir stellt sich spontan die Frage, ob es dafür im Gehirn ein separat zuständiges Areal gibt (so wie den Extra-Magen für Nachtisch).
  • Ich hätte nicht gedacht, dass es unter der VR-Brille so nett ist. Bisher kannte ich aus der VR-Welt nur abgefahrene Spielszenarien wie Spukschlösser oder Unterwasserwelten. Nun befand ich mich aber in einer ganz normalen Arbeitsumgebung, einer Art Werksführung, und stand in Gestalt einer Kamera auf einem Stativ mitten zwischen den Rednern und konnte durch Kopfdrehung intuitiv genau dorthin blicken, wohin ich wollte. Dass ich dabei dem jeweiligen Redner immer ungeniert mitten ins Gesicht glotzen konnte, ohne diesen zu irritieren, war lustig und auch fürs Dolmetschen ziemlich nützlich. Jedenfalls musste ich zu keinem Zeitpunkt mit Blick auf das Genick des Redners dolmetschen.
  • 360-Grad-Drehungen auf dem Bürostuhl in der herkömmlichen Dolmetschkabine sind etwas beschwerlich.
  • Natürlich kann man nicht ewig mit so einem Klotz auf dem Kopf arbeiten, frisurenschädlich ist er obendrein. Aber als Motorola 1983 das erste (800 g schwere!) Handy auf dem Markt brachte (1987 zu sehen in Wallstreet an der Seite von Michael Douglas), hatte auch noch niemand unsere heutigen schnuckeligen Smartphones im Sinn.

————————
Über die Autorin:
Anja Rütten ist freiberufliche Konferenzdolmetscherin für Deutsch (A), Spanisch (B), Englisch (C) und Französisch (C) in Düsseldorf. Sie widmet sich seit Mitte der 1990er dem Wissensmanagement.

+++ EN +++ EN +++ EN +++ EN +++

In 2016, I had a real end-of-year special: interpreting with a virtual reality headset on (or rather: around) my head. Sebastiano Gigliobianco, student at the SDI in Munich, wanted to test three remote interpreting scenarios for his master’s thesis – and I was one of the lucky test persons who were invited to the premises of PCS in Düsseldorf. We will hopefully hear more about Sebastiano’s findings in the course of the year. For the moment, I would like to share with you my personal impressions:
  • Obviously, with VR goggles on, you are blind for the real world. A fact, however, not to be neglected when it comes to handling the knobs and buttons of the interpreter console in the booth. So for the first five minutes, I did not dare to let go of the volume control. But then after some time, to my own surprise I managed to locate the knob quite easily, so that I could speak and use both my hands freely and still control the volume intuitively. This makes me wonder whether there is a separate brain area for geographic localisation of things that does not interfere with interpreting. (Just like that extra stomach the dessert seems to go to.)
  • I hadn’t expected to be that much at ease wearing a VR headset. So far, my VR experience has been all haunted castles and underwater scenery. But now I found myself in the middle of a very normal working environment, i. e. a kind of factory tour, standing (in the form of a camera mounted on a tripod) right between the participants. And by simply turning my head, the camera would swivel around and let me look where I wanted to look. Basically, I could stare right into the speaker’s face without causing irritation, which was both fun and very useful. I really liked the fact that at no time I had to interpret looking at the speaker’s back.
  • 180 degree rotations are not the most comfortable thing to do sitting on an office chair in a traditional interpreting booth.
  • You obviously cannot spend a whole day interpreting with this clumsy apparatus mounted on your head (not even to mention what it does to your hair). But then, when Motorola launched the first mobile phone back in 1983 (starring in „Wall Street“ together with Michael Douglas in 1987), none of us had in mind those neat little smartphones we have nowadays.

————————–
About the author:
Anja Rütten is a freelance conference interpreter for German (A), Spanish (B), English (C) and French (C) based in Düsseldorf, Germany. She has specialised in knowledge management since the mid-1990s.

+++ ES +++ ES +++ ES +++ ES +++

Para finalizar el año 2016, tuve una experiencia muy especial: interpretar en un entorno de realidad virtual, o sea con unas gafas VR puestas. Sebastiano Gigliobianco, estudiante del SDI en Múnich, estudió tres escenarios de interpretación remota en el marco de su tesis de máster, y a mí me tocó participar como voluntaria en las instalaciones de PCS en Düsseldorf. Espero que muy pronto podamos aprender más sobre los hallazgos de Sebastiano, así que, por el momento, me limito a compartir mis impresiones personales:
  • Con las gafas VR puestas, uno está ciego en el mundo real, un hecho nada desdeñable cuando se trata de manejar los botones de una consola de interpretación. De modo que, durante los primeros cinco minutos de interpretación, no solté ni un segundo el control de volumen. Pero luego me fui acostumbrando, y al final tenía memorizada la ubicación de este botón y con mucha facilidad podía controlar el volumen de forma intuitiva y hablar usando mis manos libremente. Casi pareciera que hay un área cerebral para localizar cosas que funciona independientemente de la interpretación simultánea. (Igual que el famoso estómago separado para postres en donde siempre cabe un postrecito.)
  • No me hubiera imaginado que estaría tan a gusto trabajando con las gafas VR. Hasta la fecha, mi experiencia VR se había limitado a los castillos embrujados y los paisajes acuáticos. Pero en este caso, me encontré en medio de un entorno de interpretación muy normal, o sea un tipo de visita de planta, ubicada (en forma de una cámara que está montada sobre un trípode) justamente entre los interlocutores. Nada más moviendo la cabeza podía hacer girar la cámara y con eso dirigir mi mirada en la dirección que quisiera. Esto me permitía mirar al orador directamente a la cara, cosa que en la vida normal sería un poco indiscreta, pero así no causó ninguna irritación. Era divertido y muy útil a la vez. Y me encantó que en ningún momento tuve que interpretar a una persona que me daba la espalda.
  • Las rotaciones de 180 grados no se realizan con facilidad en una silla giratoria dentro de una cabina de interpretación común y corriente.
  • Está claro que no se puede pasar un día entero interpretando con esas gafotas monstruosas en la cabeza (ni hablar de cómo te dejan despeinada).  Pero en fin, cuando Motorola lanzó el primer celular en 1983 (y fue una especie de protagonista en 1987 al lado de Michael Douglas en „Wall Street“), tampoco nos hubiéramos imaginado los smartphones chiquititos y chulos que tenemos hoy en día.

 

————————–

La autora:
Anja Rütten es intérprete de conferencias autónoma para alemán (A), español (B), inglés y francés (C), domiciliada en Düsseldorf/Alemania. Se dedica al tema de la gestión de los conocimientos desde mediados de los años 1990.

Datensicherung für Mutter und Kinder | family-friendly data backup

+++ for English, see below +++

Was ich selbst in über 20 Jahren nicht fertiggebracht habe, schafft mein Kind schon vor dem Erreichen der digitalen Volljährigkeit (gleich Inhaberschaft eines eigenen Whatsapp-Kontos) – den totalen Datenverlust. Zwar in diesem Fall nur in Form aller kostbaren Fotos auf meinem ausrangierten Handy, aber immerhin. So langsam wird klar: Ein umfassendes Datensicherungskonzept muss her.

Im Vorteil ist, wer in seinem Bekanntenkreis ausreichend Testberichtleser hat, so konnte ich glücklicherweise jüngst bei einem Gin Tonic im Hause meiner lieben Freundin Julia eine Empfehlung entgegennehmen, die alles vereint, was ich mir vone einem Backupsystem wünsche: idrive. Es gibt ja viele unterschiedliche Datensicherungssysteme, deshalb hier in Kürze, was mir an diesem System gefällt:

Es funktioniert für alle gängigen Betriebssysteme von Rechnern (Mac, Windows, Linux) und mobilen Geräten (Android, iOS, Windows), bis zu sechs Geräte und 1TB können in der Private-Version über ein Konto laufen, für regulär 69.50 $ (wobei es immer Angebote gibt – nachdem ich mit einem kostenlosen Basis-Konto die App installiert hatte, wurde mir die Private-Version prompt für 15 $ im ersten Jahr angeboten). Man kann über dieses Konto kreuz und quer auf die Daten-Backups aller Geräte zugreifen – was mir zunächst etwas unheimlich war, aber man kann den Zugriff an jedem Endgerät mit einem Passwortschutz belegen. Über das browserbasierte Dashboard kann man dann bspw. die Daten (etwa Fotos) aus dem Handy-Backup direkt auf den Rechner kopieren.

Das Synchronisieren erfolgt entweder in Echtzeit, nach festgelegtem Zeitplan oder auf Knopfdruck. Es rödelt also nicht ständig im Hintergrund, wenn man das nicht möchte, man wird regelmäßig an die Datensicherung erinnert, wenn man das will. Wenn man einmal den kompletten Datenbestand hochgeladen hat, geschieht die Aktualisierung nur noch inkrementell, sprich nur noch Dateien, die auf dem lokalen Rechner geändert wurden, werden im Online-Backup auf den neusten Stand gebracht.

Auf dem Handy kann man auswählen aus der Sicherung von Kontakten, Anruflisten, Kalender, Dateien, Apps, SMS, Fotos (auch die von Whatapp), Videos und Musik. Entweder permanent, zu bestimmten Zeitpunkten oder auf Knopfdruck. Schön für Reisen.

Gelöschte Dateien werden im Online-Backup nur auf Knopfdruck gelöscht („Archive Cleanup„). Solange man diesen Knopf nicht drückt, sind alle auf dem lokalen Rechner – womöglich versehentlich – gelöschten Dateien im Online-Backup noch da. Und wenn man umgekehrt nicht tausende von Privatfotos auf dem Handy herumschleppen möchte, kann man sie dort löschen und im Cloud-Backup aufbewahren.

In der idrive-Business-Version (aktuell 74,62 $ im Jahr) kann man sogar Unterkonten anlegen, so dass man die Datensicherung von Kollegen, Mitarbeitern oder Kindern als Administrator zentral im Griff hat (ohne dass diese auf die eigenen Daten zugreifen).  Ich habe für den Anfang eine preisgünstigere Lösung gewählt und meinen Kindern jeweils separate Konten (Basis-Konto kostenlos bis 5 GB) eingerichtet. (Letztendlich habe ich selbst für mein eigenes Handy nun ein anderes Konto als für meinen PC, um nicht in ständiger Sorge zu leben, dass sich doch einmal jemand über mein Handy Zugang zu meinem gesamten PC-Backup verschafft). Wenn ich die auf meinem Rechner gespeicherte Musik meinen Kindern auf dem Handy zur Verfügung stellen möchte, teile ich mit ihnen den entsprechenden Ordner aus dem PC-Online-Backup, wenn ich deren Handyfotos sichern möchte, teilen sie den entsprechenden Online-Backup-Ordner über idrive mit mir. Etwas gewöhnungsbedürftig ist, dass man dieses Verwalten und Teilen nur über das browserbasierte Dashboard erledigen kann, während die Backups über eine App oder Desktop-Software erfolgen.

Wenn man nicht den Nerv hat, seine gesamte Datensammlung durch die Telefonleitung zu quetschen, kann man sich auch einen physischen Datenträger schicken lassen und per Post die Daten einmalig nach Kalifornien schicken, wo sie in die Cloud befördert werden. Aktuell befinde ich mich noch in der Versuchsphase, 103 GB über die Leitung in die Cloud zu befördern (nach zwei Tagen bin ich bei 25 %) Wenn man mit der Bandbreitendrosselung ein bisschen spielt und nachts nicht vergisst, den Standby-Modus des Computers zu deaktivieren, könnte es was werden.

Die Daten sind bei der Übertragung und Speicherung mittels 256-bit-AES-Verschlüsselung gesichert, wobei der Schlüssel entweder vom System oder vom Nutzer selbst vorgegeben wird.

Wenn man zusätzlich noch ein lokales Backup auf einem externen Datenträger haben möchte, bietet idrive zusätzlich für 99,99 $ einen lokalen, über WLAN verbundenen Datenträger an (Network attached storage device NAS, „wifi device“), der ebenfalls über die idrive-Software verwaltet wird.

Alles in allem wirklich ein Rundum-Datensicherungskonzept. Aber wie immer bin ich natürlich auch neugierig zu erfahren, wie Ihr Eure Daten sichert!


Über die Autorin:
Dr. Anja Rütten ist freiberufliche Konferenzdolmetscherin für Deutsch (A), Spanisch (B), Englisch (C) und Französisch (C) in Düsseldorf und Mitglied von VKD, BDÜ NRW und AIIC. Sie widmet sich seit Mitte der 1990er dem Wissensmanagement.

+++ English version +++

It is hard to believe that a child, before becoming digitally full of age (i.e. having a proper WhatsApp account), provokes the disaster I have managed to avoid for over 20 years: total loss of data. Luckily, it was „only“ a bunch of photos taken with my old smartphone, but still: all of a sudden it became crystal clear to me that my family and I are in desperate need of a comprehensive data backup plan.

I am lucky enough to know some passionate test report readers, and so it happened that when I was at my dear friend Julia’s house, over some Gin & Tonics I was recommended exactly what I was looking for: idrive, the one online backup package that offers everything I had been looking for.

It runs on all the usual operating systems for desktop and laptop computers (Mac, Windows, Linux) and mobile devices (Android, iOS, Windows), up to six devices and 1 TB can be backed up under one „Private“ account for – theoretically – $ 69.50 per year (watch out for special offers – after I had installed the app on my smartphone using the free basic version, I was offered the upgrade to the „Private“ plan for as little as $ 15). And you can access the online data backups of any of them from any of them. I found this a bit spooky at the beginning, but there is optional password protection when opening the idrive software/app. The browser-based idrive dashboard can then be used, for example, to save the pictures taken with your smartphone to your desktop computer.

Backups can be run continuously, scheduled or ad hoc by clicking a button, so your computer does not necessarily have to be rattling through synchronising data in the background all the time. But the system will still remind you of your regular backup task if you ask it to. Once all your data is uploaded, files will only be updated incrementally, i.e. only those archives which have been changed locally will be uploaded to your online backup.

On your mobile phone, you can choose from saving your contacts, call logs, calendar, files, apps, SMS, photos (also from WhatsApp), videos and audio files, be it continuously, according to a schedule or ad hoc by clicking the button. Very nice for frequent travelers.

Files deleted from your PC will not be deleted automatically from your online backup version. Unless you „clean up“ your backup (by clicking the button), it will keep all your files – which you may have deleted accidentally from your local hard disk- virtually forever. And if, the other way around, you don’t want to carry around tons of private photos on your mobile device, you can delete them from your mobile harddisk once you have uploaded them to idrive.

The idrive Business Version (currently $ 74.62) even lets you create sub-accounts in order to manage data backups centrally for colleagues, staff or children (without them getting access to your personal data). My personal solution for the moment is to create separate accounts for each child’s mobile device (basic account, free of charge for up to 5 GB) and make excessive use of the share functions. For example, I simply share the online backup file of my local mp3 collection via idrive and they access them using their accounts. Equally they share their online photo backup files with me if they want me to save their photos on my PC. All this sharing back and forth must be done using the browser dashboard, whereas the backup functions work via programs/apps that need to be installed locally.

If you don’t feel like squeezing your 100 GB of data through the landline, idrive even offers to send you a hard drive by ordinary mail so that you can ship your data to California and let them take care of the uploading. My personal 100-GB-upload experiment is still running (I am at 25 % after two days), but when you play around with the bandwidth throttle a bit and don’t forget to deactivate the standby mode overnight, chances are that you will finally get there.

Your data is encrypted during transfer and storage using 256 bitAES encryption, either on the basis of a default key or using your private one.

If you wish to have an additional local backup on an external hard disk, idrive offers a so called „wifi device“ (Network attached storage device, NAS, $ 99.99), which is also managed by the idrive software.

Bottom line is that this is an allround hybrid backup system I am quite happy with, although as always, I would love to know how you handle your data backups!

————————–

About the author:
Anja Rütten is a freelance conference interpreter for German (A), Spanish (B), English (C) and French (C) based in Düsseldorf, Germany. She has specialised in knowledge management since the mid-1990s.

Dictation Software instead of Term Extraction? | Diktiersoftware als Termextraktion für Dolmetscher?

+++ for English see below +++

Als neulich mein Arzt bei unserem Beratungsgespräch munter seine Gedanken dem Computer diktierte, anstatt zu tippen, kam mir die Frage in den Sinn: „Warum mache ich das eigentlich nicht?“ Es folgte eine kurze Fachsimpelei zum Thema Diktierprogramme, und kaum zu Hause, musste ich das natürlich auch gleich ausprobieren. Das High-End-Produkt Dragon Naturally Speaking, von dem mein Arzt schwärmte, wollte ich mir dann aber doch nicht gleich gönnen.  Das muss doch auch mit Windows gehen und mit dem im Notebook eingebauten Raummikrofon, dachte ich mir (haha) … Eingerichtet war auch alles in Nullkommanix (unter Windows 10 Auf Start klicken, den Menüpunkt „Erleichterte Bedienung“ suchen, “ Windowsspracherkennung“ auswählen) und los ging’s. Beim ersten Start durchläuft man zunächst ein kurzes Lernprogramm, das die Stimme kennenlernt.

Und dann konnte es auch schon losgehen mit dem eingebauten Diktiergerät, zunächst testhalber in Microsoft Word. Von den ersten zwei Spracheingaben war ich auch noch einigermaßen beeindruckt, aber schon bei „Desoxyribonukleinsäure“ zerplatzten alle meine Träume. Hier meine ersten Diktierproben mit ein paar gängigen Ausdrücken aus dem Dolmetschalltag:

– 12345
– Automobilzulieferer
– Besserungszeremonien Kline sollte es auch viel wie Wohnen Nucleinsäuren für das (Desoxyribonukleinsäure)
– Beste Rock Siri Wohnung Klee ihnen sollte noch in Welle (Desoxyribonukleinsäure)
– Verlustvortrag
– Rechnungsabgrenzungsposten
– Vorrats Datenspeicherung
– Noch Händewellenlänge (Nockenwelle)
– Keilriemen
– Brennstoffzellen Fahrzeuge

Gar nicht schlecht. Aber so ganz das Spracherkennungswunder war das nun noch nicht. In meiner Phantasie hatte ich mich nämlich in der Dolmetschvorbereitung Texte und Präsentationen entspannt lesen und dabei alle Termini und Zusammenhänge, die ich im Nachgang recherchieren wollte, in eine hübsche Tabelle diktieren sehen.  Aber dazu musste dann wohl etwas „Richtiges“ her, wahrscheinlich zunächst einmal ein gescheites Mikrofon.

Also setzte ich mich dann doch mit der allseits gepriesenen Diktiersoftware Dragon Naturally Speaking auseinander, chattete mit dem Support und prüfte alle Optionen. Für 99 EUR unterstützt die Home-Edition nur die gewählte Sprache. Die Premium-Version für 169 EUR unterstützt die gewählte Sprache und auch Englisch. Ist die gewählte Sprache Englisch, gibt es nur Englisch. Möchte ich mit Deutsch, Spanisch, Englisch und womöglich noch meiner zweiten C-Sprache Französisch arbeiten, wird es also erstens kompliziert und zweitens teuer. Also verwarf ich das ganze Thema erst einmal, bis wenige Tage später in einem völlig anderen Zusammenhang unsere liebe Kollegin Fee Engemann erwähnte, dass sie mit Dragon arbeite. Da wurde ich natürlich hellhörig und habe es mir dann doch nicht nehmen lassen, sie für mich und Euch ein bisschen nach ihrer Erfahrung mit Spracherkennungssoftware auszuhorchen:


Fee Engemann im Interview am 19. Februar 2016

Wie ist die Qualität der Spracherkennung bei Dragon Naturally Speaking?

Erstaunlich gut. Das Programm lernt die Stimme und Sprechweise kennen und man kann ihm auch neue Wörter „beibringen“, oder es liest über sein „Lerncenter“ ganze Dateien aus. Man kann auch Wörter buchstabieren, wenn das System gar nichts mehr versteht.

Wozu benutzt Du Dragon?

Ich benutze es manchmal als OCR-Ersatz, wenn eine Übersetzungsvorlage nicht maschinenlesbar ist. Das hat den Vorteil, dass man gleich den Text einmal komplett gelesen hat.

In der Dolmetschvorbereitung diktiere ich meine Terminologie in eine Liste, die ich dann nachher durch die Begriffe in der anderen Sprache ergänze. Das funktioniert in Word und auch in Excel. Falls es Schwierigkeiten gibt, liegt das evtl. daran, dass sich die Kompatibilitätsmodule für ein bestimmtes Programm deaktiviert haben. Ein Besuch auf der Website des technischen Supports schafft hier Abhilfe. Für Zeilenumbrüche und viele andere Befehle gibt es entsprechende Sprachkommandos. Wenn man das Programm per Post bestellt und nicht als Download, ist sogar eine Übersicht mit den wichtigsten Befehlen dabei – so wie auch ein Headset, das für meine Zwecke völlig ausreichend ist. Die Hotline ist im Übrigen auch super.

Gibt es Nachteile?

Wenn ich einen Tag lang gedolmetscht habe, habe ich danach manchmal keine Lust mehr, mit meinem Computer auch noch zu sprechen. Dann arbeite ich auf herkömmliche Art.

Wenn man in unterschiedlichen Sprachen arbeitet, muss man für jede Sprache ein neues Profil anlegen und zwischen diesen Profilen wechseln. Je nach Sprachenvielfalt in der Kombination könnte das lästig werden.


Mein Fazit: Das hört sich alles wirklich sehr vielversprechend an. Das größte Problem für uns Dolmetscher scheint – ähnlich wie bei der Generierung von Audiodateien, also dem umgekehrten Weg – das Hin und Her zwischen den Sprachen zu sein. Wenn jemand von Euch dazu Tipps und Erfahrungen hat, freue ich mich sehr über Kommentare – vielleicht wird es ja doch noch was mit der Terminologieextraktion per Stimme!

Über die Autorin:
Anja Rütten ist freiberufliche Konferenzdolmetscherin für Deutsch (A), Spanisch (B), Englisch (C) und Französisch (C) in Düsseldorf. Sie widmet sich seit Mitte der 1990er dem Wissensmanagement.

+++ English version +++

The other day, when I was talking to my GP and saw him dictate his thoughts to his computer instead of typing them in, I suddenly wondered why I was not using such a tool myself when preparing for an interpreting assignment? So I asked him about the system and, back home, went to try it myself straight away. Although what I was planning to do was not to buy the high-end dictation program Dragon Naturally Speaking I had been recommended, but instead to go for the built-in Windows speech recognition function and the equally built-in microphone of my laptop computer (bad idea) … The speech recognition module under Windows 10 was activated in no time (got to the Start menu, select „Ease of Access > Speech Recognition„) and off I went.

When the voice recognition function is first started, it takes you through a short learning routine in order to familiarise itself with your voice. After that, my Windows built-in dictation device was ready. For a start, I tried it in Microsoft Word. I found the first results rather impressive, but when it came to „Desoxyribonukleinsäure“ (deoxyribonucleic acid), I was completely disillusioned. See for yourselves the results of my first voice recognition test with some of the usual expressions from the daily life of any conference interpreter:

– 12345
– Automobilzulieferer
– Besserungszeremonien Kline sollte es auch viel wie Wohnen Nucleinsäuren für das (Desoxyribonukleinsäure)
– Beste Rock Siri Wohnung Klee ihnen sollte noch in Welle (Desoxyribonukleinsäure)
– Verlustvortrag
– Rechnungsabgrenzungsposten
– Vorrats Datenspeicherung
– Noch Händewellenlänge (Nockenwelle)
– Keilriemen
– Brennstoffzellen Fahrzeuge

Not bad for a start – but not quite the miracle of voice recognition I would need in order to live this dream of dictating terminology into a list on my computer while reading documents to prepare for an interpreting assignment. Something decent was what I needed, probably a decent microphone, for a start.

So I enquired about the famous dictation software Dragon Naturally Speaking, chatted with one of the support people and checked the options. For 99 EUR, Dragon’s Home Edition only supports one language. The Premium Edition for 169 EUR supports one selected language plus English (If you choose English when buying the software, it is English-only.)  If I want German, Spanish, English and possibly also my second C-language, French, it gets both complicated and expensive. So I discarded the whole idea until, only a few days later, our dear colleague Fee Engemann happened to mention to me – in a completely different context – that she actually worked with Dragon! I was all ears and spontaneously asked her if she would like to share some of her experience with us in an interview. Luckily, she accepted!


Interview with Fee Engemann February 19th, 2016

What is the voice recognition quality of Dragon Naturally Speaking like?

Surprisingly good. The program familiarises itself with your voice and speech patterns, and you can also „teach“ it new words, or let it read loads of new words from entire files. You can also spell words in case the system does not understand you at all.

What do you use Dragon for?

I use it as an OCR substitute when I get a text to translate which is not machine-readable. The big advantage is that once you have done that, you know the entire text.

When preparing for an interpreting assignment, I dictate my terminology into a list and add the equivalent terms in the other language once I have finished reading the texts. That works in MS-Word and MS-Excel. If there are problems, this may be due to the compatibility module for a certain program being deactivated. The technical support website can help in this case. There are special commands for line breaks and the like. And if you order the software on a CD (instead of simply downloading it), your parcel will not only include a list with the most important commands, but also a headset, which is absolutely sufficient for my purpose. And by the way … the hotline is great, too.

Are there any downsides?

After a whole day of interpreting, I sometimes don’t feel like talking to my computer. In this case, I simply work the traditional way.

When working with several languages, you must create one profile per language and switch between them when switching languages. This may be quite cumbersome if you work with many different languages.


My personal conclusion is that this all sounds very promising. As always, our problem as conference interpreters with these technologies (just like when creating multilingual audio files, i.e. the other way around) seems to be the constant changing back and forth between languages. If any of my readers has experience or good advice to share, I will be happy to read about it in the comments – maybe voice-based term extraction is not that far away after all!

————————–

About the author:
Anja Rütten is a freelance conference interpreter for German (A), Spanish (B), English (C) and French (C) based in Düsseldorf, Germany. She has specialised in knowledge management since the mid-1990s.

 

 

 

 

 

 

 

 

Verträge auf dem Smartphone oder Tablet unterschreiben +++ Signing contracts on your smartphone or tablet

+++ For English see below +++

Man kennt es ja: Gerade liegt man unter Palmen, da schneit per Mail der Vertrag für den nächsten Auftrag hinein und will sofort unterschrieben zurückgeschickt werden. Und nun? Zur Rezeption laufen, Vertrag ausdrucken lassen (supervertraulich) und unterschrieben zurückfaxen? Natürlich nicht. Denn zu meiner übergroßen Freude habe ich in meinem diesjährigen Urlaub festgestellt, dass das, was viele von uns schon lange am PC machen, nämlich Pdfs oder Bilddateien digital signieren, jetzt auch – und noch viel besser – am Tablet oder Smartphone geht. Mit dem ganz normalen kostenlosen Adobe Acrobat Reader für Android (was sagen die ipad-Nutzer?) kann man ganz einfach ein pdf am Bildschirm handschriftlich unterzeichnen, speichern und verschicken. Der Vorteil: Man benötigt noch nicht einmal eine gescannte Unterschrift auf der Festplatte oder in der Cloud, denn man malt sie einfach mit dem Zeigefinger (oder einem Stift, wer hat) auf das Touchscreen. Besser geht’s nicht.

So weit, so gut. Aber wie sieht es denn eigentlich rechtlich aus mit diesen digitalen Unterschriften? Meine Notarin erklärte mir auf diese Frage hin gestern erst einmal, dass Verträge, wenn es nicht gegenteilig im Gesetz oder durch Vereinbarung der Parteien vorgesehen ist, gar nicht zwingend der Schriftform bedürfen. Im Prinzip reiche also in unseren Verträgen über Dolmetschleistungen auch eine E-Mail, eine (fern)mündliche Vereinbarung, ein Fax oder eben auch eine gescannte Unterschrift oder eine vom Touchscreen (ein anderes Thema ist dann natürlich die Nachweisbarkeit im Falle eines Rechtsstreits). Ist die Schriftform aber laut Gesetz erforderlich oder unter den Vertragspartnern vereinbart, so reicht  weder eine gescannte Unterschrift noch das Gekrakel auf dem Tochscreen. Einer Unterschrift auf Papier gleichwertig ist eine digitale Unterschrift erst, wenn die Anforderungen an eine „qualifizierte elektronische Signatur“ mit Signaturschlüssel (vgl. Signaturgesetz SigG 2001 § 2) erfüllt sind. Das heißt, bei Verträgen mit Formfreiheit können wir uns im Prinzip den ganzen Aufwand mit den „unqualifizierten“ digitalen Unterschriften auch sparen und stattdessen einfach eine Mail schicken. Es sei denn, der Kunde besteht darauf bzw. man möchte ihm einfach den Gefallen tun.

PS: Ich bin keine Juristin, daher alle Informationen unter Vorbehalt. Interessant dazu auch eine Stellungnahme des Verbandes Organisations- und Informationssysteme e.V.

Unterschrift Tablet
signature on a tablet pc

++++++++++++++++++++++

Typical … just as you are enjoying another cocktail on the beach, there comes an email with the contract for your next job, which please needs to be signed and returned right away. Now what? Walk to reception, have it printed out (very confidential indeed) and fax back? No way. To my utmost delight, what has been possible for quite some time on a desktop or laptop computer, i.e. signing your pdfs or image files electronically, can now be done on a tablet or smartphone just as well – and even better. The very normal, free of charge Adobe Acrobat Reader for Android (don’t know about ipad?) allows you to sign your pdfs manually, saving them and sending them on. The nice thing about it is that there isn’t even a need for a scanned signature being saved somewhere on the hard disk (or in the cloud), you simply draw the signature on your touchscreen with your finger (or using a stylus pen if you happen to have one).

So far, so good. But what about the legal status of such electronic signatures? I don’t know about other countries, but my German notary explained to me that there is no explicit need for contracts do be done in writing anyway. If not stipulated differently in the law or agreed upon by the parties, contracts like ours may as well be made orally, by phone, email, fax or using scanned signatures or those scribbled on a touchscreen (theoretically speaking, that is; what holds proof in the case of a dispute remains to be seen). If, however, a written contract is required, all this won’t do the trick anyway. In order to have an electronic equivalent to a pen and paper signature, you need to use what the German „signature law“ calls a „qualified electronic signature“, i.e. one including a signature key. So actually, when no written contract is required, there is no point in using all those „unqualified“ signatures anyway, you may as well just send an email, unless your customer insists or you just want to do them the favour anyway.

PS: As I am not a lawyer, the above information merely reflects my personal understanding of the matter.

 

Mit dem Tablet in die Dolmetschkabine? – The ipad Interpreter von und mit Alex Drechsel

Dass ein Tablet leichter, kleiner und handlicher ist und zudem eine längere Akkulaufzeit hat, sehe ich ein. Ich persönlich trage jedoch lieber 400 g mehr mit mir herum und habe einen richtigen Rechner (= mein komplettes Büro nebst Datenbestand) dabei, der mir überall ein vollwertiges Office-Paket, eine „große“ Tastatur und die Möglichkeit bietet, so viele Programm gleichzeitig zu öffnen, wie ich möchte. Als ich einmal über mehrere Wochen mit dem Tablet in der Kabine saß, fand ich es dennoch gut, weil es einfach nett ist, nur so ein kleines Brett aus der Tasche zu ziehen und fertig. Und ich war auch dankbar, dass ich trotz havarierten Notebooks einigermaßen einsatzbereit war. Dank großem USB-Stick hatte ich auch trotzdem alle meine Daten dabei und musste mir über nichts Gedanken machen.

Interessant finde ich, dass ich auf dem Privatmarkt kaum jemanden mit Tablet in der Simultankabine sitze sehe, in Brüssel aber offensichtlich Tablets immer beliebter werden und fast häufiger anzutreffen sind als Notebooks.

Dazu passt, dass unser Kollege Alexander Drechsel aus Brüssel (SCIC) so nett war, in einem kurzen Video die Vorzüge des Tablets in der Dolmetschkabine zu zeigen, veröffentlicht u. a. im Dolmetscher-Blog „A Word In Your Ear“: http://lourdesderioja.com/2013/11/10/ipad-interpreter/.

the ipad interpreter

Besonders gut fand ich die App „Documents“, die einem das Hantieren mit vielen unterschiedlichen Dokumenten zu erleichtern scheint. Und auch sonst hat Alex ein paar interessante Gedanken parat.

Danke dafür an Alex – und allen anderen viel Spaß beim Zuschauen!

Touchscreen als Notizblock

Vielleicht hat der eine oder andere von Euch irgendeine Form von berührungsempfindlichem Bildschirm vom Christkind bekommen?

Ich bin ein großer Fan von Touchscreens in der Kabine, weil ich einem Kleinkind gleich mit den Fingern (Digitus!) einfach nur auf das zeigen muss, was ich sehen möchte, so dass ich selbst während des Simultandolmetschens phänomenal intuitiv meine Dokumente finde und lesen bzw. durchscrollen oder durchwischen kann. Jedoch bin ich ziemlich eigen, was den an dem Bildschirm hängenden Rechner betrifft, denn da bin ich nicht bereit, für 500 g Gewichtseinsparung eine amputierte Arbeitsumgebung in Kauf zu nehmen (aber dazu mehr in einem der nächsten Blog-Beiträge), so dass ich lieber ein vollwertiges Laptop mit Touchscreen benutze. Aber das nur am Rande.

Mein Thema heute ist eigentlich die Frage, inwiefern sich ein Touchscreen – sei es am Handy, Tablet oder Laptop – zum Notieren beim Konsekutivdolmetschen eignet. Meine Erfahrung mit einem Acer Iconia Tablet (Baujahr 2011) mit kapazitivem Touchscreen war bislang mäßig, da die dafür geeigneten dicken Gummiballstifte (ebenso wie meine Finger) sehr unpräzise waren und die Reaktionszeit langsam. Induktive Touchscreens hingegen funktionieren mit Eingabestift, sind präziser und lassen sich auch durch eine beim Schreiben aufgelegte Hand nicht stören. Erkennen aber eben keinen Fingerzeig.

Nun hat sich in den letzten beiden Jahren viel getan und mittlerweile gibt es so genannte Hybridsysteme, die sowohl Fingerdruck erkennen als auch Stifte mit dünnen Plastikspitzen (und diesen Priorität über dem aufgelegten Handballen einräumen). HP lässt mich für mein EliteBook Revolve seit Frühjahr 2013 auf den angekündigten Eingabestift warten, aber gestern hatte ich das Surface-Gerät von Microsoft in der Hand und dachte zum ersten Mal: Das könnte auch was zum Notieren sein. Das Hybrid-Touchscreen hat auf den Eingabestift superpräzise reagiert (und natürlich auch auf Fingerdruck), und sobald sich der Eingabestift dem Bildschirm auch nur näherte, wurde schon vor der Berührung auf dem Bildschirm ein Fadenkreuz sichtbar. Das kann man hilfreich oder störend finden, zunächst einmal fand ich es interessant und zukunftsweisend.

Das sind soweit meine nicht gerade umfangreichen Erfahrungen mit dem handschriftlichen Notieren am Computer. Was auch damit zusammenhängt, dass ich, wenn ich die Chance habe, einen Rechner mit Tisch zu nutzen, ungleich ausführlicher per Tastatur notiere als mit Block und Stift (aber auch dazu an anderer Stelle mehr). Umso mehr interessiert mich natürlich, ob bzw. welche Erfahrungen Ihr mit dem Einsatz von Touchscreens als Notizblock beim Konsekutivdolmetschen habt!

Es grüßt Euch herzlich

Anja