1. WER WIR SIND
Allie Fritz, Director of Interpretations bei Lionbridge

Meet the Pride: Allie Fritz

Director of Interpretations bei Lionbridge

mobile-toggle

SPRACHE AUSWÄHLEN:

KI-gestütztes Post-Editing mit LLM

Webinarzusammenfassung: Kann KI das Post-Editing übernehmen?

Automatisches Post-Editing in der Praxis: Umsetzung durch die Cisco Networking Academy und die Perspektive von Lionbridge

Haben Sie Schwierigkeiten, den Bedarf an Content in mehreren Sprachen zu erfüllen? Damit sind Sie nicht allein. Jahrelang standen Übersetzungsteams vor großen Herausforderungen – knappe Budgets, begrenzte Personalressourcen und nicht nachlassender Bedarf an Content. Doch was wäre, wenn Sie hochwertige Übersetzungen schneller, in beliebigem Umfang und zu deutlich geringeren Kosten bereitstellen könnten? Mit künstlicher Intelligenz (KI) ist dies jetzt möglich.

Im Lionbridge-Webinar „Kann KI das Post-Editing übernehmen?“ diskutierten Experten von Lionbridge und Cisco Systems, wie das KI-gestützte Post-Editing Übersetzung und Lokalisierung transformiert.

In diesem Webinar mit Marcus Casal, Chief Technology Officer von Lionbridge, und Yolanda Cham Yuen, GTS Program Manager bei Cisco Systems, lautete die zentrale Frage: Kann KI das Post-Editing übernehmen und Übersetzungen mithilfe von Large Language Models (LLM) in großem Umfang präzise, zuverlässig und kostengünstig produzieren? Die Antwort ist ein klares Ja. Zu beachten sind aber einige Einschränkungen.

  • #consumer_packaged_goods
  • #generative-ai
  • #ai
  • #global_marketing
  • #technology
  • #content_creation
  • #translation_localization
  • #retail
  • #travel_hospitality

KI kann das Post-Editing übernehmen und sehr gute Ergebnisse liefern.

– Marcus Casal, CTO von Lionbridge

Möchten Sie sich das Webinar ansehen? Über die Schaltfläche unten gelangen Sie zur Aufzeichnung.

Automatisches Post-Editing: die neue Realität

Das KI-gestützte Post-Editing ist keine ferne Vision mehr, sondern bereits Realität. Es treibt die Transformation in der realen Welt voran.

Die Plattform Lionbridge Aurora AI™ orchestriert den gesamten Lebenszyklus globalen Contentss, vom Einspeisen der Kundendaten über die Übersetzung mittels maschineller Übersetzung (Maschine Translation, MT) bis hin zum automatischen Post-Editing mit LLM und dem Einstellen der Ergebnisse in die Contentrepositorys.

Ermöglicht wird das durch eine Kombination aus API-gesteuerter Automatisierung, Integration Platform as a Service (iPaaS) und robusten linguistischen Assets wie Translation Memory (TM), Glossaren und Terminologiemanagement. Indem Unternehmen MT, LLM-gestütztes Post-Editing mit fortschrittlichen Modellen und intelligente Workflows kombinieren, können sie Content schneller und planbarer als je zuvor bereitstellen.

Aber es kommt nicht nur auf Geschwindigkeit und Skalierbarkeit an, sondern auch auf Qualität. Deshalb sieht der Lionbridge-Ansatz die Einbindung von Menschen (Human-in-the-Loop, HITL) vor. Menschliche Experten trainieren und optimieren die Modelle und evaluieren die Ergebnisse, um sicherzustellen, dass deren Produkt die Contentziele erfüllt.

Wie hat die Cisco Networking Academy das automatische Post-Editing in der Praxis eingesetzt?

Yolanda berichtete über das automatische Post-Editing bei der globalen Cisco-Initiative für soziale Verantwortung, der Cisco Networking Academy.

Die Cisco Networking Academy bietet kostenlose Technologieschulungen zu Vernetzung, Cybersicherheit, Programmierung und anderen Data-Science-Themen an und erreicht damit über 23 Millionen Menschen in 191 Ländern. Lokalisierung ist für maximale Wirkung der Kurse unverzichtbar, da Sprache eine erhebliche Barriere darstellen kann.

Um mehr Menschen die Nutzung zu ermöglichen und die Kurse der Network Academy weltweit verfügbar zu machen, benötigte Cisco eine skalierbare Lösung für die Übersetzung von Millionen von Wörtern in mehr als ein Dutzend Sprachen, die auch unter Zeit- und Budgetdruck funktioniert.

Die Lösung für dieses Problem ist die Implementierung des automatischen Post-Editings.

Abstrakte Darstellung dynamischer Bewegung mit Binärcode zur Symbolisierung des KI-gestützten Post-Editings.

Aus welchen Komponenten bestand die Lösung der Cisco Network Academy?

Die Lösung von Cisco umfasste folgende Komponenten:

  • Translation Memorys für zuvor genehmigten Content

  • Neuronale maschinelle Übersetzung (NMT) für die Erstübersetzung aufgrund von Geschwindigkeit, Kosten und Konsistenz

  • LLM-gestütztes KI-Post-Editing zur Optimierung der Ausgabe

  • Menschliche Tester für funktionale Prüfungen im Kontext – insbesondere bei komplexen Sprachen

Welche Ergebnisse hat die Cisco Networking Academy erzielt?

Die Ergebnisse waren bemerkenswert.

Durch den Einsatz des automatischen Post-Editings konnte die Cisco Networking Academy in nur drei Monaten über 15 Millionen Wörter für 24 Kurse in 14 Sprachen übersetzen. Der Engpass verlagerte sich von der Übersetzung auf Funktionsprüfung und Bereitstellung, was die erheblichen Effizienzsteigerungen unterstreicht. Diese Arbeiten kosteten insgesamt weniger als 70.000 USD. Das liegt deutlich unter den Kosten herkömmlicher Verfahren.

Durch die Nutzung von LLM für das Post-Editing kann Cisco Content in mehreren Sprachen gleichzeitig veröffentlichen. Dadurch wird der zeitliche Abstand zwischen der Veröffentlichung von englischen und lokalisierten Versionen erheblich reduziert, und die Kurse werden global besser zugänglich.

„Content kann nun so schnell und kostengünstig wie nie zuvor übersetzt werden. … [Das automatische Post-Editing] öffnet die Tür zu neuen Bereichen, zu neuen Möglichkeiten, die sonst nicht bezahlbar und in den sehr anspruchsvollen Szenarien, mit denen wir konfrontiert sind, nicht realisierbar wären.”

– Yolanda Cham Yuen, Cisco Systems

Welche Einschränkungen und Risiken sind beim KI-Post-Editing zu beachten?

Das KI-Post-Editing ist effektiv, aber nicht perfekt. Die Experten wiesen auf einige Einschränkungen hin:

  • Sprachen, von denen nur wenig Content online verfügbar ist (sogenannte low-resource languages), stellen für Mensch und Maschine eine größere Herausforderung dar. LLM (einschließlich hochmoderner Modelle) funktionieren mit Texten in Englisch und weit verbreiteten Sprachen am besten. Für Nischensprachen sind spezielle Glossare und Trainingsdaten unverzichtbar.

  • Kulturelle Nuancen, Ton und Fachwissen sind für KI nach wie vor keine Selbstverständlichkeit. Die richtigen Prompt-Flows und menschliche Kontrolle sind entscheidend, wenn subtile Unterschiede erfasst werden müssen – ob in sportbezogener Terminologie oder technischer Fachsprache.

  • Die KI kann Halluzinationen (auch als Konfabulationen bezeichnet) generieren. Dabei handelt es sich um ungenaue oder irreführende Informationen, die gelegentlich sehr überzeugend wirken. Diese Einschränkung macht deutlich, wie wichtig Funktionstests sowie direktes Feedback von Endbenutzern für wirksamen Content sind.

Marcus verwies auf eine Anekdote aus der Praxis: Der Ausdruck „protect your turf“ (schütze dein Revier) in einer Werbung für Basketballschuhe auf einer E-Commerce-Website wurde mit „césped” (Kunstrasen oder Rasen) ins Spanische übersetzt, obwohl der Ausdruck eher für Fußball als für Basketball treffend ist. Der Fehler wurde korrigiert, indem Glossare und Terminologie überarbeitet wurden. So konnte das Vertrauen der Benutzer gesteigert werden.

Wie kann das KI-gestützte Post-Editing durch Einbindung des Menschen (Human-in-the-Loop) verbessert werden?

Wird das KI-gestützte Post-Editing traditionelle Übersetzungsworkflows ersetzen? Nicht vollständig. Yolanda und Marcus wiesen auf die neuen Möglichkeiten hin, die KI insbesondere bei Großprojekten mit knappen Fristen bietet, betonten aber auch, dass menschliche Experten unverzichtbar bleiben.

Übersetzer und Lokalisierungsexperten müssen sich an die neuen Gegebenheiten anpassen:

  • Fähigkeiten im Prompt-Engineering und in der Workflowautomatisierung entwickeln

  • Terminologiemanagement und Markenstimme beherrschen

  • KI nutzen, um sich auf höherwertige Aufgaben – Tonfall, Zielgruppenansprache und fachspezifischer Content – konzentrieren zu können

  • Kreativen Input liefern und Qualitätssicherungsmaßnahmen für MT- und LLM-Ausgaben ergreifen

Die Branche setzt zunehmend auf „kollaborative Robotik“, also die Zusammenarbeit von Mensch und Maschine, um optimale Ergebnisse zu erzielen.

Wie können Integration und Terminologiemanagement die Ergebnisse verbessern?

Integration ist der Schlüssel. Das KI-gestützte Post-Editing muss sich nahtlos in Content-Management-Systeme (CMS), Dokumentenmanagementplattformen und andere Repositorys einfügen, in denen Content gespeichert und entwickelt wird. Automatische Integrationen sorgen für den schnellen und effizienten Umschlag von Contentaktualisierungen und -lokalisierungen.

Ebenso wichtig ist das Terminologiemanagement. Marcus erklärte, dass sich die Akzeptanz und Genauigkeit von KI-generierten Übersetzungen – insbesondere dank der gesunkenen Kosten für Übersetzung und Post-Editing – durch Investitionen in solide Glossare und die Markenstimme berücksichtigende Assets erheblich verbessern lässt.

Wie geht es mit dem KI-gestützten Post-Editing von Übersetzungen weiter?

In Zukunft wird das KI-gestützte Post-Editing für die Lokalisierung noch wichtiger, da die Menge kuratierter Trainingsdaten zur Verbesserung der LLM zunimmt. Obwohl die Technologie weiterentwickelt wird, bleiben menschliche Kreativität, kontextuelles Verständnis und kontinuierliche Kontrolle unverzichtbar, um Innovationen zu schaffen und hohe Übersetzungsqualität sicherzustellen.

Was sind die wichtigsten Ergebnisse des Webinars?

In diesem Webinar ging es um das automatische Post-Editing für verbesserte Übersetzungsworkflows und die deshalb mögliche Erstellung von globalem Content in nahezu jedem Umfang. Die wichtigsten Aspekte:

  • KI kann qualitativ ansprechendes Post-Editing durchführen und den menschlichen Aufwand reduzieren.

  • KI-gestütztes Post-Editing beschleunigt mit großen Sprachmodellen (Large Language Models, LLM) Übersetzung und Lokalisierung in jeder Größenordnung.

  • Die kontinuierliche Nutzung von maschineller Übersetzung und effektivem Terminologiemanagement (TM und Glossare) verbessert Qualität und Konsistenz.

  • Die Einbindung menschlicher Experten bleibt unverzichtbar, insbesondere bei sehr spezifischem Content und ressourcenarmen Sprachen.

  • Die Servicelevel der KI-Unterstützung können vom Verzicht auf menschliches Post-Editing bis hin zu menschlichem Post-Editing des gesamten Contents auf die Contentprofile abgestimmt werden.

  • Auch mit wenig menschlichen Eingriffen lassen sich akzeptable Qualitätslevel erreichen.

  • Das KI-gestützte Post-Editing eröffnet neue Möglichkeiten zur Ausdehnung der Reichweite von Content sowie zur Reduzierung der Kosten.

KI-gestütztes Post-Editing: Antworten auf die wichtigsten Fragen

Wir wissen, dass die Genauigkeit bei MT-Lösungen oft nicht zufriedenstellend war. Deshalb haben wir uns für einen KI-zentrierten Ansatz entschieden, bei dem menschliche Experten (Human-in-the-Loop, HITL) die Maschine konfigurieren, kontrollieren und warten.

KI wird genutzt, um die Übersetzungsergebnisse herkömmlicher Tools wie Translation Memorys (TM) und neuronaler maschineller Übersetzung (NMT) zu verbessern.

Unsere Erfahrungen mit dem KI-gestützten Post-Editing zeigen, dass es die Anforderungen an Skalierbarkeit und Qualität erfüllen kann. Trotzdem muss das Tool von Menschen überwacht und im Hinblick auf Genauigkeit und spezifische Contentanforderungen justiert werden.

Unsere Lösung für KI-gestütztes Post-Editing beginnt mit einer Analyse des Quellcontents, um den Kontext herauszuarbeiten. Die Bearbeitungs- und Validierungsschritte werden unter Berücksichtigung dieses Kontexts durchgeführt. Dies stellt die Abstimmung der ausgegebenen Übersetzungen auf die Contentziele und/oder -profile sicher.

Wir haben unsere Lösung für KI-gestütztes Post-Editing konfigurierbar gestaltet. Linguistische Prompts können basierend auf dem Feedback der am Übersetzungsprozess beteiligten Linguisten sowie der Experten des Kunden aktualisiert werden.

Lionbridge bietet ergänzende KI-Lösungen an, mit denen Quellenanalysen durchgeführt und Berichte erstellt werden können, die Änderungen des Quellcontents empfehlen. Zur weiteren Optimierung der Contentstrategie können wir diese Lösungen mit unserer Lösung für KI-gestütztes Post-Editing kombinieren.

Mit unserer Lösung für KI-gestütztes Post-Editing können wir exakt bestimmen, in welchen Bereichen der Einsatz von menschlichen Experten am sinnvollsten ist.

Wir ermitteln mit unseren Kunden anhand des Frameworks REACH den Contentbedarf und konfigurieren die KI-Lösung, um die produzierten Übersetzungen zu optimieren. Anschließend können wir festlegen, welcher Umfang menschlicher Einbindung für den jeweiligen Contentbedarf und die Contentprofile geeignet ist.

Branchenspezifischer Terminologie, die sprachbezogen und/oder regional variiert, stellt eine Herausforderung dar. Es bieten sich aber verschiedene Lösungen an.

Mit Metadaten können wir mehr Kontext für die KI-Tools bereitstellen und das LLM anweisen, zusätzliche Anforderungen wie regionale Nuancen zu berücksichtigen. Vorausgesetzt ist entsprechendes Labeling und Tagging des Contents. Lionbridge kann Unternehmen mit Datenservices bei den entsprechenden Vorbereitungen unterstützen.

Für Terminologie, die regional angepasst werden muss, nutzen wir ein RAG-Framework. Vor dem KI-gestützten Post-Editing legen wir Richtlinien für das LLM fest, damit es bestimmte Aktionen basierend auf definierten linguistischen Regeln ausführt.

Die Konfigurationsfunktion in unserer Lösung ermöglicht zudem den Verweis auf externe Materialien, die als ergänzende Beispiele herangezogen werden sollen, damit das LLM Content generiert, der besser auf den spezifischen Kontext zugeschnitten ist.

Da Content dieser Art im Zeitverlauf einer Entwicklung unterliegt, müssen die linguistischen Prompts regelmäßig gewartet und aktualisiert werden. Deshalb sehen unsere KI-Lösungen konzeptionell die Überwachung und Kuratierung durch menschliche Experten vor.

Ja. Unsere Lösung für KI-gestütztes Post-Editing ist nicht von einem bestimmten LLM abhängig und nicht an ein bestimmtes Modell gebunden. Die Lösung wurde mit den GPT-Modellen von OpenAI kalibriert. Wir können aber stattdessen auch die LLM-Engines von Kunden nutzen.

Dieses Szenario setzt eine kundenspezifische Konfiguration voraus und macht ggf. eine ergänzende Evaluierung/Konfiguration erforderlich, um die Einhaltung der Qualitätsstandards durch das LLM sicherzustellen.

Für solche Lösungen empfehlen wir die Zusammenarbeit mit unseren Teams der Abteilung Solutions and Language Technology, um die spezifischen Bedarfe, Ziele und Anforderungen zu ermitteln.

Unsere Lösung für KI-gestütztes Post-Editing umfasst konfigurierbare linguistische Prompts, die an Änderungen bei Contentbedarf und regulatorischen Anforderungen angepasst werden können. Wir empfehlen einen KI-zentrierten Prozess. Kontrolle und Kuratierung der linguistischen Prompts zur Optimierung und Kalibrierung obliegen aber Menschen: Computerlinguisten, Experten (SME) und Linguisten.

Generische, nicht trainierte, auf Chatbots basierende LLM-Modelle können Ton, Content und kulturelle Nuancen kaum berücksichtigen. Unsere Lösung ist dagegen konfigurierbar, sodass dem LLM spezifische Anweisungen übergeben werden können, die Stil, Tonfall und Terminologie sowie für den Kontext des Ausgangscontents relevante linguistische Richtlinien definieren. Dank kontrollierter Konfiguration linguistischer Parameter und Prompts können wir Übersetzungsprozesse mit KI-gestütztem Post-Editing optimieren.

Zunächst fordert unsere Lösung das LLM auf, den Kontext des Quellcontents zu analysieren. Dieser Kontext wird der Entscheidungsfindung und der Bearbeitung des LLM zugrunde gelegt. Ergänzt wird der Kontext um Anweisungen zur Evaluierung von Terminologie, zur Bearbeitung von Fuzzy-Matches und zur Validierung von Übersetzungen auf Segmentebene, damit die KI innerhalb definierter Parameter arbeitet. Unser Ansatz sieht außerdem die kontinuierliche Aktualisierung der linguistischen Prompts vor. Wenn also Halluzinationen oder Konfabulationen auftreten, können wir eingreifen und das Problem beheben.

Die menschlichen Prüfer sind in der Regel Computerlinguisten oder Linguisten mit Erfahrung im Prompt-Engineering. Sie sind für das Entwerfen, Testen und Aktualisieren der Parameter unserer Lösung für KI-gestütztes Post-Editing verantwortlich. Diese Linguisten validieren die Ausgabe. Ihr Feedback wird zur Anpassung und Optimierung der linguistischen Prompts und Parameter verwendet.

Haben Sie Interesse an weiteren KI-bezogenen Themen? Möglicherweise gibt es bereits ein Lionbridge-Webinar dazu. Die Seite Lionbridge-Webinare enthält eine Liste mit Webinaraufzeichnungen.

Sprechen Sie uns an

Möchten Sie die Vorteile des KI-gestützten Post-Editings für Übersetzung und Lokalisierung nutzen? Lionbridge unterstützt Sie beim Aufbau agiler, skalierbarer Workflows, die Automatisierung, LLM und menschliche Expertise kombinieren. Nehmen Sie Kontakt mit Lionbridge auf, um Ihre Contentbereitstellung zu transformieren und mehr Zielgruppen weltweit zu erreichen – schneller, intelligenter und wirksamer.

 

Hinweis: Der Blogbeitrag mit der Webinarzusammenfassung wurde von der Lionbridge-App Content Remix erstellt und anschließend von einem Menschen überarbeitet.

linkedin sharing button

VERFASST VON
Janette Mandell

Kontakt

Bitte geben Sie eine geschäftliche E-Mail-Adresse an.