1. WER WIR SIND
Allie Fritz, Director of Interpretations bei Lionbridge

Meet the Pride: Allie Fritz

Director of Interpretations bei Lionbridge

mobile-toggle

SPRACHE AUSWÄHLEN:

KI-gestütztes Post-Editing mit LLM

Webinarzusammenfassung: Kann KI das Post-Editing übernehmen?

Automatisches Post-Editing in der Praxis: Umsetzung durch die Cisco Networking Academy und die Perspektive von Lionbridge

Haben Sie Schwierigkeiten, den Bedarf an Content in mehreren Sprachen zu erfüllen? Damit sind Sie nicht allein. Jahrelang standen Übersetzungsteams vor großen Herausforderungen – knappe Budgets, begrenzte Personalressourcen und nicht nachlassender Bedarf an Content. Doch was wäre, wenn Sie hochwertige Übersetzungen schneller, in beliebigem Umfang und zu deutlich geringeren Kosten bereitstellen könnten? Mit künstlicher Intelligenz (KI) ist dies jetzt möglich.

Im Lionbridge-Webinar „Kann KI das Post-Editing übernehmen?“ diskutierten Experten von Lionbridge und Cisco Systems, wie das KI-gestützte Post-Editing Übersetzung und Lokalisierung transformiert.

In diesem Webinar mit Marcus Casal, Chief Technology Officer von Lionbridge, und Yolanda Cham Yuen, GTS Program Manager bei Cisco Systems, lautete die zentrale Frage: Kann KI das Post-Editing übernehmen und Übersetzungen mithilfe von Large Language Models (LLM) in großem Umfang präzise, zuverlässig und kostengünstig produzieren? Die Antwort ist ein klares Ja. Zu beachten sind aber einige Einschränkungen.

  • #consumer_packaged_goods
  • #generative-ai
  • #ai
  • #global_marketing
  • #technology
  • #content_creation
  • #translation_localization
  • #retail
  • #travel_hospitality

KI kann das Post-Editing übernehmen und sehr gute Ergebnisse liefern.

– Marcus Casal, CTO von Lionbridge

Möchten Sie sich das Webinar ansehen? Über die Schaltfläche unten gelangen Sie zur Aufzeichnung.

Automatisches Post-Editing: die neue Realität

Das KI-gestützte Post-Editing ist keine ferne Vision mehr, sondern bereits Realität. Es treibt die Transformation in der realen Welt voran.

Die Plattform Lionbridge Aurora AI™ orchestriert den gesamten Lebenszyklus globalen Contentss, vom Einspeisen der Kundendaten über die Übersetzung mittels maschineller Übersetzung (Maschine Translation, MT) bis hin zum automatischen Post-Editing mit LLM und dem Einstellen der Ergebnisse in die Contentrepositorys.

Ermöglicht wird das durch eine Kombination aus API-gesteuerter Automatisierung, Integration Platform as a Service (iPaaS) und robusten linguistischen Assets wie Translation Memory (TM), Glossaren und Terminologiemanagement. Indem Unternehmen MT, LLM-gestütztes Post-Editing mit fortschrittlichen Modellen und intelligente Workflows kombinieren, können sie Content schneller und planbarer als je zuvor bereitstellen.

Aber es kommt nicht nur auf Geschwindigkeit und Skalierbarkeit an, sondern auch auf Qualität. Deshalb sieht der Lionbridge-Ansatz die Einbindung von Menschen (Human-in-the-Loop, HITL) vor. Menschliche Experten trainieren und optimieren die Modelle und evaluieren die Ergebnisse, um sicherzustellen, dass deren Produkt die Contentziele erfüllt.

Wie hat die Cisco Networking Academy das automatische Post-Editing in der Praxis eingesetzt?

Yolanda berichtete über das automatische Post-Editing bei der globalen Cisco-Initiative für soziale Verantwortung, der Cisco Networking Academy.

Die Cisco Networking Academy bietet kostenlose Technologieschulungen zu Vernetzung, Cybersicherheit, Programmierung und anderen Data-Science-Themen an und erreicht damit über 23 Millionen Menschen in 191 Ländern. Lokalisierung ist für maximale Wirkung der Kurse unverzichtbar, da Sprache eine erhebliche Barriere darstellen kann.

Um mehr Menschen die Nutzung zu ermöglichen und die Kurse der Network Academy weltweit verfügbar zu machen, benötigte Cisco eine skalierbare Lösung für die Übersetzung von Millionen von Wörtern in mehr als ein Dutzend Sprachen, die auch unter Zeit- und Budgetdruck funktioniert.

Die Lösung für dieses Problem ist die Implementierung des automatischen Post-Editings.

Abstrakte Darstellung dynamischer Bewegung mit Binärcode zur Symbolisierung des KI-gestützten Post-Editings.

Aus welchen Komponenten bestand die Lösung der Cisco Network Academy?

Die Lösung von Cisco umfasste folgende Komponenten:

  • Translation Memorys für zuvor genehmigten Content

  • Neuronale maschinelle Übersetzung (NMT) für die Erstübersetzung aufgrund von Geschwindigkeit, Kosten und Konsistenz

  • LLM-gestütztes KI-Post-Editing zur Optimierung der Ausgabe

  • Menschliche Tester für funktionale Prüfungen im Kontext – insbesondere bei komplexen Sprachen

Welche Ergebnisse hat die Cisco Networking Academy erzielt?

Die Ergebnisse waren bemerkenswert.

Durch den Einsatz des automatischen Post-Editings konnte die Cisco Networking Academy in nur drei Monaten über 15 Millionen Wörter für 24 Kurse in 14 Sprachen übersetzen. Der Engpass verlagerte sich von der Übersetzung auf Funktionsprüfung und Bereitstellung, was die erheblichen Effizienzsteigerungen unterstreicht. Diese Arbeiten kosteten insgesamt weniger als 70.000 USD. Das liegt deutlich unter den Kosten herkömmlicher Verfahren.

Durch die Nutzung von LLM für das Post-Editing kann Cisco Content in mehreren Sprachen gleichzeitig veröffentlichen. Dadurch wird der zeitliche Abstand zwischen der Veröffentlichung von englischen und lokalisierten Versionen erheblich reduziert, und die Kurse werden global besser zugänglich.

„Content kann nun so schnell und kostengünstig wie nie zuvor übersetzt werden. … [Das automatische Post-Editing] öffnet die Tür zu neuen Bereichen, zu neuen Möglichkeiten, die sonst nicht bezahlbar und in den sehr anspruchsvollen Szenarien, mit denen wir konfrontiert sind, nicht realisierbar wären.”

– Yolanda Cham Yuen, Cisco Systems

Welche Einschränkungen und Risiken sind beim KI-Post-Editing zu beachten?

Das KI-Post-Editing ist effektiv, aber nicht perfekt. Die Experten wiesen auf einige Einschränkungen hin:

  • Sprachen, von denen nur wenig Content online verfügbar ist (sogenannte low-resource languages), stellen für Mensch und Maschine eine größere Herausforderung dar. LLM (einschließlich hochmoderner Modelle) funktionieren mit Texten in Englisch und weit verbreiteten Sprachen am besten. Für Nischensprachen sind spezielle Glossare und Trainingsdaten unverzichtbar.

  • Kulturelle Nuancen, Ton und Fachwissen sind für KI nach wie vor keine Selbstverständlichkeit. Die richtigen Prompt-Flows und menschliche Kontrolle sind entscheidend, wenn subtile Unterschiede erfasst werden müssen – ob in sportbezogener Terminologie oder technischer Fachsprache.

  • Die KI kann Halluzinationen (auch als Konfabulationen bezeichnet) generieren. Dabei handelt es sich um ungenaue oder irreführende Informationen, die gelegentlich sehr überzeugend wirken. Diese Einschränkung macht deutlich, wie wichtig Funktionstests sowie direktes Feedback von Endbenutzern für wirksamen Content sind.

Marcus verwies auf eine Anekdote aus der Praxis: Der Ausdruck „protect your turf“ (schütze dein Revier) in einer Werbung für Basketballschuhe auf einer E-Commerce-Website wurde mit „césped” (Kunstrasen oder Rasen) ins Spanische übersetzt, obwohl der Ausdruck eher für Fußball als für Basketball treffend ist. Der Fehler wurde korrigiert, indem Glossare und Terminologie überarbeitet wurden. So konnte das Vertrauen der Benutzer gesteigert werden.

Wie kann das KI-gestützte Post-Editing durch Einbindung des Menschen (Human-in-the-Loop) verbessert werden?

Wird das KI-gestützte Post-Editing traditionelle Übersetzungsworkflows ersetzen? Nicht vollständig. Yolanda und Marcus wiesen auf die neuen Möglichkeiten hin, die KI insbesondere bei Großprojekten mit knappen Fristen bietet, betonten aber auch, dass menschliche Experten unverzichtbar bleiben.

Übersetzer und Lokalisierungsexperten müssen sich an die neuen Gegebenheiten anpassen:

  • Fähigkeiten im Prompt-Engineering und in der Workflowautomatisierung entwickeln

  • Terminologiemanagement und Markenstimme beherrschen

  • KI nutzen, um sich auf höherwertige Aufgaben – Tonfall, Zielgruppenansprache und fachspezifischer Content – konzentrieren zu können

  • Kreativen Input liefern und Qualitätssicherungsmaßnahmen für MT- und LLM-Ausgaben ergreifen

Die Branche setzt zunehmend auf „kollaborative Robotik“, also die Zusammenarbeit von Mensch und Maschine, um optimale Ergebnisse zu erzielen.

Wie können Integration und Terminologiemanagement die Ergebnisse verbessern?

Integration ist der Schlüssel. Das KI-gestützte Post-Editing muss sich nahtlos in Content-Management-Systeme (CMS), Dokumentenmanagementplattformen und andere Repositorys einfügen, in denen Content gespeichert und entwickelt wird. Automatische Integrationen sorgen für den schnellen und effizienten Umschlag von Contentaktualisierungen und -lokalisierungen.

Ebenso wichtig ist das Terminologiemanagement. Marcus erklärte, dass sich die Akzeptanz und Genauigkeit von KI-generierten Übersetzungen – insbesondere dank der gesunkenen Kosten für Übersetzung und Post-Editing – durch Investitionen in solide Glossare und die Markenstimme berücksichtigende Assets erheblich verbessern lässt.

Wie geht es mit dem KI-gestützten Post-Editing von Übersetzungen weiter?

In Zukunft wird das KI-gestützte Post-Editing für die Lokalisierung noch wichtiger, da die Menge kuratierter Trainingsdaten zur Verbesserung der LLM zunimmt. Obwohl die Technologie weiterentwickelt wird, bleiben menschliche Kreativität, kontextuelles Verständnis und kontinuierliche Kontrolle unverzichtbar, um Innovationen zu schaffen und hohe Übersetzungsqualität sicherzustellen.

Was sind die wichtigsten Ergebnisse des Webinars?

In diesem Webinar ging es um das automatische Post-Editing für verbesserte Übersetzungsworkflows und die deshalb mögliche Erstellung von globalem Content in nahezu jedem Umfang. Die wichtigsten Aspekte:

  • KI kann qualitativ ansprechendes Post-Editing durchführen und den menschlichen Aufwand reduzieren.

  • KI-gestütztes Post-Editing beschleunigt mit großen Sprachmodellen (Large Language Models, LLM) Übersetzung und Lokalisierung in jeder Größenordnung.

  • Die kontinuierliche Nutzung von maschineller Übersetzung und effektivem Terminologiemanagement (TM und Glossare) verbessert Qualität und Konsistenz.

  • Die Einbindung menschlicher Experten bleibt unverzichtbar, insbesondere bei sehr spezifischem Content und ressourcenarmen Sprachen.

  • Die Servicelevel der KI-Unterstützung können vom Verzicht auf menschliches Post-Editing bis hin zu menschlichem Post-Editing des gesamten Contents auf die Contentprofile abgestimmt werden.

  • Auch mit wenig menschlichen Eingriffen lassen sich akzeptable Qualitätslevel erreichen.

  • Das KI-gestützte Post-Editing eröffnet neue Möglichkeiten zur Ausdehnung der Reichweite von Content sowie zur Reduzierung der Kosten.

KI-gestütztes Post-Editing: Antworten auf die wichtigsten Fragen

Wir wissen seit langem, dass die Genauigkeit von MT-Lösungen zu wünschen übrig lässt. Lionbridge kombiniert deshalb eine KI-zentrierte Herangehensweise, die automatische Funktionen zur Bewertung der Qualität nutzt, mit HITL (Human-in-the-Loop), damit wir die Akkuratesse von Content jederzeit beurteilen können.

KI wird genutzt, um die Übersetzungsergebnisse herkömmlicher Tools wie TM (Translation Memorys), NMT (Neural Machine Translation) und RAG zu verbessern.

Unsere Erfahrungen mit dem KI-gestützten Post-Editing zeigen, dass es die Umfangsskalierung bei gleichbleibender Qualität verbessert. Dennoch ist menschliche Kontrolle unerlässlich, um das Tool zu überwachen und Justierungen vorzunehmen, die für Genauigkeit des Contents und zur Erfüllung spezifischer Anforderungen erforderlich sind.

Unsere Lösung für KI-gestütztes Post-Editing bewertet zunächst den Quellcontent, um den Gesamtkontext zu analysieren. Bearbeitung und Validierung erfolgen dann unter Berücksichtigung dieses Kontexts, sodass sichergestellt ist, dass die erstellten Übersetzungen den Contentzielen und/oder -profilen entsprechen.

Wir haben unser KI-gestütztes Post-Editing konfigurierbar konzipiert. Linguistische Prompts können nach Maßgabe automatischer Überwachung und menschlicher Rückmeldungen von am Übersetzungsprozess beteiligten Linguisten und Experten des Kunden bearbeitet und aktualisiert werden.

Darüber hinaus bietet Lionbridge KI-Lösungen an, mit denen wir Analysen des Ausgangscontents durchführen und Berichte mit für den Ausgangscontent empfohlenen Änderungen erstellen können. Diese Lösungen kombinieren wir mit unserer KI-gestützten Lösung für Post-Editing, um die Contentstrategie weiter zu optimieren.

Mit unserer Lösung für KI-gestütztes Post-Editing können wir exakt bestimmen, in welchen Bereichen der Einsatz von menschlichen Experten am sinnvollsten ist.

Unter Verwendung unseres Frameworks REACH evaluieren wir zusammen mit den Kunden die Contentziele und konfigurieren die KI-Lösung für optimale Übersetzungsergebnisse. Anschließend können wir menschliche Beteiligung in unterschiedlichem Umfang festlegen und sicherstellen, dass der Aufwand den Contentanforderungen und -profilen entspricht.

Branchenspezifischer Terminologie, die sprachbezogen und/oder regional variiert, stellt eine Herausforderung dar. Es bieten sich aber verschiedene Lösungen an.

Mit Metadaten können wir mehr Kontext für die KI-Tools bereitstellen und das LLM anweisen, zusätzliche Anforderungen wie regionale Nuancen zu berücksichtigen. Vorausgesetzt ist entsprechendes Labeling und Tagging des Contents. Lionbridge kann Unternehmen mit Datenservices bei den entsprechenden Vorbereitungen unterstützen.

Für Terminologie, die regional angepasst werden muss, nutzen wir ein RAG-Framework. Vor dem KI-gestützten Post-Editing legen wir Richtlinien für das LLM fest, damit es bestimmte Aktionen basierend auf definierten linguistischen Regeln ausführt.

Die Konfigurationsfunktion in unserer Lösung ermöglicht zudem den Verweis auf externe Materialien, die als ergänzende Beispiele herangezogen werden sollen, damit das LLM Content generiert, der besser auf den spezifischen Kontext zugeschnitten ist.

Da Content dieser Art im Zeitverlauf einer Entwicklung unterliegt, müssen die linguistischen Prompts regelmäßig gewartet und aktualisiert werden. Deshalb sehen unsere KI-Lösungen konzeptionell die Überwachung und Kuratierung durch menschliche Experten vor.

Ja, unsere KI-zentrierte Plattformlösung ist LLM-unabhängig und nicht an ein bestimmtes Modell gebunden. Sie wurde zwar mit OpenAI-GPT-Modellen kalibriert, wir können jedoch mit Kunden zusammenarbeiten, um stattdessen deren LLM-Engines einzubinden.

Dieses Szenario setzt eine kundenspezifische Konfiguration voraus und macht ggf. eine ergänzende Evaluierung/Konfiguration erforderlich, um die Einhaltung der Qualitätsstandards durch das LLM sicherzustellen.

Für solche Lösungen empfehlen wir die Zusammenarbeit mit unseren „Solutions and Language Technology“-Teams, um die spezifischen Bedarfe, Ziele und Anforderungen zu ermitteln.

Unser Lösung für KI-gestütztes Post-Editing umfasst konfigurierbare linguistische Prompts, die an variable Contentanforderungen und regulatorische Anforderungen angepasst werden können. Wir schlagen zwar einen KI-zentrierten Prozess vor, Kontrolle und Kuratierung der sprachlichen Prompts obliegen aber weiterhin Menschen wie Computerlinguisten, Experten und Linguisten, die für Optimierung und Kalibrierung zuständig sind.

Herkömmliche, nicht trainierte, Chatbot-basierte LLM-Modelle können Ton, Content und kulturelle Nuancen nur schwer erfassen. Unsere Lösung begegnet dieser Herausforderung mit konfigurierbaren Prompt-Ketten, die dem LLM spezifische Anweisungen zur Definition von Stil, Ton und Terminologie sowie linguistische Richtlinien zum Kontext des Originalcontents übermitteln. Dank der kontrollierten Konfiguration linguistischer Parameter und Prompts kann das KI-gestützte Post-Editing eingesetzt werden, um Übersetzungsprozesse zu verbessern.

Zunächst fordert unsere Lösung das LLM auf, den Kontext des Quellcontents zu analysieren. Dieser Kontext wird der Entscheidungsfindung und der Bearbeitung des LLM zugrunde gelegt. Ergänzt wird der Kontext um Anweisungen zur Evaluierung von Terminologie, zur Bearbeitung von Fuzzy-Matches und zur Validierung von Übersetzungen auf Segmentebene, damit die KI innerhalb definierter Parameter arbeitet. Unser Ansatz sieht außerdem die kontinuierliche Aktualisierung der linguistischen Prompts vor. Wenn also Halluzinationen oder Konfabulationen auftreten, können wir eingreifen und das Problem beheben.

Die menschlichen Prüfer sind in der Regel Computerlinguisten oder Linguisten mit Erfahrung im Prompt-Engineering. Sie sind für das Entwerfen, Testen und Aktualisieren der Parameter unserer Lösung für KI-gestütztes Post-Editing verantwortlich. Diese Linguisten validieren die Ausgabe. Ihr Feedback wird zur Anpassung und Optimierung der linguistischen Prompts und Parameter verwendet.

Haben Sie Interesse an weiteren KI-bezogenen Themen? Möglicherweise gibt es bereits ein Lionbridge-Webinar dazu. Die Seite Lionbridge-Webinare enthält eine Liste mit Webinaraufzeichnungen.

Sprechen Sie uns an

Möchten Sie die Vorteile des KI-gestützten Post-Editings für Übersetzung und Lokalisierung nutzen? Lionbridge unterstützt Sie beim Aufbau agiler, skalierbarer Workflows, die Automatisierung, LLM und menschliche Expertise kombinieren. Nehmen Sie Kontakt mit Lionbridge auf, um Ihre Contentbereitstellung zu transformieren und mehr Zielgruppen weltweit zu erreichen – schneller, intelligenter und wirksamer.

 

Hinweis: Der Blogbeitrag mit der Webinarzusammenfassung wurde von der Lionbridge-App Content Remix erstellt und anschließend von einem Menschen überarbeitet.

linkedin sharing button

VERFASST VON
Janette Mandell

Kontakt

Bitte geben Sie eine geschäftliche E-Mail-Adresse an.