Fallstudie
Neue Lösungen zur KI-Contenterstellung für einen Sport- und Bekleidungsgiganten
„Was wir tun“-Startseite
Generative KI
- KI-Übersetzungsservices
- Content Remix
KI-Datenservices
- Aurora AI Studio™
Maschinelle Übersetzung
- MT Tracker
Kunden-onboarding
Übersetzungsservicemodelle
Content-Services
- Technische Redaktion
- Schulungen
- Finanzberichte
- Digitales Marketing
- Content für SEO
Übersetzung und Lokalisierung
- Videolokalisierung
- Software-Lokalisierung
- Websitelokalisierung
- Übersetzung für regulierte Branchen
- Dolmetscherservices
- Live Events
- Sprachliche Qualitätssicherung
Testdienstleistungen<
- Testservice
- Kompatibilitätsprüfungen
- Interoperabilitätsprüfungen
- Performance-Tests
- Zugänglichkeits-Tests
- Überprüfen des Kundenerlebnisses
Branchen-Startseite
Life Sciences Sprachservices
- Pharma-Übersetzungen
- Klinische Prüfung
- Zulassung
- Nach der Zulassung
- Pharma-Kommunikation
- Übersetzungen für Medizinprodukte
- Klinische Prüfung
- Regulierung
- Nach der Zulassung
- Kommunikation für Medizinprodukte
Bank- und Finanzwesen
Einzelhandel
Luxusgüter
E-Commerce
Lionbridge Games
Automobilbranche
Konsumgüter
Technologie
Industrielle Fertigung
Rechtsdienstleistungen
Tourismus & Gastgewerbe
Insights
- Blogbeiträge
- Fallstudien
- Whitepapers
- Lösungsübersichten
- Infografiken
- E-Books
- Videos
Webinare
Lionbridge Knowledge Hubs
- Positive Patientenergebnisse
- Moderne Lösungen für klinische Studien
- Patienteneinbindung
- KI Thought Leadership
SPRACHE AUSWÄHLEN:
Taktik 1: Datenkuratierung
Taktik 2: Definieren eines ethischen Rahmens
Taktik 3: Trainingsvorbereitung unter Berücksichtigung von Ethik und Bias
Taktik 4: Kontinuierliche Überwachung der Ausgaben
Taktik 5: Bedarfsabhängiges Nachtraining
Da immer mehr Unternehmen eigene große Sprachmodelle (Large Language Models, LLM) einsetzen, erhält die verantwortliche KI-Nutzung immer größere Bedeutung. Wichtig für die verantwortliche KI-Nutzung sind KI-Datenservices und Datenvalidierung, um die Generierung hasserfüllten, intoleranten oder voreingenommenen KI-Contents zu verhindern. Content dieser Art kann soziale Zwistigkeiten vertiefen. Beispiele:
Voreingenommener oder intoleranter Content kann zudem gravierende geschäftliche Auswirkungen haben. Im Folgenden erfahren Sie, warum Unternehmen KI-Datenservices nutzen und unsere empfohlenen Maßnahmen umsetzen sollten, um verantwortliche KI-Nutzung sicherzustellen.
Wenn das LLM eines Unternehmens nicht den Leitlinien für verantwortliche KI folgt, also intoleranten, hasserfüllten oder voreingenommenen Content erstellt, schafft es nicht nur die oben genannten sozialen Probleme. Auch für das Geschäft können sich negative Konsequenzen ergeben. Jeder öffentlich wahrgenommene Content kann negative Auswirkungen haben. Beispiele:
Das LLM eines Unternehmens wird mit höherer Wahrscheinlichkeit anstößigen mehrsprachigen Content ausgeben, wenn kein menschlicher Experte in den Prozess eingebunden ist. In bestimmten Situationen muss ein menschlicher Experte für die Korrektur und Perfektionierung von KI-Übersetzungen oder -Lokalisierungen eingesetzt werden. Mögliche Folgen der Nichtbeachtung für Unternehmen:
Mögliche Folgen einer nicht verantwortlichen KI-Nutzung
Unternehmen müssen mit einzelnen oder mehreren dieser Konsequenzen rechnen. Deshalb ist das Ergreifen der richtigen Schritte so wichtig. Lesen Sie im Weiteren unsere diesbezüglichen Empfehlungen.
Wir empfehlen, zumindest einige der folgenden Maßnahmen umzusetzen, damit keine voreingenommenen, rassistischen, frauenfeindlichen, beleidigenden oder kulturell inakzeptablen KI-Ausgaben generiert werden. Um optimale Ergebnisse zu erzielen, sollten Sie während des gesamten KI-Datentrainings und der KI-Überwachung mit einer vielfältigen Gruppe von Personen zusammenarbeiten. Die Diversität der Personen schafft ein umfassenderes Wissensfundament. Wenn Sie KI-Datenservices wie die von Lionbridge in Anspruch nehmen, profitieren Sie von Expertenkenntnissen in Bezug auf KI, soziokulturelle Normen, Branchen und Linguistik. Manche Unternehmen definieren Richtlinien für KI-Entwickler und -Benutzer, um Konsequenzen für den Missbrauch eines KI-Systems festzulegen. Die Richtlinien sollen alle Beteiligten motivieren, das Generieren schädlichen oder beleidigenden Content durch die KI zu verhindern.
Das KI-Datentraining muss mit einer geeigneten Datenmenge erfolgen, damit das LLM Content erstellt, der frei von Vorurteilen, Rassismus, Frauenfeindlichkeit usw. ist. Unternehmen sollten zu diesem Zweck einen zweigleisigen Ansatz verfolgen. Zunächst müssen Daten aus Quellen mit problematischen Standpunkten entfernt werden. Im zweiten Schritt muss sichergestellt werden, dass die Trainingsdaten für ein LLM ein breites Spektrum an Meinungen und Perspektiven repräsentieren. Wenn Content mehrsprachig ist, von verschiedenen Orten oder aus unterschiedlichen Kulturen stammt, sollten lokale Experten oder Linguisten mit diesen Aufgaben betraut werden. Lionbridge kann in Sachen Linguistik und Sprache auf ein solides Fundament zurückgreifen. Dank dieser Expertise sind wir ideal positioniert, um den für das maschinelle Lernen so wichtigen Natural Language Process zu unterstützen.
Wenn eine KI auf ethische Ausgaben trainiert werden soll, muss der ethische Rahmen definiert werden. Ähnlich wie bei der Erstellung eines Styleguides oder eines Übersetzungsglossars muss das Unternehmen die Regeln und Richtlinien definieren, denen sämtlicher Content entsprechen soll. Legen Sie dem Rahmen Branchenstandards zugrunde, um die Compliance sicherzustellen und bessere Ergebnisse zu erhalten. Für mehrsprachige oder kulturrelevante Aufgaben müssen die Rahmenbedingungen ggf. erweitert und variiert werden, um weitere sprachliche und soziale Normen und Tabus zu berücksichtigen. Unternehmen müssen außerdem Protokolle und Strukturen einrichten, damit die ethischen Aspekte bei Bereitstellung des KI-Modells jederzeit beachtet werden.
Im Rahmen der Vorbereitung und Optimierung des Trainings sollten Unternehmen den Verfahren zur Vermeidung von Bias besondere Aufmerksamkeit zukommen lassen. Das LLM ist unter Anwendung des beschriebenen ethischen Rahmens so zu trainieren, dass es Vorurteile enthaltenden oder anstößigen Content identifizieren kann und Content dieser Art weder aufnimmt noch generiert. Beim Testen des LLM im Rahmen der Trainingsvorbereitung müssen die Datenmengen mittels Datenvalidierung mit einem grundlegenden Verständnis von Ethik und Bias aktualisiert werden. Auch für diesen Schritt ist der ethische Rahmen hilfreich.
Erwägen Sie im Rahmen des Trainings, Mechanismen bereitzustellen, die Entscheidungsprozesse des KI-Modells bei der Identifizierung und Ablehnung anstößigen Contents verdeutlichen. Diese Transparenz wird von Nutzen sein, wenn später Probleme auftreten.
Unternehmen müssen die Ausgaben auch nach dem Training der KI überprüfen. Für geschäftskritischen Content sollte ein menschlicher Korrektor in Betracht gezogen werden. Dies ist insbesondere für Content zu empfehlen, der Kunden aus unterschiedlichen Kulturen in unterschiedlichen Sprachen ansprechen soll. Korrektoren können auch eingesetzt werden, um den Content regelmäßig auf Qualität und Einhaltung des ethischen Rahmens zu prüfen. Denkbar sind zudem kundenseitige Funktionen zum Melden anstößigen Contents. Dieses Feedback kann dann für die kontinuierliche Optimierung genutzt werden.
Das kontinuierliche Training sollte aus verschiedenen Gründen in die Verfahrensprotokolle aufgenommen werden. Zunächst „erlernt“ ein KI-Modell die Anwendung des ethischen Rahmens nicht immer auf Anhieb. Es erstellt dann ungewollterweise anstößigen Content. Möglicherweise ist auch die Definition des ethischen Rahmens nicht hinreichend. Ein zweiter Grund für Nachtrainings sind die stetigen Veränderungen kultureller Normen. Content, der heute noch toleriert wird, kann morgen als anstößig befunden werden. Das ist insbesondere zu beachten, wenn der Content für Kunden entwickelt wurde, die mehrere Sprachen sprechen oder aus unterschiedlichen Kulturen kommen. Je mehr Kulturen und Sprachen involviert sind, desto mehr Nuancen müssen im ethischen Rahmen definiert werden.
Lernen Sie die KI-Datenservices und die Experten von Lionbridg kennen. Wir konnten bereits vielen Kunden helfen, größtmöglichen Nutzen aus ihrem LLM zu ziehen. Wir nehmen die verantwortliche Nutzung von KI und das Vertrauen in KI sehr ernst und haben dafür unser TRUST-Framework entwickelt. Vertrauen Sie uns, damit das LLM Ihres Unternehmens zum Erreichen der Geschäftsziele beiträgt und die Wertschöpfung steigert. Melden Sie sich bei uns.
Wir freuen uns darauf, mehr über Ihre Situation zu erfahren und zu erläutern, wie Sie mit unseren innovativen Lösungen Grenzen überwinden und die globale Reichweite steigern können. Sind Sie bereit, die Möglichkeiten und Optionen kennenzulernen? Wir unterstützen Sie gern.