Besuchen Sie Lionbridge Games

SPRACHE AUSWÄHLEN:

Person, die Datenmuster durch eine orangefarbene Linse prüft
Person, die Datenmuster durch eine orangefarbene Linse prüft

KI-Datenservices und verantwortliche KI

Vermeiden voreingenommener und schädlicher LLM-Ausgaben

Da immer mehr Unternehmen eigene große Sprachmodelle (Large Language Models, LLM) einsetzen, erhält die verantwortliche KI-Nutzung immer größere Bedeutung. Wichtig für die verantwortliche KI-Nutzung sind KI-Datenservices und Datenvalidierung, um die Generierung hasserfüllten, intoleranten oder voreingenommenen KI-Contents zu verhindern. Content dieser Art kann soziale Zwistigkeiten vertiefen. Beispiele:

  • Verbreitung von Hassrede
  • Marginalisierung von Gruppen oder Communitys
  • Verursachen emotionalen Leids

Voreingenommener oder intoleranter Content kann zudem gravierende geschäftliche Auswirkungen haben. Im Folgenden erfahren Sie, warum Unternehmen KI-Datenservices nutzen und unsere empfohlenen Maßnahmen umsetzen sollten, um verantwortliche KI-Nutzung sicherzustellen.

Warum ist die verantwortliche KI-Nutzung für Geschäftscontent so wichtig?

Wenn das LLM eines Unternehmens nicht den Leitlinien für verantwortliche KI folgt, also intoleranten, hasserfüllten oder voreingenommenen Content erstellt, schafft es nicht nur die oben genannten sozialen Probleme. Auch für das Geschäft können sich negative Konsequenzen ergeben. Jeder öffentlich wahrgenommene Content kann negative Auswirkungen haben. Beispiele:

  • Gedruckte Marketingmaterialien
  • Website-Chatbots
  • Beiträge in sozialen Medien
  • Vertriebs-E-Mails
  • Websitetexte

Das LLM eines Unternehmens wird mit höherer Wahrscheinlichkeit anstößigen mehrsprachigen Content ausgeben, wenn kein menschlicher Experte in den Prozess eingebunden ist. In bestimmten Situationen muss ein menschlicher Experte für die Korrektur und Perfektionierung von KI-Übersetzungen oder -Lokalisierungen eingesetzt werden. Mögliche Folgen der Nichtbeachtung für Unternehmen:

Mögliche Folgen einer nicht verantwortlichen KI-Nutzung

  • Rechtliche Konsequenzen, z. B. Klagen wegen Verleumdung, Diskriminierung oder Belästigung
  • Strafen, Bußgelder, Restriktionen usw.
  • Rufschädigung gegenüber Stakeholdern, Kunden usw.
  • Verlust von Kunden und Geschäftspartnern
  • Erlöseinbußen
  • Kosten für die Schadensbegrenzung, einschließlich neuer Werbung zur Wiederherstellung des Vertrauens, mehr KI-Training und -Entwicklung usw.
  • Schlechte Mitarbeitermoral, -bindung und -produktivität

Unternehmen müssen mit einzelnen oder mehreren dieser Konsequenzen rechnen. Deshalb ist das Ergreifen der richtigen Schritte so wichtig. Lesen Sie im Weiteren unsere diesbezüglichen Empfehlungen. 

Fünf Taktiken zur Sicherstellung verantwortlicher KI-Nutzung und zur Verhinderung schädlichen Contents

Wir empfehlen, zumindest einige der folgenden Maßnahmen umzusetzen, damit keine voreingenommenen, rassistischen, frauenfeindlichen, beleidigenden oder kulturell inakzeptablen KI-Ausgaben generiert werden. Um optimale Ergebnisse zu erzielen, sollten Sie während des gesamten KI-Datentrainings und der KI-Überwachung mit einer vielfältigen Gruppe von Personen zusammenarbeiten. Die Diversität der Personen schafft ein umfassenderes Wissensfundament. Wenn Sie KI-Datenservices wie die von Lionbridge in Anspruch nehmen, profitieren Sie von Expertenkenntnissen in Bezug auf KI, soziokulturelle Normen, Branchen und Linguistik. Manche Unternehmen definieren Richtlinien für KI-Entwickler und -‍Benutzer, um Konsequenzen für den Missbrauch eines KI-Systems festzulegen. Die Richtlinien sollen alle Beteiligten motivieren, das Generieren schädlichen oder beleidigenden Content durch die KI zu verhindern.

Schwebende Bänder aus digitalen Daten

Taktik 1: Datenkuratierung

Das KI-Datentraining muss mit einer geeigneten Datenmenge erfolgen, damit das LLM Content erstellt, der frei von Vorurteilen, Rassismus, Frauenfeindlichkeit usw. ist. Unternehmen sollten zu diesem Zweck einen zweigleisigen Ansatz verfolgen. Zunächst müssen Daten aus Quellen mit problematischen Standpunkten entfernt werden. Im zweiten Schritt muss sichergestellt werden, dass die Trainingsdaten für ein LLM ein breites Spektrum an Meinungen und Perspektiven repräsentieren. Wenn Content mehrsprachig ist, von verschiedenen Orten oder aus unterschiedlichen Kulturen stammt, sollten lokale Experten oder Linguisten mit diesen Aufgaben betraut werden. Lionbridge kann in Sachen Linguistik und Sprache auf ein solides Fundament zurückgreifen. Dank dieser Expertise sind wir ideal positioniert, um den für das maschinelle Lernen so wichtigen Natural Language Process zu unterstützen. 

Taktik 2: Definieren eines ethischen Rahmens

Wenn eine KI auf ethische Ausgaben trainiert werden soll, muss der ethische Rahmen definiert werden. Ähnlich wie bei der Erstellung eines Styleguides oder eines Übersetzungsglossars muss das Unternehmen die Regeln und Richtlinien definieren, denen sämtlicher Content entsprechen soll. Legen Sie dem Rahmen Branchenstandards zugrunde, um die Compliance sicherzustellen und bessere Ergebnisse zu erhalten. Für mehrsprachige oder kulturrelevante Aufgaben müssen die Rahmenbedingungen ggf. erweitert und variiert werden, um weitere sprachliche und soziale Normen und Tabus zu berücksichtigen. Unternehmen müssen außerdem Protokolle und Strukturen einrichten, damit die ethischen Aspekte bei Bereitstellung des KI-Modells jederzeit beachtet werden. 

Taktik 3: Trainingsvorbereitung unter Berücksichtigung von Ethik und Bias

Im Rahmen der Vorbereitung und Optimierung des Trainings sollten Unternehmen den Verfahren zur Vermeidung von Bias besondere Aufmerksamkeit zukommen lassen. Das LLM ist unter Anwendung des beschriebenen ethischen Rahmens so zu trainieren, dass es Vorurteile enthaltenden oder anstößigen Content identifizieren kann und Content dieser Art weder aufnimmt noch generiert. Beim Testen des LLM im Rahmen der Trainingsvorbereitung müssen die Datenmengen mittels Datenvalidierung mit einem grundlegenden Verständnis von Ethik und Bias aktualisiert werden. Auch für diesen Schritt ist der ethische Rahmen hilfreich.

Erwägen Sie im Rahmen des Trainings, Mechanismen bereitzustellen, die Entscheidungsprozesse des KI-Modells bei der Identifizierung und Ablehnung anstößigen Contents verdeutlichen. Diese Transparenz wird von Nutzen sein, wenn später Probleme auftreten.

Ein aus Sechsecken bestehender Globus, umgeben von Sternen

Taktik 4: Kontinuierliche Überwachung der Ausgaben

Unternehmen müssen die Ausgaben auch nach dem Training der KI überprüfen. Für geschäftskritischen Content sollte ein menschlicher Korrektor in Betracht gezogen werden. Dies ist insbesondere für Content zu empfehlen, der Kunden aus unterschiedlichen Kulturen in unterschiedlichen Sprachen ansprechen soll. Korrektoren können auch eingesetzt werden, um den Content regelmäßig auf Qualität und Einhaltung des ethischen Rahmens zu prüfen. Denkbar sind zudem kundenseitige Funktionen zum Melden anstößigen Contents. Dieses Feedback kann dann für die kontinuierliche Optimierung genutzt werden.

Taktik 5: Bedarfsabhängiges Nachtraining

Das kontinuierliche Training sollte aus verschiedenen Gründen in die Verfahrensprotokolle aufgenommen werden. Zunächst „erlernt“ ein KI-Modell die Anwendung des ethischen Rahmens nicht immer auf Anhieb. Es erstellt dann ungewollterweise anstößigen Content. Möglicherweise ist auch die Definition des ethischen Rahmens nicht hinreichend. Ein zweiter Grund für Nachtrainings sind die stetigen Veränderungen kultureller Normen. Content, der heute noch toleriert wird, kann morgen als anstößig befunden werden. Das ist insbesondere zu beachten, wenn der Content für Kunden entwickelt wurde, die mehrere Sprachen sprechen oder aus unterschiedlichen Kulturen kommen. Je mehr Kulturen und Sprachen involviert sind, desto mehr Nuancen müssen im ethischen Rahmen definiert werden.  

Sprechen Sie uns an

Lernen Sie die KI-Datenservices und die Experten von Lionbridg kennen. Wir konnten bereits vielen Kunden helfen, größtmöglichen Nutzen aus ihrem LLM zu ziehen. Wir nehmen die verantwortliche Nutzung von KI und das Vertrauen in KI sehr ernst und haben dafür unser TRUST-Framework entwickelt. Vertrauen Sie uns, damit das LLM Ihres Unternehmens zum Erreichen der Geschäftsziele beiträgt und die Wertschöpfung steigert. Melden Sie sich bei uns.

  • #technology
  • #ai-training
  • #translation_localization
  • #ai
linkedin sharing button

VERFASST VON
Samantha Keefe

Kontakt

Bitte geben Sie eine geschäftliche E-Mail-Adresse an.