VÄLJ SPRÅK:

A woman interacts with a holographic computer interface

Sammanfattning av webbinariet Generativ AI för globalt innehåll

Översikt över generativ AI och stora språkmodeller och hur dessa motorer kommer att förändra lokaliseringsprojekt i grunden  

Vad är egentligen generativ AI (GenAI) och stora språkmodeller (LLM)? Hur kommer GenAI och LLM:er, till exempel ChatGPT, förändra översättning och lokalisering? Hur kan du använda LLM:er för att uppgradera arbetsflöden för globalt innehåll?

Vincent Henderson leder Lionbridges produkt- och utvecklingsteam. Han besvarade dessa och många andra frågor under det första i en serie webbinarier om generativ AI och stora språkmodeller.

Om du missade vårt webbinarium kan du se en inspelad version.  

Har du inte tid just nu? Läs mer om några av de ämnen som Vincent tog upp på webbinariet.

Vad är generativ AI och stora språkmodeller?

Generativ AI och stora språkmodeller är motorer för artificiell intelligens (AI) som har lärt sig hur människan skriver text med hjälp av internets språkkorpus. Ge motorn ett underlag, så kan den skriva klart valfri text genom att lägga till det textstycke som mest sannolikt ska följa – baserat på träningsmaterialet.

Utifrån ny AI kan dessa tekniker avgöra hur resultatet ska se ut genom att använda allt de vet baserat på enorma mängder data.

Även om deras förmåga att avgöra den sannolika, efterföljande texten kan verka enkel är uppgiften otroligt komplicerad. När en text skickas in kan modellen analysera den utifrån ett helhetsperspektiv och ta reda på hur den passar in i den globala språkbilden. Därefter produceras resultatet. Den avgör vad som är viktigast i prompten och träningskorpus och vad som behöver extra uppmärksamhet.

Det leder till att LLM:er har en närmast kuslig förmåga att producera text som ser ut att ha skrivits av en människa. Tekniken verka kunna förstå våra avsikter och tänka och agera som vi.

Vad kan en LLM göra?

Baserat på sina kunskaper kan en LLM, exempelvis ChatGPT, göra flera saker:

  • Den kan besvara frågor: Ge den text i form av en fråga, så producerar den en text som med största sannolikhet är ett svar.
  • Den kan följa instruktioner: Ge den en uppsättning instruktioner, så producerar den det mest sannolika resultatet av hur instruktionen ska användas.
  • Den kan dra lärdom av exempel: Ge den några exempel och input i samma format, så producerar den det mest troliga textstycket genom att tillämpa exempelformatet på källinformationen.

Varför kan LLM:er få så stor påverkan på översättning?

För att förstå varför LLM:er, som ChatGPT, är så användbara för översättning och lokalisering ska vi först undersöka några av utmaningarna i samband med automatiserad översättning vid användning av neural maskinöversättning (NMT).

Fram tills nu har företag förlitat sig på maskinöversättningsmotorer (MT), högspecialiserade stora språkmodeller som är optimerade för att ta en rad med ord och bestämma vilken översättning den motsvaras av. De företag som använde generiska MT-motorer som gav undermåliga resultat kunde förbättra resultaten genom att finjustera motorns träning med hjälp av tiotusentals relevanta data.

Det är ett kostsamt arbete och företag som använder MT-motorer behöver kontinuerligt stämma av om det är värt mödan och kostnaden att träna om motorn varje gång de påbörjar ett nytt projekt, till exempel en ny produktlansering eller marknadsföringskampanj.

LLM:er, å andra sidan, lär sig vad ett företag förväntar sig utifrån bara ett fåtal exempel, eftersom de här motorerna redan vet så mycket. De kan sedan tillämpa det de har lärt sig i nya arbetsuppgifter. Det innebär att önskade översättningsresultat kan uppnås med mycket lättare och sammanhangsberoende prompter och utan att träna modeller för en enskild uppgift med hjälp av stora datamängder.

När jag skriver detta är dock LLM:er med sådana funktioner hett eftertraktade och kan ännu inte producera de stora innehållsvolymer som krävs för lokalisering i industriell skala. Situationen kommer att ändras inom kort, men exakt när vet vi inte.

Är LLM:er eller MT-motorer bäst på översättning?

Hur bra råöversättningsresultat producerar LLM:er jämfört med MT-motorer? Lionbridge har jämfört översättningskvaliteten som produceras av de största MT-motorerna och GPT-modellerna utifrån en mening från engelska till kinesiska, engelska till spanska och engelska till tyska.

Rent generellt presterar GPT inte lika bra som dagens bästa MT-motorer. Men LLM:er är inte långt efter. I ett fall, som du kan se i bild 1, presterade GPT-4 något bättre än MT-motorn Yandex i språkkombinationen engelska till kinesiska.

Jämförelse av automatiserad översättningskvalitet mellan GPT-modeller och stora neurala MT-motorer för språkkombinationen engelska till kinesiska

För att ta del av andra jämförande resultat för motorer inom olika ämnesområden och språk, se Lionbridges bedömningsverktyg för maskinöversättning, som under lång tid har använts för att mäta de övergripande resultaten från automatiserad översättning.

På vilka andra sätt kan LLM:er som GPT mäta sig med de största MT-motorerna?

Ordförråd, grammatik och korrekthet

Utan särskilda instruktioner kan LLM:er som GPT översätta mer vardagligt än vissa stora MT-motorer. Det kan stå i kontrast till hur professionella översättare arbetar och kan ses som fel. GPT kan ibland också hitta på egna ord och uttryck, något som översättare undviker.

Det är enkelt att få en LLM att använda specifik terminologi. Du behöver bara be dem om det. Det är betydligt mer krävande att få MT-motorer att använda terminologi. Då behöver man träna MT-motorn eller bygga en överordnad struktur över MT-motorn för att kunna mata in terminologin i resultaten eller källtexten. Den här metoden leder ofta till problem med böjningsformer eller konkordans.

Eftersom GPT är så medveten om språket gör den sällan språkliga fel som konkordansfel. Den rättar vanligtvis själv till sina fel om du ber den.

Vad mer kan stora språkmodeller göra?

Analysera och förbättra käll- eller måltexter

LLM:er är mångkonstnärer. Inte nog med att du kan använda LLM:er för att skriva bättre måltexter, du kan också använda dem för att förbättra källtexter. Analysen är inte bara en kvantitativ översyn av frekvenser, volymer och längder, utan också en kvalitativ utvärdering och automatiska förbättringar. Instruera LLM:er att göra saker och ting på ett visst sätt för att uppnå önskat resultat.

Använd ChatGPT för att:

  • Förenkla krånglig terminologi eller skriva om innehåll på ett enklare sätt, så att den blir lättare att läsa och översätta
  • Korta ner långa meningar utan att förändra betydelsen, så att de blir lättare att läsa och översätta

Använda LLM:er för att göra innehåll mer lättläst och tillgängligt för olika målgrupper. Genom att förbättra källtexten och minska antalet ord kan du sänka dina lokaliseringskostnader.

Efterredigering och språklig kvalitetssäkring

Du kan be en LLM att efterredigera dina översättningar på samma sätt som med en professionell översättare. Är LLM:er bra på efterredigering? Enligt en analys minskade arbetsinsatsen för att färdigställa en mening, det så kallade redigeringsavståndet, från 48 procent till 32 procent. Modellen kan också hitta fel som extra blanksteg, föreslå bättre ordval och förbättra måltexten genom att skriva om den.

DNA strand

Hur kan språk­tjänstleverantörer som Lionbridge hjälpa till att skapa bättre innehållsarbetsflöden baserade på generativ AI?

Generativ AI kommer att förändra arbetsflöden för flerspråkigt innehåll i grunden. Lionbridge kan erbjuda tjänster kopplade till sådana förändringar.

Tjänster för skapande av flerspråkigt innehåll

LLM:ernas förmåga att generera flerspråkigt innehåll kommer förmodligen att leda till den största förändringen i lokaliseringsvärlden sedan översättningsminnen började användas.

Så här kan LLM:er generera flerspråkigt innehåll från grunden: Ge LLM:er information. Be dem att producera härlett innehåll och producera det innehållet från grunden och på flera språk.

Med hjälp av LLM:er kommer företag att kunna ta fram produktbeskrivningar och annat material baserat på data som de redan har. På så sätt riskerar de inte att LLM:er skapar hallucinationer, vilket ibland händer när vi frågar dem om verkliga saker.

Historiskt sett har arbetsflöden för globalt innehåll baserats på två separata arbetsflöden, ett för nationell produktion av innehåll och ett för global produktion av innehåll. När du använder en LLM producerar du inte härlett innehåll genom att först anlita skribenter på källspråket och därefter påbörja lokaliseringsarbetsflödet. I stället producerar du härlett innehåll på alla önskade språk och efterredigerar sedan texten med hjälp av efterredigerare på respektive språk, även ditt eget.

Tack vare vår omfattande översättarcommunity har Lionbridge vad som krävs för att tillhandahålla flerspråkiga efterredigeringstjänster för genererat innehåll på flera språk.

Stöd för kundernas satsningar inom generativ AI på flera språk

För att kunna använda LLM:er till att generera flerspråkigt innehåll krävs rätt formulerade prompter, ett tidskrävande arbete där man ofta prövar sig fram till rätt lösning. Arbetet med att ta fram lämpliga prompter är en tjänstekategori som har sitt ursprung i lokalisering och det här är ett område där Lionbridge kan hjälpa företag.

Lionbridge kan förenkla AI-användning genom backend-utveckling och hjälpa kunder att ta fram den typ av innehåll som de vill använda som exempel och prompter till projekt med generativ AI på flera språk som de driver på egen hand.

Optimering av flerspråkiga tillgångar

GPT kan förändra lingvistiska tillgångar, till exempel översättningsminnen (TM) och stilistiska regler.

Lionbridge har använt GPT-4 för att göra ett helt översättningsminne på franska mer informellt. Vi anpassade både ton och stil utifrån kundens specifikationer på ett mer kostnadseffektivt sätt än vad som tidigare har varit möjligt.

Detaljer om fallstudie

250

Översättningsenheter

4.5

Miljoner ord

98.5%

Korrekthet

Förbättringar av lokaliseringsarbetsflöden

Den här kategorin avser användning av LLM:er för att göra efterredigering enklare, snabbare och billigare och därmed i slutändan göra hela översättningsarbetsflödet smidigare och mer kostnadseffektivt.

Bättre lokaliseringsarbetsflöden leder till att konceptet med att lokalisera allt blir mer tillgängligt för företag.

A futuristic circuit board

Slutsats: Hur ser framtiden ut?

LLM:er kommer att förändra lokalisering i grunden. Med tiden kommer arbetsflöden att plattas ut.

I stället för att arbeta med olika arbetsflöden nationellt och globalt kommer företag att kunna definiera innehållsmål, planera innehåll och generera innehåll direkt på flera språk.

Ny teknik väcker ofta en rädsla för att jobb ska försvinna, men Lionbridge oroar sig inte över risken att LLM:er ska kullkasta vare sig språktjänstleverantörer eller behovet av översättare.

Företag som använder LLM:er för att generera innehåll på flera språk kommer även i fortsättningen att behöva ämnesexperter som kan granska maskinernas resultat. Det är efterredigering av maskinöversättning. Det kan hända att vi kommer att kalla det något annat i framtiden.

”Hela språkbranschen behöver möta den utmaning som LLM:er innebär. Det är spännande. Vi står inför en explosiv utveckling när det gäller användningsmöjligheterna för LLM:er”.

– Vincent Henderson, Head of Product, Language Services på Lionbridge

Om du vill lära dig mer om generativ AI och se den i praktiken under demonstrationer, titta på webbinariet nu.

Kontakta oss

Om du vill ta reda på mer om hur Lionbridge kan hjälpa dig att effektivisera behov av globalt innehåll med den senaste tekniken, kontakta oss i dag.

linkedin sharing button

FÖRFATTARE
Janette Mandell
  • #technology
  • #webinar
  • #translation_localization
  • #ai
  • #generative-ai
  • #blog_posts