Sfruttate Lionbridge Lainguage Cloud per supportare le esigenze di localizzazione end-to-end e il ciclo di vita dei contenuti

Lainguage Cloud™ Piattaforma
Connettività
Translation Community
Tecnologia per il flusso di lavoro
Smairt Content™
Smairt MT™
Smairt Data™

Grazie alla nostra rete di collaboratori, da oltre 20 anni aiutiamo le aziende a connettersi con i loro clienti. 

Chi siamo
Dati principali
Leadership
Trust Center

SELEZIONARE LA LINGUA:

person with streams of data and light

Autocorrezione dell'intelligenza artificiale

Informazioni essenziali

L'adozione dell'intelligenza artificiale generativa è una mossa strategica per il successo, in particolare quando la concorrenza la utilizza già per i propri flussi di lavoro, per la traduzione o per la creazione e ottimizzazione dei contenuti. Una componente essenziale dell'utilizzo dell'intelligenza artificiale generativa è l'autocorrezione. Purtroppo, i Large Language Model (LLM) possono restituire output con imprecisioni a causa di alcuni fattori. Ciò avviene perché i dati con cui viene addestrato un LLM possono includere informazioni errate o discutibili. Gli strumenti di intelligenza artificiale soffrono a volte anche di "allucinazioni" o inventano informazioni. Per risolvere i problemi nell'output generato dall'intelligenza artificiale, è possibile adottare misure di "autocorrezione" nel set iniziale di prompt. Alcuni esperti parlano di "autocritica" o "autoperfezionamento". Alcuni studi hanno testato metodi che impongono agli LLM di riesaminare l'output e perfezionare le risposte prima di restituirle. Leggete il nostro post di blog per scoprire alcune delle tecniche utilizzate dalle persone per implementare (o richiedere di implementare al proprio fornitore di soluzioni) l'autocorrezione nelle soluzioni di intelligenza artificiale. Questo blog illustra inoltre le limitazioni dell'autocorrezione dell'intelligenza artificiale.

Tattiche comuni di autocorrezione dell'intelligenza artificiale

Attualmente, le persone stanno implementando l'autocorrezione dell'intelligenza artificiale in quattro modi. Vediamoli nel dettaglio.

1. Un prompt focalizzato sulla precisione: a volte l'introduzione nella serie di prompt di un prompt che enfatizza la precisione è una soluzione efficace. Eccone uno famoso pubblicato su X:

"Sei un modello linguistico autoregressivo che è stato perfezionato con ottimizzazione delle istruzioni ed RLHF. Fornisci con cura risposte precise, reali, meditate e articolate e sai ragionare in modo eccellente. Se pensi che una risposta possa non essere corretta, lo dici."

2. Trasformazione degli strumenti di intelligenza artificiale in esperti: un modo per anticipare le inesattezze consiste nel trasformare lo strumento di intelligenza artificiale in esperto meno incline a commettere errori. Molti utenti e fornitori di servizi di intelligenza artificiale, tra cui un gruppo di sviluppatori in GitHub, stanno creando prompt che inducono gli strumenti di intelligenza artificiale a comportarsi da esperti. In particolare, i migliori assistenti esperti sono quelli che ricevono le informazioni più dettagliate sul rispetto delle best practice, a condizione che queste siano ampiamente accettate. Se i comandi sono troppo generici, lo strumento di intelligenza artificiale può iniziare a inventare i propri contenuti. Ad esempio, non basta specificare "Sei un ottimo consulente per lo sviluppo delle carriere". I prompt dovranno includere indicazioni sulle best practice seguite in genere dai consulenti in questo settore. Un'altra best practice consiste nel testare la serie di prompt con un'attività per cui conosciamo la risposta. In questo modo, potremo determinare i punti in cui ottimizzare i prompt dell'assistente esperto. A volte, può essere utile sviluppare più iterazioni di un prompt a seconda del tipo di attività. Gli sviluppatori in GitHub hanno creato un elenco di 15 serie di prompt, che hanno utilizzato per trasformare l'intelligenza artificiale in assistente esperto. Anche se non sono gli unici ad averlo fatto, il loro elenco è particolarmente esaustivo.

Prompt per esperti in intelligenza artificiale:

1. Consulente per lo sviluppo delle carriere

2. Responsabile dei colloqui per una posizione specifica

3. Assistente per la pronuncia in inglese

4. Inserzionista

5. Social media manager

6. Tutor di scrittura IA per studenti

7. Contabile

8. Consulente di web design

9. Sviluppatore di esperienze utente/interfacce utente

10. Progettista di sistemi IT

11. Esperto di sicurezza informatica

12. Tecnico di apprendimento automatico

13. Esperto IT

14. Generatore di formule di Excel

15. Chef personale

3. Aggiunta di prompt "pre-hoc" o "post-hoc": è possibile aggiungere prompt che modificano lo stile dell'output dell'intelligenza artificiale. Lo stile può essere più formale o informale oppure destinato a un pubblico con un livello culturale elevato o un'istruzione universitaria. Se i prompt vengono aggiunti dopo la generazione dell'output, vengono definiti "prompt post-hoc". Secondo un recente progetto di ricerca a cura di Google DeepMind, i risultati migliori si ottengono con prompt pre-hoc e post-hoc ugualmente affidabili.

Pieghe arancioni con immagine di intelligenza artificiale

4. Utilizzo di prompt per affrontare i bias: Se gli LLM non vengono addestrati in base a dati corretti, l'output può riflettere i bias di milioni di persone che riversano contenuti carichi di odio su Internet. Secondo uno studio recente svolto dal laboratorio di intelligenza artificiale di Anthropic, è possibile usare l'apprendimento per rinforzo dal feedback umano (RLHF, Reinforcement Learning from Human Feedback) per addestrare un LLM in modo da produrre output senza (o con meno) contenuti razzisti, misogini, discriminatori nei confronti degli anziani o altrimenti nocivi. A questo scopo, dovrete includere istruzioni nella costituzione dell'intelligenza artificiale che tengano conto dei principi etici generali stabiliti dal vostro team. Parte di questo processo consiste nell'aggiungere una riga nei prompt che impedisca all'LLM di basarsi su stereotipi o filosofie pregiudizievoli. In alcuni casi si è iniziato a osservare un approccio "positivamente discriminatorio" nell'output, che può addirittura superare le aspettative.

Limiti dell'autocorrezione dell'intelligenza artificiale

Benché le misure di autocorrezione dell'intelligenza artificiale siano generalmente efficienti, alcuni studi dimostrano che talvolta hanno qualche limite. Lo stesso studio di Google DeepMind ha riscontrato come gli LLM mostrino a volte prestazioni peggiori quando vengono utilizzate misure di autocorrezione. Nei casi in cui le prestazioni non peggiorano, l'autocorrezione non è ugualmente efficiente per ogni serie di prompt, in particolare senza altre risorse esterne (come una calcolatrice, uno strumento di esecuzione del codice, una knowledge base e così via). Per ottenere risultati ottimali, le misure di autocorrezione devono accedere a un set di dati di riferimento che integri principi di verità di base. Lo strumento di intelligenza artificiale saprà quando interrompere il processo di ragionamento, evitando di correggere l'output più del dovuto. Naturalmente i ricercatori hanno osservato che alcune attività sono troppo complesse perché sia possibile fornire uno strumento di intelligenza artificiale con questi tipi di riferimenti.

Lo stesso studio ha riscontrato un altro limite dell'autocorrezione dell'intelligenza artificiale quando vengono utilizzate applicazioni LLM multiagente, ovvero quando al modello LLM viene chiesto di svolgere più attività come "agenti" o soggetti diversi.

Esempi:

Il modello LLM genera codice come primo agente, poi lo verifica come secondo agente.

Il modello LLM inscena una discussione, a cui partecipano i due agenti.

Il problema si verifica perché i diversi agenti utilizzano una forma di votazione a maggioranza per individuare la risposta corretta, creando una sorta di camera d'eco o "autocoerenza", anziché adottare un approccio realmente accurato.

Serie di pulsanti e grafici

Il valore dell'intervento umano

I limiti dell'autocorrezione dell'intelligenza artificiale sottolineano l'importanza dell'intervento umano. Gli strumenti di intelligenza artificiale possono migliorare l'efficienza delle traduzioni, ma richiedono spesso l'intervento umano a un certo punto del processo. Poniamo che un professionista debba sviluppare la migliore serie di prompt, controllare un campione iniziale o rivedere l'output alla fine. Le misure di autocorrezione possono fornire supporto per l'intero processo, ma non possono sostituire l'intervento umano.

A questo scopo, è essenziale collaborare con consulenti esperti di intelligenza artificiale come quelli di Lionbridge, che possono contribuire a colmare il gap di fiducia nell'intelligenza artificiale. In particolare, dovrebbero:

  • Ridurre al minimo il rischio di contenuti/input di scarsa qualità o inaffidabili.

  • Garantire la protezione dei dati da attacchi informatici o da qualsiasi tipo di violazione.

  • Essere creativi e contribuire a sviluppare output o contenuti nuovi, coinvolgenti e originali.

  • Controllare e correggere le inesattezze, in particolare per materiali complessi che richiedono formazione o competenze approfondite.

  • Evitare di vendere tecnologie, soluzioni o abbonamenti superflui.

  • Condividere l'intero processo e incoraggiare input, feedback e personalizzazione.

Contattateci

Volete scoprire come utilizzare l'intelligenza artificiale per automatizzare la creazione di contenuti, l'ottimizzazione dei contenuti dei siti web o altri servizi linguistici? Il team Lionbridge di esperti in intelligenza artificiale è pronto ad aiutarvi. Contattateci.

linkedin sharing button

A CURA DI
Samantha Keefe e Thomas Gaitley, Director of Resiliency
  • #technology
  • #translation_localization
  • #ai
  • #generative-ai
  • #blog_posts