駕馭 Lionbridge Lainguage Cloud 的強大威力,以支援您的端對端本地化作業和內容生命週期

Lainguage Cloud™ 平台
連線能力
翻譯社群
工作流程技術
Smairt Content™
Smairt MT™
Smairt Data™

我們擁有引以為傲的出色員工,20 多年來成功協助無數公司企業打動他們的客戶。 

公司簡介
重要資訊
領導團隊
信任中心

選擇語言:

person with streams of data and light

AI 自我修正

目前您該知道的資訊

擁抱生成式 AI 對獲致成功非常重要,尤其是當您的競爭對手早已著手在工作流程、翻譯內容創作和最佳化等方面納入這項技術。使用生成式 AI 的其中一個關鍵要素,就是自我修正。因為很可惜的是,大型語言模型 (LLM) 有時會因為一些因素而交出錯誤的輸出內容,這是由於訓練 LLM 所使用的資料中,可能含有不妥或錯誤的資訊。此外,AI 工具有時也會產生「幻覺」,也就是捏造資訊。為了解決 AI 輸出中的這些問題,在初始的提示組中加入「自我修正」措施,或許是個可行的辦法 (有些專家也稱之為「自我批判」或是「自我精進」)。有多項研究針對不同的方法進行測試,這些方法會要求 LLM 審閱自己的輸出,並在最後輸出前調整精進它們的回答。歡迎閱讀我們的部落格文章,了解人們目前為了在 AI 解決方案中實行自我修正 (或要求他們的 AI 解決方案供應商這麼做) 所採用的一些技巧。這篇部落格文章也會探討 AI 自我修正的侷限。

常見的 AI 自我修正策略

目前是採用以下這四種方法來實行 AI 自我修正:

1.要求正確性的提示:有時候,在一系列提示中加入強調正確性的提示,會是種有效的作法。以下便是個發表於 X 的熱門提示:

「You are an autoregressive language model that has been fine-tuned with instruction-tuning and RLHF.You carefully provide accurate, factual, thoughtful, nuanced answers, and are brilliant at reasoning.If you think there might not be a correct answer, you say so.」(你是個經過指令調整及 RLHF 微調過的自我迴歸語言模型。你會審慎地提供正確、符合事實、深思熟慮且細膩的回答,並且非常善於推理。如果你認為沒有正確的答案,請直接這麼說。)

2.把 AI 工具變成為專家:避免錯誤資訊的其中一個方法,就是將您的 AI 工具變成比較不會犯錯的專家。許多使用者和 AI 服務供應商,包括一組 GitHub 開發人員,都在致力建立要求 AI 工具如專家般行事的提示。值得注意的是,其中表現最好的專家角色,是那些非常詳盡說明如何遵循最佳實務做法的角色 (但這些最佳實務必須廣受認可)。如果指令太過籠統,AI 工具可能會開始出現幻覺,杜撰內容。例如,光是說「你是個優秀的職涯輔導人員」這樣並不夠,應該在提示中加入職涯輔導人員一般會遵循的最佳實務做法。另一種最佳實務做法,就是以您已知答案的任務來測試一系列的提示,這麼做會有助您判斷要針對哪些地方來最佳化專家角色提示。視任務的類型而定,有時還可以開發多個迭代的專家角色提示。GitHub 開發人員便製作了一份清單,裡面囊括了他們用來將 AI 轉變為專業助理的 15 個提示系列。雖然還有其他類似的清單存在,但他們的清單顯然特別完備。

AI 專家提示:

1. 職涯輔導人員

2. 特定職位的面試官

3. 英語發音小助手

4. 廣告人員

5. 社群媒體經理

6. 以學生為對象的 AI 寫作教師

7. 會計師

8. 網頁設計顧問

9. UX/UI 開發人員

10. IT 架構師

11. 網路資安專家

12. 機器學習工程師

13. IT 專家

14. Excel 公式生成器

15. 私人廚師

3.加入「前處理」或「後處理」提示:您可以加入提示來修改 AI 輸出的風格。例如,您可能希望風格較為正式或較不正式,或是以高學歷或高中教育程度的人為目標對象。如果提示是在輸出生成之後才加入,就稱為「後處理提示」。根據 Google DeepMind 近日的一項研究專案,同時提供一樣優異的前處理與後處理提示,往往能產出最佳的結果。

橘色紙交錯往下疊,最下方中心有 AI 圖片

4.利用提示處理偏見問題:數以百萬計的人在網際網路上傾洩仇恨內容,因此如果用以訓練 LLM 的資料並不恰當時,它們的輸出就可能會反映出這些偏見。Anthropic AI 實驗室近日的一項研究顯示,可能可以利用「從人類回饋強化學習」(Reinforcement Learning from Human Feedback,RLHF) 來訓練 LLM,進而產出不含 (或較少) 種族歧視、年齡歧視、厭女等偏見的輸出。您可以在 AI 的憲法中加入說明,要求它將您團隊所決定的一般倫理原則納入考量。這個流程的其中一個環節,就是在提示中加入一行指令,要求 LLM 不要依賴那些有害的刻板印象或人生觀。在一些案例中,AI 工具已經開始在輸出中展現「積極性差別待遇」,表現甚至超出預期。

AI 自我修正的侷限

AI 自我修正措施或許效果卓著,但研究顯示它也有其侷限。前述的同一項 Google DeepMind 研究就發現,使用自我修正措施有時反而讓 LLM 表現的更差。而那些並未損及表現的案例中,自我修正對每一個 AI 提示系列的效果也不一致,沒有使用外部來源 (例如計算機、程式碼執行器、知識庫等) 的時候這種差異更為明顯。想要取得最佳結果,自我修正措施必須要能取用內含基本事實的基準化資料集。有了這些參考資料,AI 工具就能知道什麼時候該停止它的推理流程,進而避免過度修正其輸出。當然,研究人員也指出有些任務因為太過複雜,所以無法提供 AI 工具這類參考資料。

同一項研究中也發現,使用多個代理的 LLM 應用程式時,也會出現另一個 AI 自我修正的侷限。在這種情況下,LLM 會被要求以不同的「代理」,或者又稱為參與者,來執行多個任務。

範例:

LLM 先以一個代理來生成程式碼,接者再以另一個代理的身分來檢查這個程式碼。

要 LLM 進行辯論,正反方分別由一個代理擔任。

這麼做之所以會發生問題,是因為多個代理會使用多數決投票的方式,來決定哪一個回答是正確的,這會產生類似同溫層效應或「自我一致性」,而不是去追求真正的正確性。

一系列按鈕和圖表

人機迴圈的價值所在

AI 自我修正的侷限,凸顯出有人類參與其中的人機迴圈的重要性。AI 工具雖然可以提高翻譯的效率,但在某些時候往往需要人類介入。例如,或許是需要人類來研擬最合適的一系列提示、檢查最初的樣本,或是最後的輸出審閱工作等。自我修正措施可能有助整個流程更加順暢,但還是無法取代人機迴圈。

也因此,與例如 Lionbridge 的 AI 諮詢專家合作就顯得非常重要,因為他們可以協助您解決 AI 信任鴻溝的問題。這些專家應該要能:

  • 盡可能降低產生不可信賴或低品質內容/輸出的風險

  • 確保資料安全,避免遭受網路攻擊或任何威脅

  • 發揮創意,並協助開發吸引人又具原創性的新內容或輸出

  • 檢查正確性並加以改正,尤其是那些需要精深教育或專業能力的複雜資料

  • 絕對不會試圖向您販售不必要的技術、解決方案或訂閱方案

  • 與您分享整個流程,同時從頭到尾都歡迎您提供意見,並配合您的需求加以自訂

與我們聯絡

想了解如何運用 AI 來自動化內容創作網站內容最佳化或其他語言服務嗎?Lionbridge 由眾多 AI 專家組成的專屬團隊隨時竭誠為您服務。歡迎與我們聯絡。

linkedin sharing button

作者
Samantha Keefe 與企業韌性總監 Thomas Gaitley
  • #technology
  • #translation_localization
  • #ai
  • #generative-ai
  • #blog_posts