选择语言:
人工智能 (AI) 的进步无疑是革命性的,使公司能够在相同的预算内生成和翻译更多内容,开拓新市场,并最终提高盈利能力。然而,在利用生成式 AI (GenAI)/大型语言模型 (LLM) 时务必谨慎行事。值得关注的一个重要方面是信任问题。
AI 技术进步开启了信任新时代,这个时代的特点是 AI 工具输出的结果不再是确定的、可预测的。我们希望机器在做出决策时,能够尽可能贴近人类认知过程,给出多种可能的输出结果。由于这些决策是黑箱决策,这就引发了一个关键问题:我们能否信任 AI 做出的这些决策?
有些人对于在业务流程中使用 AI 十分谨慎。据《连线》杂志报道,安永委托进行的一项针对 1000 名员工的调查显示,66% 的受访者对 AI 输出的质量表示担忧;77% 的受访者表示他们已成立负责任的 AI 任务小组。
好在我们可以通过具体策略来建立对 AI 的信任,这包括对技术本身的信任,以及对技术管理合作伙伴的信任。我们制作了一份便捷的速查指南,详细阐述了 Lionbridge 的 TRUST 框架,为您提供指引。该框架名为 TRUST,由五个英文单词的首字母组成,涵盖了与信任相关的五项措施,旨在确保 AI 具备以下特性:
观看我们的《拥抱 AI:开启信任新时代》网络研讨会录像,在研讨会上,Amazon Web Services、Cisco 和 Lionbridge 的专家们深入探讨了关于 AI 信任的话题。我们的 AI 信任网络研讨会回顾博文重点介绍了其中的要点。
Lionbridge 的 TRUST 框架属于负责任 AI 系统方法的一部分,后者还包括我们的 REACH 框架。
REACH 框架强调可衡量的业务成果、受众相关性和人为干预监督。TRUST 和 REACH 框架协同作用,为在内容转换生命周期的每个阶段有效地利用 AI 提供有力指导。
Lionbridge 在日常运营中全面应用 TRUST 和 REACH 框架体系,而 AI 优先的全球化内容平台 Aurora AI™ 正是该框架的标杆实践范例。
注意:此博客更新的博文最初发布于 2024 年。
我们渴望倾听您的需求,并向您展示我们的创新功能如何助您冲破藩篱、拓宽全球舞台。期待探索新机遇?我们随时待命,愿助您扬帆启航。