駕馭 Lionbridge Language Cloud 的強大威力,以支援您的端對端本地化作業和內容生命週期

Language Cloud™ 平台
連線能力
翻譯社群
工作流程技術
Smart Content™
Smart MT™
Smart Data™

我們擁有引以為傲的出色員工,20 多年來成功協助無數公司企業打動他們的客戶。 

公司簡介
重要資訊
領導團隊
信任中心

選擇語言:

運用一流的 AI 訓練服務,產出最佳輸出成果

在多語言脈絡下展現更傑出多樣的能力。

歡迎與專家洽談,立即與我們聯絡

精心微調並強化您的語言學習模型


我們的 AI 訓練服務能確保您的模型發揮卓越能力,根據不同語言和文化間的細微差異,生成您所需的內容。

我們的生成式 AI (GenAI)/大型語言模型 (LLM) 訓練服務充分善用了自身的高超技巧以及對語言多樣性的深刻了解,能協助公司企業打造可在全球各地引起共鳴的優質內容。

Lionbridge 的 LLM 訓練能賦予 AI 系統眾多能力,讓 AI 理解不同語言及人口族群的母語人士並自然地與之溝通,亦能保有公司原有的品牌調性,因為我們的服務可以:

  • 偵測可能會讓特定地區人士和目標族群感到不自然的輸出內容。
  • 找出無法反映公司品牌調性的語法和詞彙。
  • 掌握地區方言的細微差異。

AI 專業能力、深刻的文化見解以及語言能力的順暢整合,使我們得以確保您的 AI 生成內容能打動全球各地不同客群的心。

Lionbridge 的三大 AI 訓練服務

成功的 AI 實作奠基於以下這些流程。

資料註解

資料註解這個流程會標示或分類資料,能提供 AI 理解資料所不可或缺的脈絡。舉例來說,我們可以為影像加上註解,說明其中含有哪些物品,或是為文字加上註解,說明它所蘊含的情感。資料註解是監督式學習的基本要素,這種 AI 訓練類型能讓模型學習根據註解的資料來進行預測。AI 模型的表現會受資料註解的品質與正確性所深深影響,因為這些註解不但能主導學習流程的進行,也有助 AI 理解資料的來龍去脈。

資料收集

資料收集是 AI 訓練中很重要的一個步驟,是指收集高品質的相關資料,以便用於訓練和測試 AI 模型。這些資料的來源可以非常多樣,例如資料庫、社群媒體、感應器或使用者互動等,格式也不一而足,包括文字、影像、音訊或視訊等。收集多樣且具代表性的資料,有助確保 AI 系統能正確地理解與回應廣泛多元的輸入,進而提高其效率與成效。

資料製作

資料製作是指生成可供 AI 訓練使用的新資料,這個工作可能包括:製作合成資料、以人工智慧生成模仿真實世界的資料,或是藉由增添變異或雜訊資料來擴增現有的資料。資料製作流程有助於提高訓練資料的數量與多樣性,進而達到改善 AI 模型效能的目標。

擁抱 AI:迎接新的信任時代線上研討會重點摘要

探索 AI 信任對本地化的意義。閱讀 AI 信任線上研討會重點摘要部落格文章,了解 AWS、Cisco 和 Lionbridge 的看法。

「我們要求機器做出決定,但這一切都是在黑箱中產生的。這也引發了一個問題:我們可以信任這個決定嗎?」

— Lionbridge AI 專家 Vincent Henderson

負責任的 AI

負責任的 AI 這個概念,是指以符合倫理以及尊重的態度公平地使用人工智慧,以保護人類的權利與價值觀。這是個複雜的任務,但我們希望憑藉這樣的承諾,確保 AI 能對社會有所貢獻,而不會造成傷害或歧視。

以下說明 Lionbridge 如何協助您推動負責任的 AI。

透過本地化

LLM 在非英文內容上的表現通常比較差,我們的本地化服務可以在您於其他國家/地區啟用 AI 工具之前,先檢查這些工具的效能表現,進而提高您內容的品質、改善其成效以及它對您全球客群而言的可用性。

我們能執行以下任務:來源分析、本地化、編輯提示和對話以進行在地語言測試、回應評估與驗證、回譯,以及內容關聯資訊。

透過辨識冒犯內容、納入包容性的詞彙,以及遵守根據目標地區可接受的情感和標準而研擬的性別中立和包容性風格指南,我們得以推動負責任的 AI。

透過內容創作

對於什麼是敏感的議題,不同文化間的認定往往迥然不同。在某個地區可以開玩笑的事情,對另一個地區而言可能是嚴重的冒犯。因此,AI 應用程式的行為表現,也必須要能反映在地的感受。我們的內容創作服務能提供一般性的在地市場指引,並製作符合在地特質的專屬資料集供引擎測試和微調使用。

我們也能就敏感議題和在地價值觀執行研究並提供文化諮詢、針對特定主題製作提示,以及提供對話編寫和資料收集等服務。

妥善處理敏感議題、法律及規定;為個人識別資訊 (PII) 相關事宜的回應建立模型;提供建議、意見與包容性;以及減少對身分認同族群的刻板印象與看法等作法,都有助於我們推廣負責任的 AI。

透過眾包評估

我們會運用自身的全球人才社群收集深入見解、進行註解,以及分類文字、提示、音訊、視訊和影像。這些工作主要是透過我們的眾包測試人員平台進行。眾包服務是種高度靈活且效率卓越的服務,非常適合用於評估龐大的內容量。

我們會就在地議題收集意見回饋、評估回應,並分類回應以區別中立以及冒犯的回應。

由組成多樣的人才社群進行公平性評估、分類意圖/情感,以及偵測幻覺 (任何 AI 虛構的素材),我們也就能運用多元的角度來減少評估中的偏見,進而推動負責任的 AI。

透過在實際環境中進行測試

在某些情況下,如果有已建置好的測試環境可用,那麼採用在實際環境中進行測試的傳統方式,自然非常合情合理。

自發性測試服務是指使用即時、未經編寫的迭代來測試 AI 系統,藉此模仿使用者與系統間的互動。

情境式測試服務則會使用預先定義好的腳本和情境,來評估 AI 在受控條件下的反應。這種測試通常是為了解決技術方面的疑慮,而非倫理或公平性方面的疑慮。

我們會要求測試人員輸入特定的提示或根據特定目標製作提示,或者是要求他們試著破壞產品。

在自發性測試期間使用挑戰道德決策的情境、邀請不同人口族群參與測試,以及收集使用者體驗方面的意見回饋 (包括排擠、威脅或物化等感受),這些措施都有助於我們推動負責任的 AI。

認識我們的 AI 訓練專家

Rafa Moral

創新副總裁

Rafa 負責監管和語言及翻譯相關的研發 (R&D) 事務,其中包括跟機器翻譯、內容剖析與分析、術語探勘及語言品管與控管相關的措施。

Share on LinkedIn

Vincent Henderson

產品語言服務主管

Vincent 負責帶領 Lionbridge 的產品與開發團隊,工作重點主要是探索如何運用技術與人工智慧 (AI),進行分析、評估、處理和生成全球內容。他尤其關心大型語言模型會對內容產品及服務帶來哪些顛覆性的影響。

Share on LinkedIn

與我們聯絡

請輸入公司電子郵件
勾選以下的方塊,就代表您同意收到我們的行銷電子郵件。您將會收到來自 Lionbridge 語言服務領域的領導思維、最佳實務做法以及市場趨勢的相關資訊。

 

如要取消訂閱,以及了解我們如何處理您的個人資料,請參閱我們的隱私權政策