實踐負責任 AI、深化客戶支持與共創成長。

微軟自 2024 年發佈首份《負責任 AI 透明度報告》以來,獲得全球利害關係人提供寶貴洞見,為今年度的《負責任 AI 透明度報告》提供重要依據,也進一步強化微軟持續打造值得信任 AI 技術的承諾。本報告重點說明微軟的最新進展:如何負責任地建構與部署 AI 系統、如何支持客戶與更廣泛的生態系,以及如何從實務中持續學習與演進的過程。

過去一年,規模大小各異的企業紛紛導入人工智慧 AI,進一步凸顯實踐有效 AI 治理的重要性。微軟的客戶與合作夥伴高度關注我們如何擴展內部 AI 治理計畫,以及如何將高層次的規範準則,轉化為可實踐的開發工具與具體作法。

業界也意識到,建立值得信賴的 AI 不僅有助於提升業務表現,更能透過良好治理釋放 AI 的潛能。根據 IDC 進行的《微軟負責任 AI 調查》,超過三成的受訪者指出,缺乏治理與風險管理解決方案是導入與擴展 AI 的主要障礙。相對地,在已採用負責任 AI 風險管理工具的受訪者中,超過 75% 表示這些工具有助於改善資料隱私、提升客戶體驗、做出更有信心的商業決策,並增進品牌聲譽與信任度。

過去一年,全球陸續推出各項 AI 法規與監管新措施。微軟近十年來持續不懈,將負責任 AI 的原則落實為具體實踐,已做好充分準備以遵循相關規範並協助客戶共同實現合規目標。然而,我們的工作尚未停止,仍在持續發展促進 AI 技術跨境應用所需的高效、可行之監管與執行架構。微軟將持續提供實務洞見,參與全球標準與規範的制定工作。

在 AI 治理的各個層面,保持靈活應變的策略至關重要。微軟從實際部署中不斷學習,並依據最新技術發展持續調整實務作法,同時積極回應利害關係人的反饋意見。隨著治理實務不斷演進,我們也將透過未來的年度透明度報告及其他公開平台,主動分享最新洞見與經驗。

2025 年微軟《負責任 AI 透明度報告》重點摘要

針對負責任 AI 的工具、政策與實務進行關鍵性投資,以因應 AI 創新日益加速的發展趨勢:

  1. 持續強化負責任 AI 工具,將風險衡量與緩解機制擴展至文字以外的多模態內容,例如影像、音訊和影片,並新增對各類代理型系統(agentic systems)的支援。這類半自主系統預期將成為 AI 投資與創新的重要發展領域。
  2. 採取主動且多層次的方式,因應新法規要求,並為客戶提供各式資源與資料,協助他們在符合法規的前提下持續創新。微軟先期在建構全面且領先業界的負責任 AI 計畫上所做的投入,使我們能全力加速 AI 合規準備工作。
  3. 持續透過部署前審查與模擬入侵攻擊,於各項 AI 發佈中採用一致的風險管理方法。其中包括對高影響力及高風險的 AI 與生成式 AI 應用進行監督與審查,包括所有新增至 Azure OpenAI 服務的旗艦模型與每次 Phi 模型的發佈。為進一步強化這些審查中負責任 AI 相關文件的作業,我們推出一項內部工作流程工具,用以統整《負責任 AI 標準》中所列的各項要求。
  4. 微軟的「敏感用途與新興技術(Sensitive Uses and Emerging Technologies)」團隊持續為高影響力與高風險的 AI 應用提供實務指導與諮詢。生成式 AI 在醫療與科學等領域的應用顯著成長,成為去年的關鍵發展重點。該團隊透過跨案例洞見與研究人員的深入交流,得以及早針對新興風險與 AI 技術能力提供前期指引,進而推動創新,並孕育新的內部政策與指導原則。
  5. 持續以研究洞見為依據,加深對 AI 最新發展所涉及的社會與技術議題的理解。為此,微軟成立 AI 前瞻實驗室(AI Frontiers Lab),專注投入於推動 AI 系統在能力、效率與安全性上的核心技術突破。
  6. 與全球各地的利害關係人合作,致力於推動一致性的 AI 治理方法,加速 AI 的採用,並協助各類組織跨境持續創新與應用 AI 技術。其中包括出版一本探討各領域治理實務的專書,以及推動 AI 系統測試的統一標準。

展望 2025 下半年及未來
隨著 AI 創新與應用持續推進,微軟的核心目標始終不變:致力於贏得信任,這是推動 AI 在全球普及應用與良善發展的根本基石。在接下來的一年中,我們將聚焦三大重點領域,持續深化我們對 AI 治理的堅定承諾,同時確保相關行動能因應不斷演變的環境與挑戰:

  1. 發展更具彈性與敏捷性的風險管理工具與實務,同時培養預測與因應 AI 進展的能力

為使全球各地的個人與組織能充分運用 AI 的變革潛力,我們在預測與管理 AI 風險能力上,必須與技術創新同步發展。這需要打造能迅速因應 AI 能力演進及多元部署情境的工具與實務作法,因為各種情境往往伴隨各自獨特的風險樣貌。為此,我們將進一步擴大對風險管理系統的投資,提供可因應各類部署情境中常見風險的工具與實務指引,並推動微軟內部各團隊間共享測試資料集、緩解措施與最佳實務,提升整體治理效能。

  1. 支持 AI 供應鏈有效治理
    建立、贏得並維繫對 AI 的信任,是一項需由模型開發者、應用程式建置者與系統使用者共同參與的協作過程,三方須在設計、開發與營運各層面落實可信原則。包括《歐盟人工智慧法案》在內的相關法規,亦體現供應鏈各方之間資訊流通與透明化的必要性。

微軟支持這項「共享責任」的理念,也深知在快速演變的 AI 生態體系中,釐清各方責任的分工與協作關係並不容易。為促進對實務運作的共同理解,我們正持續深化內外部的相關工作,進一步釐清各角色的職責與期待。

  1. 透過共享規範與有效工具,推動 AI 風險衡量與評估生態系的健全發展
    AI 風險衡量與評估相關的科學,仍處於初步發展階段,但已顯現快速成長的趨勢。微軟承諾將持續在內部投入資源,推動該領域的成熟發展,包含推動前瞻性研究,以及開發可支援大規模應用的工具。我們也承諾將與更廣泛的生態系分享最新的工具進展與最佳實務,促進 AI 風險衡量與評估領域中共享規範與標準的建立與發展。
Tags: