語法賺取ISO/IEC 42001:2023認證,加強對負責人AI的承諾

已發表: 2025-04-15

在Grammarly,我們致力於建立支持有效,周到的溝通的AI,而沒有妥協安全,隱私或用戶信任。這項承諾一直指導我們如何設計,開發和部署我們的AI驅動寫作幫助。現在,它得到了國際認可的標準的支持:Grammarly已正式獲得ISO/IEC 42001:2023認證

隨著人工智能的工作,寫作和聯繫越來越核心,圍繞其道德發展和使用的明確準則的需求從未有所更大。輸入ISO 42001- 世界上第一個國際標準,專門針對負責任地管理AI系統。

什麼ISO/IEC 42001:2023是什麼 - 為什麼它很重要

ISO 42001幫助組織建立一個以安全,透明且與人類價值觀保持一致的方式管理AI的框架。該認證從一開始就驗證了語法優先級的:建立AI,以增強通信,同時主動評估風險和保護用戶數據。 ISO 42001合規性表明,Grammarly的AI是:

  • 在道德上設計以與人類價值觀保持一致
  • 與最佳實踐保持一致,並關注新興法規
  • 安全和隱私意識以保護敏感數據
  • 不斷監視風險和意外後果
  • 可信賴的企業和用戶應用程序可靠

Grammarly的認證意味著我們對AI的方法已被獨立驗證與這個強大的框架,這使我們成為了全球實現這一里程碑的第一家公司之一。

在白皮書中了解更多
探索我們建立安全和負責人AI的框架

語法如何與ISO 42001保持一致

我們將負責的AI原則嵌入了產品開發生命週期的每個部分。以下是我們到ISO 42001的關鍵控制領域的映射:

優先責任的政策

語法保留了一套正式的AI政策,以指導我們AI系統的開發,部署和監督。每年審查這些政策,並反映我們對安全,隱私和以用戶為中心的創新的承諾。我們已經建立了人工智能管理系統(AIMS)並進行獨立審核以確保問責制。

一個專門負責的人工智能團隊

我們建立了一個跨職能團隊,該團隊負責監督AI治理並確保與道德原則保持一致。角色和職責在我們的組織結構中明確定義。所有員工都接受了AI道德,隱私和安全慣例的持續培訓。

精心管理的AI資源

我們的數據集和第三方工具將經過仔細的審查和確保。我們保持嚴格的訪問控制,並禁止合作夥伴使用任何客戶內容來培訓其模型。我們的生成AI由Microsoft Azure Openai和OpenAI等值得信賴的合作夥伴提供支持,但是客戶數據從未共享用於模型培訓。

主動風險和影響評估

我們進行了徹底的AI特定風險評估,包括紅色小組和對抗性測試,以評估公平,安全性和偏見。用戶有權報告疑慮,我們通過自動和人類評估不斷監視AI輸出。

AI的完整生命週期方法

我們的AI系統在每個階段都受到管轄 - 從設計和開發到部署和退役。在發布新功能之前,我們進行了廣泛的測試,以確保其符合質量,包容性和可用性的高標準。

安全,公平和透明的數據使用

語法對用於構建我們AI的數據進行了強大的治理,強調了質量,公平性和隱私。用戶可以控制其內容的使用方式,我們從不出售用戶內容。

對於利益相關者的清晰,可訪問的信息

透明度是語法的核心原則。我們為AI生成的建議提供了解釋,並在我們的用戶信任中心中保留有關我們的隱私和安全慣例的清晰文檔。專門的客戶支持和成功團隊可以回答與AI相關的問題。

以人為中心的人工智能使用

Grammarly的AI旨在支持(而不是取代)人類的創造力和判斷力。用戶始終控制他們如何與AI建議互動,我們的系統是在最前沿的透明度和用戶代理構建的。

負責的第三方合作夥伴關係

我們將我們的供應商和子處理器保持在為自己設定的相同的高標准上。所有合作夥伴都會接受年度安全和合規性審查,我們對使用第三方AI模型的位置透明。 Grammarly擁有包括SOC 2(類型2),ISO 27001和ISO 27701在內的企業級認證,並且符合HIPAA,CCPA,GDPR等。

建立您可以信任的AI

實現ISO/IEC 42001:2023認證不僅僅是一個里程碑 - 反映了我們對負責任地構建AI的深入。我們負責的AI團隊確保安全性,公平性和透明度嵌入到我們創建的每個模型以及我們提供的每個用戶體驗中。

我們致力於幫助個人和企業自信地利用AI進行更有效的溝通,而無需妥協信任。

在grammarly.com/responsible-ai上了解有關我們方法的更多信息,並查看我們的白皮書,以深入探索我們負責的AI實踐。