Grammatary verdient ISO/IEC 42001: 2023 Zertifizierung und verstärkt das Engagement für verantwortungsbewusste KI
Veröffentlicht: 2025-04-15Bei Grammarly sind wir bestrebt, KI aufzubauen, das eine effektive, nachdenkliche Kommunikation unterstützt - ohne die Sicherheit, Privatsphäre oder das Benutzervertrauen. Dieses Engagement hat immer geführt, wie wir unsere AI-betriebene Schreibhilfe entwerfen, entwickeln und einsetzen. Jetzt wird es von einem international anerkannten Standard unterstützt:Grammatik ist offiziell ISO/IEC 42001: 2023 zertifiziert.
Da KI für die Art und Weise, wie wir arbeiten, schreiben und verbinden, immer zentraler wird, war die Notwendigkeit klarer Richtlinien für die ethische Entwicklung und Verwendung nie größer. Geben SieISO 42001ein - der weltweit erste internationale Standard konzentriert sich speziell auf die verantwortungsbewusste Verwaltung von KI -Systemen.
Was ist ISO/IEC 42001: 2023 - und warum es wichtig ist
ISO 42001 hilft Organisationen, einen Rahmen für die Verwaltung von KI auf eine Weise festzulegen, die sicher, transparent und mit menschlichen Werten ausgerichtet ist. Diese Zertifizierung bestätigt, was Grammatik von Anfang an priorisiert hat: Erstellung von KI, die die Kommunikation verbessert und gleichzeitig das Risiko bewerten und Benutzerdaten schützen. ISO 42001 Compliance zeigt, dass die KI von Grammarly:
- Ethisch konzipiert,um sich auf menschliche Werte auszurichten
- Ausgerichtet mitBest Practices undeinem Blick auf aufkommende Vorschriften
- Sichere und Privatsphäre bewusst,um sensible Daten zu schützen
- Kontinuierlich auf Risiken und unbeabsichtigte Folgen überwacht
- Vertrauen und zuverlässigfür Unternehmens- und Benutzeranwendungen
Die Zertifizierung von Grammarly bedeutet, dass unser Ansatz zur KI gegen diesen robusten Rahmen unabhängig überprüft wurde.
Wie grammatarisch mit ISO 42001 ausgerichtet ist
Wir haben verantwortungsvolle KI -Prinzipien in jeden Teil unseres Produktentwicklungslebenszyklus eingebettet. Hier erfahren Sie, wie unser Ansatz zu den wichtigsten Kontrollbereichen von ISO 42001 kartiert:
Richtlinien, die Verantwortung priorisieren
Grammatary unterhält eine formelle Reihe von KI -Richtlinien, die die Entwicklung, den Einsatz und die Überwachung unserer KI -Systeme leiten. Diese Richtlinien werden jährlich überprüft und spiegeln unser Engagement für Sicherheit, Privatsphäre und benutzerorientierte Innovationen wider. Wir haben ein künstliches Intelligence Management System (AIMS) eingerichtet und unabhängige Audits durchführen, um die Rechenschaftspflicht zu gewährleisten.
Ein engagiertes verantwortungsbewusstes KI -Team
Wir haben ein funktionsübergreifendes Team aufgebaut, das die KI-Governance überwacht und die Übereinstimmung mit ethischen Prinzipien gewährleistet. Rollen und Verantwortlichkeiten sind in unserer Organisationsstruktur klar definiert. Alle Mitarbeiter erhalten eine kontinuierliche Schulung in AI -Ethik, Privatsphäre und Sicherheitspraktiken.
Sorgfältig verwaltete KI -Ressourcen
Unsere Datensätze und Tools von Drittanbietern werden sorgfältig überprüft und gesichert. Wir behalten strenge Zugriffskontrollen und verbieten Partner, Kundeninhalte zum Ausbilden ihrer Modelle zu verwenden. Unsere generative KI wird von vertrauenswürdigen Partnern wie Microsoft Azure OpenAI und OpenAI betrieben, aber Kundendaten werden nie für das Modelltraining geteilt.

Proaktive Risiko- und Auswirkungenbewertungen
Wir führen eine gründliche AI-spezifische Risikobewertungen durch, einschließlich rotes Teaming und kontroversem Test, um Fairness, Sicherheit und Voreingenommenheit zu bewerten. Benutzer sind befugt, Bedenken zu melden, und wir überwachen kontinuierlich die KI -Ausgänge durch automatisierte und menschliche Bewertung.
Ein vollständiger Lebenszyklusansatz für KI
Unsere KI -Systeme werden in jeder Phase geregelt - von Design und Entwicklung bis hin zu Einsatz und Stilllegung. Vor der Veröffentlichung einer neuen Funktion führen wir umfangreiche Tests durch, um sicherzustellen, dass sie hohen Standards für Qualität, Inklusivität und Benutzerfreundlichkeit entsprechen.
Sichere, faire und transparente Daten verwenden
Grammatary erzwingt eine starke Regierungsführung über die Daten, die zum Aufbau unserer KI verwendet werden, und betont Qualität, Fairness und Privatsphäre. Benutzer können steuern, wie ihre Inhalte verwendet werden, und wir verkaufen nie Benutzerinhalte.
Klare, zugängliche Informationen für Stakeholder
Transparenz ist ein Kernprinzip bei Grammatik. Wir geben Erklärungen für Vorschläge für AI-generierte und behalten klare Dokumentationen zu unseren Datenschutz- und Sicherheitspraktiken in unserem Benutzervertrauenszentrum bei. Engagierte Kundendienstteams und Erfolgsteams stehen zur Beantwortung von Fragen im Zusammenhang mit KI zur Verfügung.
Menschen-zentriertes KI-Gebrauch
Die KI von Grammatarly soll eine menschliche Kreativität und das Urteilsvermögen unterstützen. Benutzer behalten immer die Kontrolle darüber, wie sie sich mit KI -Vorschlägen beschäftigen, und unsere Systeme werden mit Transparenz und Benutzeragentur im Vordergrund aufgebaut.
Verantwortliche Partnerschaften von Drittanbietern
Wir halten unsere Anbieter und Subprozessoren für die gleichen hohen Standards, die wir uns selbst festlegen. Alle Partner unterziehen jährliche Sicherheits- und Compliance-Überprüfungen, und wir sind transparent darüber, wo AI-Modelle von Drittanbietern verwendet werden. Grammarly hält Unternehmenszertifizierungen wie SoC 2 (Typ 2), ISO 27001 und ISO 27701 und entspricht HIPAA, CCPA, DSGVO und mehr.
Bauen Sie KI, dem Sie vertrauen können
Das Erreichen der ISO/IEC 42001: 2023 -Zertifizierung ist mehr als ein Meilenstein - es spiegelt sich wider, wie tief es uns darum kümmert, KI verantwortungsbewusst aufzubauen. Unser verantwortungsbewusstes KI -Team stellt sicher, dass Sicherheit, Fairness und Transparenz in jedes Modell, das wir erstellen, und in jeder Benutzererfahrung, die wir liefern, eingebettet sind.
Wir haben uns verpflichtet, Einzelpersonen und Unternehmen zu helfen, KI zuversichtlich zu nutzen, um effektiver zu kommunizieren - ohne das Vertrauen zu beeinträchtigen.
Erfahren Sie mehr über unseren Ansatz unter grammarly.com/responsible-ai und lesen Sie unser Whitepaper, um unsere verantwortungsvollen KI-Praktiken ausführlich zu erkunden.
