Grammarly zarabia certyfikat ISO/IEC 42001: 2023, wzmacniając zaangażowanie w odpowiedzialną sztuczną inteligencję

Opublikowany: 2025-04-15

W Grammarly jesteśmy zaangażowani w budowanie sztucznej inteligencji, która obsługuje skuteczną, przemyślaną komunikację - bez kompromisu w zakresie bezpieczeństwa, prywatności lub zaufania użytkowników. Zobowiązanie to zawsze kierowało, jak projektujemy, rozwijamy i wdrażamy naszą pomoc pisania z napędem AI. Teraz jest to wspierane przez uznany na całym świecie standard:Grammarly jest oficjalnie certyfikowany ISO/IEC 42001: 2023.

Ponieważ AI staje się coraz bardziej kluczowe dla sposobu, w jaki pracujemy, piszemy i łączymy, potrzeba jasnych wytycznych dotyczących jego etycznego rozwoju i użycia nigdy nie była większa. WpiszISO 42001- pierwszy na świecie międzynarodowy standard koncentrował się w szczególności na odpowiedzialnym zarządzaniu systemami AI.

Co to jest ISO/IEC 42001: 2023 - i dlaczego to ma znaczenie

ISO 42001 pomaga organizacjom ustanowić ramy dla rządzenia AI w sposób bezpieczny, przejrzysty i dostosowany do ludzkich wartości. Ta certyfikacja potwierdza, co gramatyka od samego początku oceniła priorytety: budowanie sztucznej inteligencji, która poprawia komunikację przy jednoczesnym ocenie ryzyka i ochronie danych użytkownika. Zgodność ISO 42001 pokazuje, że sztuczna inteligencja Grammarly to:

  • Etycznie zaprojektowanydo dostosowania się do wartości ludzkich
  • Dostosowane donajlepszych praktyk iokiem na pojawiające się przepisy
  • Bezpieczny i świadomy prywatnościw celu ochrony wrażliwych danych
  • Stale monitorowanepod kątem ryzyka i niezamierzonych konsekwencji
  • Godne zaufania i niezawodnedla aplikacji przedsiębiorstwa i użytkowników

Certyfikacja Grammarly oznacza, że ​​nasze podejście do sztucznej inteligencji zostało niezależnie zweryfikowane w stosunku do tych solidnych ram - powodując, że jedna z pierwszych firm na całym świecie osiągnęła ten kamień milowy.

Dowiedz się więcej w białej pracy
Przeglądaj nasze ramy budowania bezpiecznej i odpowiedzialnej sztucznej inteligencji

Jak gramatyka jest zgodna z ISO 42001

Wbudowaliśmy odpowiedzialne zasady AI w każdej części cyklu życia naszego produktu. Oto jak nasze podejście mapuje kluczowe obszary kontroli ISO 42001:

Zasady, które priorytetują odpowiedzialność

Grammarly utrzymuje formalny zestaw zasad AI, które kierują rozwojem, wdrażaniem i nadzorem naszych systemów AI. Zasady te są corocznie sprawdzane i odzwierciedlają nasze zaangażowanie w bezpieczeństwo, prywatność i innowacje zorientowane na użytkownika. Utworzyliśmy system zarządzania sztuczną inteligencją (AEMS) i przeprowadziliśmy niezależne audyty w celu zapewnienia odpowiedzialności.

Oddany odpowiedzialny zespół AI

Zbudowaliśmy międzyfunkcyjny zespół, który nadzoruje zarządzanie AI i zapewnia dostosowanie do zasad etycznych. Role i obowiązki są wyraźnie zdefiniowane w naszej strukturze organizacyjnej. Wszyscy pracownicy odbywają ciągłe szkolenie w zakresie praktyk etyki, prywatności i bezpieczeństwa AI.

Starannie zarządzane zasoby AI

Nasze zestawy danych i narzędzia stron trzecich są starannie sprawdzane i zabezpieczone. Utrzymujemy ścisłe kontrole dostępu i zabraniamy partnerom korzystania z dowolnej treści klientów do szkolenia ich modeli. Nasza generatywna sztuczna inteligencja jest zasilana przez zaufanych partnerów, takich jak Microsoft Azure Openai i Openai, ale dane klientów nigdy nie są udostępniane do szkolenia modelu.

Proaktywne oceny ryzyka i wpływu

Przeprowadzamy dokładne oceny ryzyka specyficzne dla AI, w tym czerwone zespoły i testy przeciwne, aby ocenić sprawiedliwość, bezpieczeństwo i uprzedzenie. Użytkownicy są upoważnieni do zgłaszania obaw, a my stale monitorujemy wyniki AI poprzez zautomatyzowaną i ludzką ocenę.

Pełne podejście do cyklu życia do AI

Nasze systemy AI są rządzone na każdym etapie - od projektowania i rozwoju po wdrażanie i wycofanie z eksploatacji. Przed wydaniem nowej funkcji przeprowadzamy obszerne testy, aby zapewnić ona wysokie standardy jakości, integracji i użyteczności.

Bezpieczne, sprawiedliwe i przejrzyste wykorzystanie danych

Gramatycznie egzekwuje silne zarządzanie danymi wykorzystywanymi do budowy naszej sztucznej inteligencji, podkreślając jakość, uczciwość i prywatność. Użytkownicy mogą kontrolować sposób używania ich treści i nigdy nie sprzedajemy treści użytkownika.

Jasne, dostępne informacje dla interesariuszy

Przejrzystość jest podstawową zasadą gramatyki. Podajemy wyjaśnienia sugestii generowanych przez AI i utrzymujemy jasną dokumentację dotyczącą naszych praktyk prywatności i bezpieczeństwa w naszym centrum zaufania użytkowników. Dostępne są dedykowane zespoły obsługi klienta i sukcesy, aby odpowiedzieć na pytania związane z AI.

Używanie AI skoncentrowane na człowieku

AI Grammarly jest zaprojektowana do wspierania - nie zastępująca - ludzka kreatywność i osąd. Użytkownicy zawsze kontrolują sposób, w jaki angażują się w sugestie AI, a nasze systemy są budowane z przejrzystością i agencją użytkowników na pierwszym planie.

Odpowiedzialne partnerstwa stron trzecich

Trzymamy naszych dostawców i podprocesorów na te same wysokie standardy, które sami stworzyliśmy. Wszyscy partnerzy przechodzą coroczne przegląd bezpieczeństwa i zgodności, a my jesteśmy przejrzyste co do tego, gdzie stosowane są modele AI innych firm. Grammarly posiada certyfikaty klasy korporacyjnej, w tym SOC 2 (typ 2), ISO 27001 i ISO 27701, i jest zgodny z HIPAA, CCPA, RODO i nie tylko.

Budowanie sztucznej inteligencji, którego możesz zaufać

Osiągnięcie certyfikacji ISO/IEC 42001: 2023 jest czymś więcej niż kamieniem milowym - to odzwierciedlenie tego, jak głęboko dbamy o odpowiedzialne budowanie sztucznej inteligencji. Nasz odpowiedzialny zespół AI zapewnia, że ​​bezpieczeństwo, uczciwość i przejrzystość są osadzone w każdym modelu, który tworzymy i każde dostarczamy wrażenia użytkownika.

Jesteśmy zaangażowani w pomaganie osobom i firmom z pewnością korzystania z sztucznej inteligencji do skuteczniejszego komunikowania się - bez kompromisu w sprawie zaufania.

Dowiedz się więcej o naszym podejściu na grammarly.com/responsible-ai i sprawdź naszą białą księgę, aby dogłębić nasze odpowiedzialne praktyki AI.