Grammarly의 후드 아래 : AI로 글쓰기 스타일을 변환

게시 됨: 2018-05-31

당신이 쓰는 사람에게 좋은 인상을 줄 때, 당신이 말하는 것은 당신이 생각해야 할 유일한 것이 아닙니다. 당신이 말하는 방법은 종종 마찬가지로 중요합니다. 올바른 수준의 형식을 선택하는 것은 특별한 도전이 될 수 있습니다. 그것은 맥락에 따라 다르며, 수신자가 당신의 어조를 어떻게 해석 할 것인지에 대해 추측해야합니다.

당신이 표지를 쓰고 있다고 상상해보십시오. 글쓰기가 너무 캐주얼 할 때 (또는 때로는 더 나쁘고, 너무 공식적) 감지 할 수있는 도구가 있다면 게임 체인저는 얼마나 될까요? 갑자기 당신이 말하는 것을 말하는 방법에 대한 당신의 결정은 훨씬 덜 어두워집니다. 수신자가 귀하의 메시지를 어떻게 인식 할 것인지에 대한 추측에 의존하는 것이 아닙니다. 개인적으로 보유하지 않은 많은 데이터에 대한 알고리즘이 있습니다. 한 걸음 더 나아가서,이 도구가 무언가가 꺼져있을 때를 말할 수있을뿐만 아니라 실제로 수신자가 더 나은 것을 좋아한다는 대안적인 표현을 제공한다면 어떨까요?

컴퓨터를 한 스타일에서 다른 스타일로 자동으로 바꾸는 과정을 스타일 전송이라고하며, 제가 동료 인 Sudha Rao와 함께 쓴 다가오는 논문의 주제입니다. 우리는 올바른 길을 전달하는 것이 얼마나 중요한지 알고 있기 때문에 Grammarly에서 우리에게 특히 관심이있는 영역입니다.

Grammarly의 연구 엔지니어가 귀하에게 글쓰기 제안을 제공하는 시스템을 어떻게 구축하는지 궁금한 적이 있다면 계속 읽으십시오.

형식에 대한 비공식적 인 배경

알고리즘의 세부 사항을 다루기 전에 비공식적 인 언어와 공식 언어의 예를 살펴 보겠습니다.

비공식 : 이야기의 양면을 봐야합니다

공식 : 이야기의 양쪽을 봐야합니다.

이 문장들 사이에는 몇 가지 명백한 차이점이 있습니다. 속어 ( "gotta")의 사용과 첫 번째 문장 신호 비공식 끝에 구두점 부족. 예를 들어 친구들 사이의 문자 메시지 교환 인 이런 종류의 문장을위한 시간과 장소가 있습니다.

우리가 인간이보다 공식적인 스타일로 비공식 문장을 어떻게 재 작성했는지를 살펴 보았을 때, 우리는 그들이 자본화, 구두점 및 구어체와 관련된 가장 빈번한 변화가 있음을 발견했습니다. 우리는 또한 인간이 때때로 형식을 개선하기 위해 문장을보다 과감한 재 작성해야한다는 것을 알았습니다.

비공식 : 언제 회의에 참여합니까?

공식 : 회의에 참석할 때를 알려주십시오.

그러나 컴퓨터가 위의 것과 같은 편집을하도록 어떻게 가르치는가? 문제에 접근하는 방법에는 여러 가지가 있습니다.

우리가 사용하는 것은 작문 스타일 사이에서 컴퓨터를 가르치는 것이 언어를 번역하도록 가르치는 것과 비슷하다는 것을 인정합니다. 이 접근법을 기계 번역이라고하며 컴퓨터는 한 언어 (프랑스어)에서 다른 언어 (독일어)로 자동으로 변환됩니다. 따라서 스타일 전송 문제를 해결할 때는 번역 모델 또는 우리의 경우 여러 모델로 시작하는 것이 합리적입니다.

번역 모델이란 무엇입니까?

AI의 최근 획기적인 것 중 하나는 기계 번역 모델을 구축하기위한 딥 러닝 또는 신경망을 사용하는 것입니다.

NMT (Neural Machine Translation) 모델은 문장의 기본 의미를 표현할 수 있습니다. 이것은 모델이 복잡한 문장 패턴을 배우는 데 도움이되므로 번역이 유창하고 그 의미가 원래 문장에 충실합니다.

규칙 기반 또는 문구 기반 모델 (PBMT)과 같은 기계 번역에 대한 오래된 접근 방식은 문장을 단어 나 문구와 같은 작은 단위로 나누고 독립적으로 번역합니다. 이로 인해 문법 오류 나 무의미한 결과가 발생할 수 있습니다. 그러나 이러한 모델은 조정하기 쉽고 보수적 인 경향이 있습니다. 이는 이점이 될 수 있습니다. 예를 들어, 속어를 표준 단어로 변경하는 규칙을 쉽게 통합 할 수 있습니다.

우리는 기계 번역에 대한 몇 가지 다른 접근법을 살펴보고 스타일 전송에서 가장 적합한 것을 확인했습니다.

모델 구축

NMT와 PBMT는 과제로 가득 차 있으며, 그 중 최소한 모델을 훈련시키는 좋은 데이터 세트를 찾는 것이 아닙니다. 이 경우, 우리는 수십만 개의 비공식 및 공식 문장 쌍의 데이터 세트가 필요하다고 추정했습니다. 이상적으로는 수백만 문장 쌍으로 모델을 훈련시킬 것이지만, 스타일 전송은 자연어 처리 분야에서 상당히 새로운 영역이므로 실제로 사용할 수있는 기존 데이터 세트는 없었습니다. 그래서 우리는 하나를 만들었습니다.

우리는 비공식 문장을 수집하기 시작했습니다. 우리는 Yahoo! 답. 우리는이 세트에서 10 만 명 이상의 비공식 문장을 자동으로 선택했으며 팀이 공식 언어로 각각을 다시 작성하여 사전 정의 된 기준을 사용했습니다. (이 과정에 대한 자세한 내용은 논문을 확인하십시오.)

데이터 세트가 있으면 모델 교육을 시작할 수 있습니다. 모델을 훈련한다는 것은 우리의 경우 많은 "대상"문장과 함께 많은 "소스"문장 (비공식 문장)을 제공하는 것을 의미합니다. 그런 다음 모델의 알고리즘은 소스에서 대상으로 이동하는 방법을 파악하는 패턴을 찾습니다. 데이터가 많을수록 더 잘 배우게됩니다.

우리의 경우,이 모델에는 10 만 명의 비공식 소스 문장과 공식적인 재 작성이 있습니다. 또한 NMT 및 PBMT 모델에는 종종 더 많은 데이터가 필요하기 때문에 교육 데이터 세트의 크기를 높이기 위해 인공 공식 데이터를 생성하는 다양한 방법을 실험했습니다.

그러나 모델이 작업을 얼마나 잘 수행하고 있는지 평가할 수있는 방법도 필요합니다. 문장의 의미가 바뀌 었습니까? 새 문장이 문법적으로 정확합니까? 실제로 더 형식적입니까? 분류기가 있으며, 톤 및 글쓰기 스타일에 대한 문장을 자동으로 평가할 수있는 프로그램이 있으며 학계에서 가장 일반적으로 사용되는 일부를 테스트했습니다. 그러나 그들 중 어느 것도 매우 정확하지 않습니다. 그래서 우리는 인간이 우리가 테스트 한 다양한 모델의 출력을 비교하고 형식, 정확성 및 유창성으로 순위를 매기도록했습니다.

우리는 팀에게 원래 비공식 문장, 여러 다른 모델의 출력 및 인간을 다시 쓰는 것을 보여주었습니다. 우리는 그들에게 누가 각 문장을 창출했는지 말하지 않았습니다. 그런 다음, 그들은 다시 쓰기를 순위를 매겼습니다. 이상적으로, 최고의 모델은 인간의 재 작성보다 묶거나 더 나은 것입니다. 팀은 500 개의 비공식 문장을 다시 작성했습니다.

우리가 찾은 것

우리는 수십 가지 모델을 테스트했지만 규칙 기반, PBMT (Prase-Based), 신경망 기반 (NMT) 및 다양한 접근 방식을 결합한 커플과 같은 최상위 모델에 중점을 둘 것입니다.

인간 재 작성은 전체적으로 가장 높은 점수를 얻었지만 PBMT 및 NMT 모델은 그다지 뒤지지 않았습니다. 실제로 인간이 모델 출력을 인간보다 선호하는 몇 가지 사례가있었습니다. 이 두 모델은 더 광범위한 재 작성을 만들었지 만 원래 문장의 의미를 바꾸는 경향이있었습니다.

반면에 규칙 기반 모델은 더 작은 변화를 일으켰습니다. 이것은 그들이 의미를 보존하는 데 더 나은 것을 의미했지만 그들이 생산 한 문장은 덜 형식적이었습니다. 모든 모델은 더 긴 문장보다 짧은 문장을 처리하는 데 더 쉬운 시간을 가졌습니다.

다음은 인간 및 모델 재 작성과 비공식적 인 문장의 예입니다. 이 특별한 경우에는 형식, 의미 및 자연스러운 표현 문구 사이의 최상의 균형을 맞은 마지막 모델 (PBMT 번역이 포함 된 NMT)이었습니다.

독창적 인 비공식 : 나는 학교에서 그를 거의 보지 못한다. 보통 나는 형제 농구 경기를 본다.

인간 재 작성 : 나는 학교에서 그를 거의 보지 못한다. 나는 보통 형제들이 농구를하는 것을 본다.

규칙 기반 모델 : 나는 학교에서 그를 거의 보지 못한다. 보통 나는 형제 농구 경기를 본다.

PBMT 모델 : 나는 학교에서도 그를 거의 보지 못했지만 형제 농구 경기.

NMT 모델 : 나는 학교에서 그를 거의 보지 못합니다. 나는 동생의 농구 경기에서 그를 본다.

NMT (추가 PBMT 생성 데이터에 대한 교육) : 나는 학교에서 그를 거의 보지 못합니다. 보통 나는 형제 농구 경기에서 그를 볼 수 있습니다.

스타일 전송은 광범위한 응용 분야의 잠재력을 가진 흥미 진진한 자연 언어 처리 영역입니다. 내가 처음에 가설을 세운 도구 - 당신이 말해야 할 것을 어떻게 말하는지 알아내는 데 도움이되는 도구는 무엇입니까? 아직해야 할 일이 여전히 많지만 그 도구는 가능하며 구직자, 언어 학습자 및 글을 통해 누군가에게 좋은 인상을 주어야하는 사람에게는 매우 중요합니다. 우리는 데이터를 공개함으로써 우리와 분야의 다른 사람들이 서로 벤치마킹 하고이 연구 분야의 연구를 발전시킬 수 있기를 바랍니다.

문법에 관해서는,이 작업은 의도 한대로 메시지를 이해하는 데 도움이되는 포괄적 인 커뮤니케이션 어시스턴트를 만드는 비전을 향한 또 다른 단계입니다.

Joel Tetreault는 Grammarly의 연구 책임자입니다. Sudha Rao는 메릴랜드 대학교 (University of Maryland)의 박사 학위를 받았으며 Grammarly의 연구 인턴이었습니다. Joel과 Sudha는 2018 년 6 월 1-6 일 뉴 올리언스의 인간 언어 기술 :“친애하는 선생님 또는 부인, Gyafc 데이터 세트 : Corpus, Metrics, Comparity and Metics, Compartics and Metics를 소개 할 수 있습니다.