CWN(CHANGE WITH NEWS) - 바이두(Baidu), 자연언어 처리 위한 오픈소스 ERNIE 2.0 발표

  • 맑음울산9.3℃
  • 맑음정선군5.6℃
  • 맑음춘천2.5℃
  • 맑음북강릉10.2℃
  • 맑음이천4.8℃
  • 맑음청송군0.9℃
  • 맑음순창군4.9℃
  • 맑음장흥5.0℃
  • 맑음거제10.7℃
  • 맑음부안8.9℃
  • 구름조금인천9.5℃
  • 맑음함양군3.3℃
  • 맑음강진군7.1℃
  • 맑음서산4.8℃
  • 맑음홍천3.2℃
  • 맑음해남6.0℃
  • 맑음여수11.4℃
  • 맑음추풍령4.0℃
  • 맑음경주시4.4℃
  • 맑음구미4.7℃
  • 흐림군산8.9℃
  • 맑음의성1.5℃
  • 안개청주8.8℃
  • 맑음문경6.3℃
  • 맑음북창원9.8℃
  • 맑음창원9.7℃
  • 맑음성산12.1℃
  • 맑음흑산도12.6℃
  • 맑음북춘천1.1℃
  • 맑음포항11.6℃
  • 맑음서귀포14.1℃
  • 맑음고창군7.0℃
  • 구름조금보령6.4℃
  • 맑음태백5.6℃
  • 맑음울릉도13.5℃
  • 맑음대전9.2℃
  • 맑음안동4.3℃
  • 맑음천안4.3℃
  • 맑음양평4.7℃
  • 맑음양산시7.6℃
  • 맑음정읍8.1℃
  • 맑음진도군6.9℃
  • 맑음영덕9.5℃
  • 구름조금속초12.1℃
  • 맑음영주1.3℃
  • 맑음고산14.7℃
  • 맑음울진8.4℃
  • 맑음밀양4.7℃
  • 맑음금산5.0℃
  • 안개백령도10.2℃
  • 맑음목포11.9℃
  • 맑음산청4.8℃
  • 맑음철원6.8℃
  • 맑음영광군6.0℃
  • 맑음대관령4.1℃
  • 맑음순천3.7℃
  • 맑음북부산6.3℃
  • 맑음진주4.3℃
  • 맑음광주10.6℃
  • 맑음영천3.4℃
  • 맑음서청주8.6℃
  • 맑음세종7.6℃
  • 맑음동해8.9℃
  • 맑음원주6.4℃
  • 구름많음파주5.4℃
  • 맑음김해시8.9℃
  • 맑음통영12.2℃
  • 맑음장수3.1℃
  • 맑음영월3.5℃
  • 맑음부산12.6℃
  • 맑음부여8.6℃
  • 맑음봉화-0.7℃
  • 맑음동두천5.5℃
  • 구름조금인제2.2℃
  • 맑음전주8.6℃
  • 맑음완도12.4℃
  • 맑음강릉11.5℃
  • 맑음제주14.7℃
  • 맑음의령군3.4℃
  • 맑음광양시9.1℃
  • 구름많음강화5.6℃
  • 맑음임실4.6℃
  • 맑음고창4.7℃
  • 안개홍성7.7℃
  • 맑음보성군8.2℃
  • 맑음거창2.8℃
  • 맑음남해9.6℃
  • 맑음대구6.0℃
  • 맑음제천2.6℃
  • 안개수원6.2℃
  • 맑음합천5.3℃
  • 맑음남원6.0℃
  • 맑음보은3.3℃
  • 맑음충주4.6℃
  • 맑음고흥7.6℃
  • 구름많음서울8.9℃
  • 맑음상주9.3℃
  • 2025.11.25 (화)

바이두(Baidu), 자연언어 처리 위한 오픈소스 ERNIE 2.0 발표

김진범 / 기사승인 : 2019-07-31 11:16:25
  • -
  • +
  • 인쇄

ERNIE 2.0 모델구조

바이두(Baidu)는 지속적인 자연언어 처리를 위한 프레임워크 ERNIE 2.0을 발표했다고 30일(현지시간) Packt가 보도했다. ERNIE는 kNowledge IntEgration을 통한 Enhanced Representation의 약자이다. Baidu는 연구보고서에서 ERNIE 2.0이 BERT와 최근의 XLNet보다 중국어와 영어의 16 가지 NLP 작업에서 우위에 있다고 주장했다. 바이두는 오픈 소스 ERNIE 2.0 모델을 보유하고 있다.

3월에 바이두는 바이두의 심층적인 개방형 플랫폼인 PaddlePaddle을 기반으로한 모델인 ERNIE 1.0 출시를 발표했다. Baidu에 따르면 ERNIE1.0은 모든 중국어 이해 작업에서 BERT보다 성능이 뛰어났다고 밝혔다.

BERT, XLNet 및 ERNIE 1.0과 같은 모델의 사전교육 절차는 주로 단어 또는 문장의 동시 발생을 모델링 하는 몇가지 간단한 작업을 기반으로 하며 문서를 강조 표시한다. 예를 들어 BERT는 양방향 언어 모델작업과 다음 문장예측 작업을 구성하여 단어와 문장의 동시 발생정보를 캡처한다. XLNet은 단어의 동시 발생정보를 포착하기 위해 순열 언어모델 작업을 구성했다.

[ERNIE 2.0 연구 논문]

그러나 동시 발생하는 정보 외에도 교육 자료에는 훨씬 풍부한 어휘, 구문 및 의미가 있다. 예를 들어,사람이름, 장소이름 및 조직이름과 같은 명명된 엔터티에는 개념 정보가 들어 있다. 문장 순서 및 문장 근접정보는 모델이 구조 인식 표현을 학습 할 수있게 해준다. 문서 수준에서의 의미 론적 유사성이나 문장간의 담화 관계는 모델이 의미론적 표현을 학습 할 수 있게 한다.

이 아이디어를 바탕으로 바이두는 언어 이해를 위한 지속적인 사전 교육 프레임워크를 제안했다. 사전 학습 태스크는 지속적으로 다중 태스크 학습을 통해 점진적으로 구축되고 학습 될 수 있다. 바이두에 따르면 이 프레임워크에서 언제든지 서로 다른 사용자정의 작업을 점진적으로 도입 할 수 있으며 이러한 작업은 다중 작업 학습을 통해 수행 되므로 작업 전반에 걸쳐 어휘, 구문 및 의미 정보를 인코딩 할 수 있다. 새로운 작업이 도착할 때마다이 프레임워크는 이전에 훈련된 매개 변수를 잊지 않고 점진적으로 분산 표현을 학습 할 수 있다.

ERNIE는 개발자가 자신의 NLP 모델을 구현할 수 있는 계획을 제공하는 지속적인 사전 교육 프레임워크이다. ERNIE 2.0의 미세 조정 소스코드와 사전 교육된 영어 버전 모델은 깃허브(GitHub)페이지 에서 다운로드 할 수 있다 .

바이두 팀은 ERNIE 2.0 모델의 성능을 영어 데이터세트 GLUE 및 9 개의 인기있는 중국 데이터세트에서 별도로 기존 사전 학습 모델과 비교했다. 결과는 ERNIE 2.0 모델이 7 개의 GLUE 언어 이해 작업에서 BERT 및 XLNet보다 성능이 우수하며 DuReader Machine Reading Comprehension, Sentiment Analysis 및 Question Answering과 같은 9가지 중국어 NLP 작업 모두에서 BERT보다 우수한 것으로 나타났다.

특히, GLUE 데이터 세트의 실험 결과에 따르면 ERNIE 2.0 모델은 기본 모델이든 대형 모델이든 영어 작업에 대한 BERT 및 XLNET보다 거의 종합적으로 뛰어난 성능을 보였다. 또한 연구 보고서는 ERNIE 2.0 대형 모델이 최고의 성능을 달성하고 중국 NLP 작업에 대한 새로운 결과를 창출함을 보여주었다.

[저작권자ⓒ CWN(CHANGE WITH NEWS). 무단전재-재배포 금지]

최신기사

뉴스댓글 >

- 띄어 쓰기를 포함하여 250자 이내로 써주세요.
- 건전한 토론문화를 위해, 타인에게 불쾌감을 주는 욕설/비방/허위/명예훼손/도배 등의 댓글은 표시가 제한됩니다.

댓글 0

Today

Hot Issue