Korean Document Extraction Summary AI Competition

Algorithm | NLP | Abstractive text summarization | language | ROUGE-N

  • moneyIcon Prize : Total 1,000만원
  • 1,220 Users Completed

 

[Dacon 답변 요청] Pretrained weight 정보 확인

2020.11.24 14:24 3,681 Views

안녕하세요. 사전학습 모델 파라미터로 etri-bert, skt-bert, skt-gpt가 있는데 아래 링크의 데이터가 맞는 지 확인 부탁드립니다.


skt-bert: https://github.com/SKTBrain/KoBERT

skt-gpt: https://github.com/SKT-AI/KoGPT2

etri-bert: http://aiopen.etri.re.kr/service_dataset.php


위 세 모델외의 원래 버트 모델 파라미터들(bert-base-uncase, bert-large-uncase)역시 사용 불가능한 것이 맞을까요?


감사합니다.

Login Required
0 / 1000
DACONIO
2021.12.22 14:19

안녕하세요 작성자님.

글에서 언급해주신 3개의 링크의 모델만 사용이 가능합니다.

감사합니다.
데이콘 드림.

Ynot
2020.11.24 14:28

빠른 답변 감사합니다.