About GECE
Project
Facility
Network
GECE News
· Kobert : 영어 약 33억개의 단어로 사전학습시킨 번역 모델인 Bert를 한국어에 사용할 수 있도록 만든 모델
· 학습된 kobert에 data를 이용하여 목적에 따라 파인튜닝을 하여 새로운 model 생성
· 상황에 따른 사자성어를 예측하는 model 생성
서울대학교 농명생명과학대학 산림과학부 이한나