LikeSNU 서울대학교 도서관
서울대학교 빅데이터 지식정보플랫폼

전체 메뉴

AI 검색
반출리포트 생성
  • 분류
  • 리포트명
  • 그룹
  • 링크
  • 리포트 썸네일
논문 목록
논문 목록 (0건) Excel 내보내기

데이터가 존재하지 않습니다.

Text-to-Speech for Low-Resource Agglutinative Language With Morphology-Aware Language Model Pre-Training

저자
Liu, R.; Hu, Y.; Zuo, H.; Luo, Z.; Wang, L.; Gao, G.
학술지명
IEEE/ACM Transactions on Audio, Speech, and Language Processing, Audio, Speech, and Language Processing, IEEE/ACM Transactions on, IEEE/ACM Trans. Audio Speech Lang. Process.
출판/발행연도
2024
요약

본 연구는 저자원 교착어의 텍스트 음성 변환(TTS) 성능 향상을 위해 형태소 정보를 활용한 언어 모델 사전 훈련 방법을 제안합니다. 대규모 비지도 텍스트 데이터를 활용하여 BERT 기반 언어 모델을 사전 훈련하고, 이를 통해 TTS 모델의 입력 텍스트에서 심층적인 언어 정보를 추출하여 합성 음성의 자연스러움을 개선합니다. 실험 결과, 제안하는 MAM-BERT 모델이 다양한 TTS 모델에서 효과적인 성능 향상을 보였으며, 특히 저자원 환경에서 유용함을 확인했습니다.

학술지 영향력
[IEEE/ACM Transactions on Audio, Speech, and Language Processing, Audio, Speech, and Language Processing, IEEE/ACM Transactions on, IEEE/ACM Trans. Audio Speech Lang. Process.]
CiteScore
12.4
ES
0.00915
JCI
1.54
JCR
5.1
SJR
1.061

인용 논문(0)

해당 논문이 인용한 논문 목록

논문 지표

연관 콘텐츠

LikeSNU에서 의미기반으로 분석하여 연관된 자료를 추천해드립니다.

이전
다음
이전
다음
이전
다음
TOP