LikeSNU 서울대학교 도서관
서울대학교 빅데이터 지식정보플랫폼

전체 메뉴

AI 검색
반출리포트 생성
  • 분류
  • 리포트명
  • 그룹
  • 링크
  • 리포트 썸네일
논문 목록
논문 목록 (0건) Excel 내보내기

데이터가 존재하지 않습니다.

Protected Health Information Recognition by Fine-Tuning a Pre-training Transformer Model

저자
오서현, 강민, 이영호
학술지명
Healthcare Informatics Research
출판/발행연도
2022
요약

본 연구는 의료 문서 내 보호 건강 정보(PHI) 식별을 위해 사전 훈련된 트랜스포머 모델인 BERT, RoBERTa, XLNet의 성능을 비교했습니다. i2b2 2014 데이터셋을 사용하여 실험한 결과, XLNet이 F1 점수 96.29%로 가장 우수한 성능을 보였으며, RoBERTa와 XLNet은 BERT에 비해 30% 향상된 성능을 나타냈습니다. 이는 XLNet이 두 개의 스트림 self-attention 방식을 통해 단어 임베딩을 효과적으로 구성하고, RoBERTa와 XLNet이 BERT보다 문맥 파악에 더 효과적임을 시사합니다.

인용 논문(0)

해당 논문이 인용한 논문 목록

논문 지표

연관 콘텐츠

LikeSNU에서 의미기반으로 분석하여 연관된 자료를 추천해드립니다.

이전
다음

Word Level Language Identification in Indonesian-Javanese-English Code-Mixed Text

Hidayatullah, Ahmad Fathan; Apong, Rosyzie Anna; Lai, Daphne Teck Ching; Qazi, Atika · 2024

Procedia Computer Science

Effective Analysis of Machine and Deep Learning Methods for Diagnosing Mental Health Using Social Media Conversations

Kasanneni, Y.; Duggal, A.; Sathyaraj, R.; Raja, S.P. · 2025

IEEE Transactions on Computational Social Systems, Computational Social Systems, IEEE Transactions on, IEEE Trans. Comput. Soc. Syst.

Survey of transformers and towards ensemble learning using transformers for natural language processing

Zhang, Hongzhi; Shafiq, M. Omair · 2024

JOURNAL OF BIG DATA

이전
다음
TOP