최근 확인한 콘텐츠
데이터가 존재하지 않습니다.
데이터가 존재하지 않습니다.
loading...
본 연구는 문장 내 단어가 전달하는 정보량을 추정하는 LSTM 기반 언어 모델을 구축하고, 놀라움 및 엔트로피 감소와 같은 정보 이론적 측정이 읽기 시간에 예측되는지 조사합니다. 한국인 영어 학습자를 대상으로 수집된 읽기 시간과 정보 이론적 측정값 간의 비교 결과, 놀라움/엔트로피 감소와 읽기 시간 사이에 유의미한 관계가 밝혀졌습니다.
딥러닝 초보자를 위한 엔비디아 가이드북 : 엔비디아 현업 아키텍트가 저술한 검증된 딥러닝 입문서
Patterns and meanings of intensifiers in Chinese learner corpora
Time-constrained memory : a reader-based approach to text comprehension
Quantitative data analysis for language assessment
Metacognitive and Cognitive Strategy Use in Reading Comprehension : A Structural Equation Modelling Approach
Information theoretic learning : Renyi's entropy and kernel perspectives
Database Systems for Advanced Applications : 24th International Conference, DASFAA 2019, Chiang Mai, Thailand, April 22–25, 2019, Proceedings, Part II
Mechanisms of implicit learning : connectionist models of sequence processing
Joint models for longitudinal and time-to-event data : with applications in R
Joint models for longitudinal and time-to-event data : with applications in R
Grammatical inference : learning syntax from sentences : Third International Colloquium, ICGI-96, Montpellier, France, September 25-27, 1996 : proceedings
음성과 언어 처리 : 2e : 기계는 어떻게 사람의 말을 이해할까?
Advances in intelligent data analysis : third international symposium, IDA-99, Amsterdam, The Netherlands, August 1999 : proceedings
Applications of Machine Learning
Cognitive modeling of human memory and learning : a non-invasive brain-computer interfacing approach
Learning and memory in normal aging
Understanding language understanding : computational models of reading
New methods in reading comprehension research
Connectionist, statistical, and symbolic approaches to learning for natural language processing
Deep learning for hydrometerology and environmental science
한국컴퓨터정보학회논문지
김유희Transactions of the Association for Computational Linguistics
Wilcox E.G.,Pimentel T.,Meister C.,Cotterell R.,Levy R.P.한국컴퓨터정보학회논문지
김유희언어연구
김유희, 박명관, 서혜진Cognitive science
Lowder MW; Choi W; Ferreira F; Henderson JMCognitive Science
Matthew Lowder; Wonil Choi; Fernanda Ferreira; John HendersonBrain and language
Frank SL; Otten LJ; Galli G; Vigliocco GACM Transactions on Knowledge Discovery from Data
Huimei H.A.N.,Xingquan Z.H.U.,Ying L.I.International Journal of Information Technology (Singapore)
Meshram S.,Anand Kumar M.Fractals
LINYU LI; XIAOYU LUOASIAN CONFERENCE ON MACHINE LEARNING, VOL 101
Choi, Jihun; Kim, Taeuk; Lee, Sang-gooIEEE/ACM Transactions on Audio Speech and Language Processing
Gupta A.,Zhang Z.Fractals
Li L.,Luo X.Journal of Computer Science and Technology
Hu, Fei; Li, Li; Zhang, Zi-Li; Wang, Jing-Yuan; Xu, Xiao-FeiCognitive science
Chen Z; Hale JT한국컴퓨터정보학회논문지
김유희Journal of King Saud University - Computer and Information Sciences
Wangchuk K.,Riyamongkol P.,Waranusast R.Journal of Signal Processing Systems: for Signal, Image, and Video Technology(formerly the Journal of VLSI Signal Processing Systems for Signal, Image, and Video Technology)
Xu, Chenglin; Xie, Lei; Xiao, XiongIEEE Transactions on Neural Networks and Learning Systems
Shuang K.,Li R.,Gu M.,Loo J.,Su S.Cognitive science
전선 / 학사
본 강좌는 예비영어교사들에게 <컴퓨터를 활용한 언어학습 (CALL)>의 원리를 중등학교 영어교육방법의 실제에 활용하는 기회를 제공한다. 학생들은 영어교육 공학기법을 탐구하여, 영어교육방법의 기본적 바탕을 익힌다.전선 / 대학원
데이터사이언스와 관련한 여러 분야의 최근의 국내외 연구동향을 소개한다. 강의와 세미나를 통하여 관련분야의 최신 방법론과 특정 주제를 심도 있게 습득할 수 있도록 한다.전선 / 대학원
인지과학 연습 1의 내용을 보다 확장하여 인지과학의 연구사, 연구주제등을 다각도로 검토하여 과정에 진입한 학생들에게 인지과학의 기초적 지식배경을 제공하는데 목적이 있다.전선 / 학사
본 강좌에서는 코퍼스 언어학의 내용을 기반으로 모국어로 혹은 제2 언어나 외국어로 한국어를 학습하는 학습자의 언어 자료를 사용하여 (한)국어 교육에 활용하는 방안에 대해 고찰하고자 한다. 이를 위해 학생들은 코퍼스의 개념과 유형을 한국어 코퍼스와 연관 지어 살펴보고, 콘코던스 프로그램을 통한 한국어 코퍼스 검색 및 분석에 관련된 실제적 지식을 함양한다. 나아가 한국어 코퍼스를 어휘 교육, 문법 교육, 담화 교육, 교과서 분석 등에 활용하는 구체적 방안에 대해서도 탐구한다. 본 강좌를 통해 학생들은 한국어 코퍼스를 (한)국어 교육 현장의 필요에 따라 효과적으로 활용할 수 있는 교수 역랑을 기를 수 있다.전선 / 대학원
이 강좌는 실험심리학에서 최근의 중요 연구들을 소개하고 인간 마음의 기본 원리를 탐색 및 논의하는 세미나이다. 우선 강의 초에 인간의 생리, 지각 및 인지 수준에서 일반이론을 소개하고 그 문제점들을 알아본다. 이 이론들에 기초하여, 이 강좌에서는 시각, 주의, 언어, 문제 해결, 인간 추리 등의 세부 주세를 다룬다. 또한 이 강좌에서는 이런 주제들에 관해 실험 실습을 통해 학생들의 구체적인 이해의 증진을 시도한다.전선 / 대학원
영어의 통사구조, 음운구조, 의미구조, 기타 영어학분야의 주제ㅐ를 선택하여 이를 집중적으로 연구한다.전선 / 학사
본 강좌에서는 정보이론과 그 응용을 다룬다. 우선 엔트로피의 정의와 개념을 다루고, 연속확률변수 상황의 differential entropy, relative entropy, mutual information으로 개념을 확장한다. 그 응용으로 무손실 압축방법론을 다루고, 정보 전달량의 한계치를 분석한다. 또한 유손실 압축이론을 소개하며, JPEG 및 MPEG 등의 응용사례를 다룬다. 통신이론에서 채널 용량 한계에서의 통신, Shannon 엔트로피, rate distortion, Huffman 코딩, 랜덤 코딩 등을 다루며, 통신시스템 및 머신러닝 (AI)으로의 응용도 다룬다.전선 / 대학원
본 교과목은 오늘날 인공지능의 중심을 이루는 거대언어모델(Large Language Models)과 이를 기반으로 한 대화형 인공지능을 다룬다. 특히 거대언어모델의 학습부터 응용까지 이어지는 전체 파이프라인을 아래와 같이 체계적으로 다룬다. (1) Pre-training: 지식 습득을 위한 사전학습(Transformer, BERT, GPTs) (2) Supervised Fine-tuning: 상호작용 학습(Dialogue Fine-tuning, Instruction Tuning, Reasoning) (3) Alignment: 인간 가치와의 정렬(RLHF, DPO, KTO 등) 및 언어모델 해석 기법(AI Psychometrics, Mechanistic Interpretability) (4) Grounding: 외부 데이터 및 도구 활용 기법(페르소나, 문서, 이미지, 지식 그래프, 도구 증강 에이전트) (5) Applications: 다양한 도메인으로의 응용(대화 시뮬레이션 및 심리상담·교육·설득 응용) 수업에서는 각 연구 주제별로 핵심 논문들의 아이디어, 데이터, 방법론 등을 강의한다. 실습으로는 언어모델 학습, 언어모델 API를 이용한 대화 시스템 구현, 대화형 인공지능과 관련된 작은 연구 프로젝트를 수행한다. 이 과목을 통해 수강생들은 거대언어모델 연구 동향을 큰 틀에서 파악하고, 핵심적인 연구 주제들과 방법론을 이해하며, 이를 실제 연구에 적용하는 능력을 기르게 된다.전선 / 대학원
본 교과목은 고급데이터마이닝 방법론(326.637) 과목에 이어 심층학습모형에 중점을 둔다. 교육 목표는 심층학습(deep learning)의 방법들을 공부하고 관련된 통계적 문제를 찾아내는 것이다. 다루는 내용은 다음과 같다. 심층학습 이전의 특징 추출 및 판별 분석 기법, 기계학습에서 사용되는 이론적인 도구들, 인공신경망의 기초, 다층 퍼셉트론, 역전파, 합성곱 신경망, 최적화와 정칙화, 가시화, 파이톤과 심층학습 프레임워크, 순환 신경망, 변분적 추론, 적대적 생성 네트워크, 영상 분할 및 검출, 자연어 처리 등이다.전선 / 대학원
산업공학의 새로운 기법들을 소개하고 이의 응용실태를 알아본다.전선 / 대학원
기계학습의 기초, AI 시스템의 평가, 윤리적 /법적 측면과 함의를 교육분야의 적용 사례를 통해 살펴보고, 전통적 과학교수학습이론과 평가이론과의 접목을 논의하면서 인공지능 및 언택트 시대의 과학교수학습과 평가에 대한 조망 및 새로운 연구분야에 대한 이해를 높인다.전선 / 대학원
본 교과목은 고급데이터마이닝 방법론(326.637) 과목에 이어 심층학습모형에 중점을 둔다. 교육 목표는 심층학습(deep learning)의 방법들을 공부하고 관련된 통계적 문제를 찾아내는 것이다. 다루는 내용은 다음과 같다. 심층학습 이전의 특징 추출 및 판별 분석 기법, 기계학습에서 사용되는 이론적인 도구들, 인공신경망의 기초, 다층 퍼셉트론, 역전파, 합성곱 신경망, 최적화와 정칙화, 가시화, 파이톤과 심층학습 프레임워크, 순환 신경망, 변분적 추론, 적대적 생성 네트워크, 영상 분할 및 검출, 자연어 처리 등이다.전선 / 학사
본 강의에서는 다양한 산업에서 발생하는 텍스트 데이터에 대한 이해와 함께, 이에 대한 분석 기법들을 학습하는 것을 목적으로 한다. 크게 텍스트 데이터의 이해, 텍스트 데이터의 전처리 및 표상화, 언어 모델의 구조 이해, 그리고 텍스트 데이터의 응용 과업 등의 네 가지 파트로 구성하여 강의를 진행한다. 텍스트 데이터의 이해 파트에서는 제조업, 마케팅, 금융 등의 비즈니스에서 발생하는 텍스트 데이터의 특징과 이에 대한 활용 사례를 주로 다룬다. 텍스트 데이터의 전처리 및 표상화 파트에서는 전통적인 bag-of-words 방식을 포함하여, word2vec, GloVe, Fasttext와 같은 신경망 기반의 텍스트 표상화 방법을 강의한다. 언어모델의 구조 이해 파트에서는 Seqence-to-sequence Learning과 Transformer 구조에 대한 이해를 바탕으로 BERT 및 GPT 등의 대표적인 언어모델 구조를 강의한다. 마지막으로 텍스트 데이터의 응용 과업 파트에서는 감성 분석, 문서 요약, 질의 응답 등의 실제 비즈니스에서 자주 사용되는 텍스트 데이터 분석 과업을 소개하고 이를 해결하기 위한 적절한 방법론을 강의한다.전필 / 학사
첨단융합학부 학생의 전공탐색을 위한 과목으로, 융합데이터과학의 핵심 개념과 다양한 응용 분야를 소개하여 향후 전공선택에 필요한 필수적인 정보를 제공한다. 특히, 융합데이터과학 분야에서 진행되는 첨단연구와 연구의 실제 응용 사례를 직접 체험하여, 자신의 전공 적성을 좀 더 구체적으로 알아보고 설계할 수 있는 기회를 제공한다.전선 / 대학원
이 과목은 보건의료 영역에서 컴퓨터를 활용한 텍스트 분석을 다룬다. 보건의료 영역에는 여러 종류의 언어 자료가 존재한다. 사람들이 온라인 공간에서 여러 질병에 대해 던지는 질문들, 보건의료 전문가들의 연구들, 질병과 건강에 대한 신문기사들이 그 예다. 이들로부터 정보를 체계적이고 과학적으로 추출할 수 있다면, 보건의료에서 다양한 방식으로 활용할 수 있다. 최근 많이 사용되고 있는 컴퓨터를 활용한 텍스트 분석은 이런 작업에 새로운 가능성을 제시한다. 본 과목에서는 여러 가지 컴퓨터를 활용한 텍스트 분석 방법을 학습하고, 보건의료 영역 자료에 적용하는 것을 실습한다.전선 / 대학원
영어교육과 관련된 제반 이론과 최신 이론들에 대한 심도 있는 연구와 영어교육에 관한 이론적, 방법적 모형을 개발한다.전선 / 대학원
이 강좌에서는 외국어로서의 한국어교육의 교육과정과 관련된 여러 요인들과 각 요인들의 상호작용, 그리고 한국어교육과정 개발과 운영 등에 대하여 심도 있는 탐구를 진행하게 된다. 특히 한국어 교육내용의 선정과 위계화, 내용 체계의 조직 의 원리 등을 언어 요인, 문화 요인과 결부시켜 집중적으로 논구하게 된다.전선 / 대학원
한국어교육에서 기본적으로 필요한 것은 학습자의 모어와 한국어를 대조분석하여 이를 바탕으로 언어간섭현상을 최소화하고 학습의 효과를 극대화하는 것이다. 이 강좌에서는 한국어와 주요 외국어를 대조분석하여 음운론적, 문법론적, 의미론적, 화용론적 층위에서 공통점과 차이점을 추출하는 과정에서 오류를 분석해냄으로써 효과적인 한국어교육의 기초로 삼는다.전선 / 대학원
기계학습은 다양한 분야에서 점차 큰 관심을 받고 있으나, 막상 실제 데이터에 적용하여 성공적인 결과를 도출하는 데에는 많은 어려움이 따른다. 본 과목은 기계학습 기법들을 실제 문제에 적용할 때에 중요한 데이터 전처리, 피쳐 추출, 차원 축소, 클래스 불균형, 모델 앙상블 등의 주제들을 다루고, 데이터로부터 모형과 종속성을 학습하는 원리와 기법들을 소개하는 바, 특히 확률, 통계 및 최적화 이론에 기반하여 신경망 (Neural Networks), 서포트 벡터 머신 (Support Vector Machines), 은닉 마르코프 모형 (Hidden Markov Models) 및 강화 학습 (Reinforcement Learning) 기법들을 공부한다. 또한, 이들 기법을 활용하여, 다양한 시계열 데이터들을 대상으로 예측 및 분류 모델을 구현하는 프로젝트들과 데이터 기반 학습의 사례 연구들이 포함된다.전선 / 대학원
대형언어모델(Large Language Model, LLM)은 수억 이상 파라미터를 갖는 인공신경망으로 구성된 언어모델이다. 자기지도학습이나 반자기지도학습을 사용하여 레이블링 되지 않은 대규모 텍스트로 훈련된다. 토큰화, 트랜스포머 모델, 프롬프트 엔지니어링, 파인 튜닝 등으로 구성된다. Neural Network, CNN, RNN, LSTM, 어텐션, 트랜스포머, RLHF, 프롬프트 엔지니어링, 파인튜닝, RAG 등을 다룬다. LLM 이론을 기초부터 완성 단계까지 학습한다. LLM를 소규모로 직접 사전학습모델을 구현한다. 사전학습된 모델을 기반으로 프롬프트 엔지니어링, 파인튜닝, RAG를 통하여 성능을 향상시키는 것을 구현한다.