LikeSNU는 서울대 중앙도서관이 체계적으로 수집/분석한
서울대 구성원의 지식 빅데이터(도서 대출, 논문, 학사, 강의, 수업 계획서) 기반 지식정보 플랫폼 입니다.
페이지 (1/7)
더보기페이지 (1/393)
더보기Robert de Mello Koch; Christopher Mathwin; Hendrik J.R. van Zyl
Journal of High Energy Physics, 2016
Springer Berlin Heidelberg / de Mello Koch, Robert; Mathwin, Christopher; van Zyl, Hendrik J. R.
Journal of High Energy Physics, 2016
Springer Science and Business Media LLC, 2016. / de Mello Koch, R.; Mathwin, C.; Van Zyl, H.J.R.
Journal of High Energy Physics, 2016
Pele D.T.,Bolovăneanu V.,Lin M.B.,Ren R.,Ginavar A.T.,Spilak B.,Andrei A.V.,Toma F.M.,Lessmann S.,Härdle W.K.
Expert Systems with Applications, 2026
ASSOC COMPUTING MACHINERY / Wang, Xinru; Kim, Hannah; Rahman, Sajjadur; Mitra, Kushan; Miao, Zhengjie
PROCEEDINGS OF THE 2024 CHI CONFERENCE ON HUMAN FACTORS IN COMPUTING SYTEMS, CHI 2024, 2024
페이지 (1/2)
더보기대학원 / 전선
본 교과목은 단순히 기존의 가속기를 활용하는 수준을 넘어, 차세대 AI 반도체 분야의 창업 및 핵심 개발에 필요한 맞춤형 AI 추론 엔진 개발 능력을 배양하는 것을 목표로 한다. 이를 위해 최첨단 설계 방법론인‘알고리즘-소프트웨어-하드웨어 통합 설계(Co-design)'에 대한 깊이 있는 이론과 실전 경험을 제공한다. 수강생들은 GPU와 같은 범용 하드웨어의 한계를 이해하고, 특정 LLM 알고리즘에 최적화된 하드웨어를 직접 설계함으로써 전력, 비용, 속도 측면에서 압도적인 경쟁력을 갖춘 엣지 AI 솔루션을 구현하는 방법을 학습한다. 특히, 최신 경량화 기술인 저비트 양자화(Low-bit Quantization) 기법을 알고리즘 단계에서 적용하고, 이를 C++ 기반의 고수준 합성(High-Level Synthesis, HLS)을 통해 FPGA 상에 하드웨어 로직으로 구현하는 전 과정을 실습한다. 최종적으로는 SoC(System on Chip) 환경에서 프로세서(PS)와 프로그래머블 로직(PL)을 연동하여 완전한 LLM 추론 가속 시스템을 구축하는 프로젝트를 통해, 아이디어를 실제 하드웨어 프로토타입으로 구현하는 역량을 완성한다.대학원 / 전선
본 교과목은 단순히 기존의 가속기를 활용하는 수준을 넘어, 차세대 AI 반도체 분야의 창업 및 핵심 개발에 필요한 맞춤형 AI 추론 엔진 개발 능력을 배양하는 것을 목표로 한다. 이를 위해 최첨단 설계 방법론인‘알고리즘-소프트웨어-하드웨어 통합 설계(Co-design)'에 대한 깊이 있는 이론과 실전 경험을 제공한다. 수강생들은 GPU와 같은 범용 하드웨어의 한계를 이해하고, 특정 LLM 알고리즘에 최적화된 하드웨어를 직접 설계함으로써 전력, 비용, 속도 측면에서 압도적인 경쟁력을 갖춘 엣지 AI 솔루션을 구현하는 방법을 학습한다. 특히, 최신 경량화 기술인 저비트 양자화(Low-bit Quantization) 기법을 알고리즘 단계에서 적용하고, 이를 C++ 기반의 고수준 합성(High-Level Synthesis, HLS)을 통해 FPGA 상에 하드웨어 로직으로 구현하는 전 과정을 실습한다. 최종적으로는 SoC(System on Chip) 환경에서 프로세서(PS)와 프로그래머블 로직(PL)을 연동하여 완전한 LLM 추론 가속 시스템을 구축하는 프로젝트를 통해, 아이디어를 실제 하드웨어 프로토타입으로 구현하는 역량을 완성한다.대학원 / 전선
이 과목은 대규모 언어모델(Large Language Model; 이하 LLM)이 언어 연구 방법론에 가져온 주요 변화를 중심으로 자연어처리의 이론적 기반과 방법론을 학습하고, LLM의 본질적 특성을 이해함으로써 LLM을 활용한 새로운 언어 연구 방법을 탐색하는 것을 목적으로 한다. 이를 위해 프롬프트 학습, 파인튜닝, 다언어 모델, 텍스트 생성 및 멀티모달 모델 등 최신 자연어처리 기술을 살피고, 구문, 의미, 담화, 정서 분석 등 언어학의 주요 연구 영역을 전통적 접근과 LLM 기반 접근으로 비교한다. 또한, LLM의 언어능력, 의미 이해, 화용론적 한계에 관한 학문적 논쟁을 검토하여 언어 연구에서의 가능성과 제약을 비판적으로 고찰한다. 이를 통해 LLM 시대에 적합한 새로운 언어 연구 방법론을 습득하고, 인간의 언어 능력과 기계의 언어 처리의 차이에 대해 성찰할 수 있는 소양을 기를 수 있다.대학원 / 전선
대형언어모델(Large Language Model, LLM)은 수억 이상 파라미터를 갖는 인공신경망으로 구성된 언어모델이다. 자기지도학습이나 반자기지도학습을 사용하여 레이블링 되지 않은 대규모 텍스트로 훈련된다. 토큰화, 트랜스포머 모델, 프롬프트 엔지니어링, 파인 튜닝 등으로 구성된다. Neural Network, CNN, RNN, LSTM, 어텐션, 트랜스포머, RLHF, 프롬프트 엔지니어링, 파인튜닝, RAG 등을 다룬다. LLM 이론을 기초부터 완성 단계까지 학습한다. LLM를 소규모로 직접 사전학습모델을 구현한다. 사전학습된 모델을 기반으로 프롬프트 엔지니어링, 파인튜닝, RAG를 통하여 성능을 향상시키는 것을 구현한다.대학원 / 전선
본 교과목은 단순한 질의응답을 넘어, 스스로 목표를 설정하고, 도구를 사용하며, 복잡한 과업을 자율적으로 수행하는 ‘에이전트(Agentic)' AI의 설계 원리와 구현 방법론을 심층적으로 다룬다. 기존의 LLM(Large Language Model)이 가진 한계를 극복하고, LLM을 ‘추론 엔진'으로 활용하여 실제 세계와 상호작용하는 지능형 시스템을 구축하는 데 초점을 둔다. 수강생들은 단일 에이전트의 핵심 구성 요소인 사고-행동-관찰(Reasoning-Acting-Observation) 루프, 동적 도구 사용(Tool Use), 장단기 기억(Memory) 메커니즘을 학습한다. 나아가 여러 에이전트가 협력하여 인간의 개입을 최소화하면서 복잡한 문제를 해결하는 멀티 에이전트 시스템(Multi-Agent System)의 설계 패턴(예: 계층적, 협력적)과 통신 프로토콜을 배운다. LangChain, AutoGen, CrewAI와 같은 최신 프레임 워크를 활용한 실습을 통해, 에이전트 아키텍처 설계부터 정교한 프롬프트 체이닝, 실행 루프 구현까지의 전 과정을 경험하며, 차세대 AI 애플리케이션을 개발할 수 있는 실전 역량을 배양하는 것을 목표로 한다.페이지 (1/0)
더보기검색결과가 존재하지 않습니다.
페이지 (1/0)
더보기검색결과가 존재하지 않습니다.
페이지 (1/0)
더보기검색결과가 존재하지 않습니다.
'LLM' 에 대해 도서 결과가 65건 있습니다.
'LLM' 에 대해 논문 결과가 3,930건 있습니다.
'LLM' 에 대해 강의 결과가 14건 있습니다.
'LLM' 에 대해 서울대 연구자 결과가 0건 있습니다.