최근 확인한 콘텐츠
데이터가 존재하지 않습니다.
데이터가 존재하지 않습니다.
loading...
본 논문은 SPECK, SIMON, SIMECK 경량블록암호를 GPU 기반으로 병렬 처리하여 암호화 성능을 향상시키는 방법을 제시한다. NVIDIA CUDA 라이브러리와 PTX를 활용하여 불필요한 연산을 제거하고 성능을 극대화했으며, CPU 기반 구현 대비 빠른 속도로 대용량 암호화를 수행할 수 있음을 확인했다. PTX를 사용한 GPU 구현이 C 언어 기반 구현보다 더 높은 성능을 보였다.
대규모 병렬 프로세서 프로그래밍 : CUDA를 이용한 실용적 접근
CUDA 병렬 프로그래밍 : 고성능 GPGPU를 이용한 NVIDIA 병렬 컴퓨팅 아키텍처 CUDA
Programming massively parallel processors : a hands-on approach
SIMD 병렬 프로그래밍 : SSE, AVX를 이용한 고속 프로그래밍
예제로 배우는 CUDA 프로그래밍 : 입문자를 위한 GPGPU 프로그래밍의 기초
Professional CUDA C programming
CUDA programming : a developer's guide to parallel computing with GPUs
CUDA 기반 GPU 병렬 처리 프로그래밍 : 기초부터 성능 최적화 전략까지
Programming massively parallel processors : a hands-on approach
C++ AMP : Visual C++와 GPGPU를 이용한 대규모 병렬 프로그래밍
Accelerating MATLAB® performance : 1001 tips to speed up MATLAB programs
Computer organization and design : the hardwaresoftware interface
Numerical computations with GPUs
컴퓨터 구조 및 설계 : 하드웨어소프트웨어 인터페이스 ARM 버전
Gpgpu programming for games and science
(머신러닝과 블록체인을 떠받치는) GPU의 모든 기술
Cryptographic hardware and embedded systems : First International Workshop, CHES '99, Worchester, MA, USA, August 1999 : proceedings
(실무자를 위한) C++ AMP 핵심 노트
IEEE Access
Choi H.,Seo S.C.IEEE Latin America Transactions
Silva, Vinicius O; Martins, Carlos A P S; Ekel, Petr YIEEE Transactions on Computers, Computers, IEEE Transactions on, IEEE Trans. Comput.
Wang, W.; Hu, Y.; Chen, L.; Huang, X.; Sunar, B.JIPS(Journal of Information Processing Systems)
Sangpil Lee, Deokho Kim, Jaeyoung Yi, 노원우Cluster Computing
Wai-Kong Lee; Hon-Sang Cheong; Raphael C.-W. Phan; Bok-Min Goi정보보호학회논문지
염용진, 조용국IEEE Access
Choi H.,Seo S.C.IETE Journal of Research
Lee, W. K.; Phan, Raphael C.-W.; Goi, B. M.Programming and Computer Software
Krasnov, M. M.; Feodoritova, O. B.Journal of Supercomputing
Fanfakh A.,Noura H.,Couturier R.한국정보기술학회논문지
변진영; 이기영Applied Sciences (Switzerland)
An S.W.,Seo S.C.Journal of Information and Communication Convergence Engineering
Seog Chung Seo; DongCheon KimThe European Physical Journal B: Condensed Matter and Complex Systems
Bernaschi, Massimo; Bisson, Mauro; Fatica, Massimiliano한국정보기술학회논문지
안혜선, 박제원, 최재현, 이남용Journal of Supercomputing
Ruiz de Miras J.Automatic Control and Computer Sciences
Sukhoparov, M.E.; Lebedev, I.S.Circuits and Systems I: Regular Papers, IEEE Transactions on
Kim, DongCheon; Choi, HoJin; Seo, Seog Chung한국차세대컴퓨팅학회 논문지
윤민, 한태윤, 이문규, 오희국정보보호학회논문지
박무규, 윤지원전선 / 대학원
현재 인공지능 처리를 담당하는 프로세서의 병렬처리 능력이 인공지능 성능을 결정하는 핵심 요건으로 부상하였다. 그러나 이런 특성은 현재 널리 사용되는 범용 CPU의 구조에 적합하지 않다. 따라서 인공지능 전용 프로세서의 개발 및 활용을 위한 다양한 접근이 이루어지고 있다. GPU는 인공지능 알고리즘을 효율적으로 처리할 수 있기 때문에 현재 가장 주목받는 인공지능 프로세서이다. 또 ASIC을 활용하거나 용도에 맞게 하드웨어를 재구성할 수 있는 FPGA을 기반으로 맞춤형 인공지능 프로세서를 만들려는 움직임도 늘고 있다. 본 과목은 이러한 인공지능을 위한 프로세서의 구조를 다룬다. 범용 프로세서 구조를 기본으로 GPU의 구조, ASIC 및 FPGA을 활용한 인공지능 프로세서의 구조와 특성에 대하여 배운다.전선 / 대학원
현재 인공지능 처리를 담당하는 프로세서의 병렬처리 능력이 인공지능 성능을 결정하는 핵심 요건으로 부상하였다. 그러나 이런 특성은 현재 널리 사용되는 범용 CPU의 구조에 적합하지 않다. 따라서 인공지능 전용 프로세서의 개발 및 활용을 위한 다양한 접근이 이루어지고 있다. GPU는 인공지능 알고리즘을 효율적으로 처리할 수 있기 때문에 현재 가장 주목받는 인공지능 프로세서이다. 또 ASIC을 활용하거나 용도에 맞게 하드웨어를 재구성할 수 있는 FPGA을 기반으로 맞춤형 인공지능 프로세서를 만들려는 움직임도 늘고 있다. 본 과목은 이러한 인공지능을 위한 프로세서의 구조를 다룬다. 범용 프로세서 구조를 기본으로 GPU의 구조, ASIC 및 FPGA을 활용한 인공지능 프로세서의 구조와 특성에 대하여 배운다.전선 / 대학원
본 교과목은 단순히 기존의 가속기를 활용하는 수준을 넘어, 차세대 AI 반도체 분야의 창업 및 핵심 개발에 필요한 맞춤형 AI 추론 엔진 개발 능력을 배양하는 것을 목표로 한다. 이를 위해 최첨단 설계 방법론인‘알고리즘-소프트웨어-하드웨어 통합 설계(Co-design)'에 대한 깊이 있는 이론과 실전 경험을 제공한다. 수강생들은 GPU와 같은 범용 하드웨어의 한계를 이해하고, 특정 LLM 알고리즘에 최적화된 하드웨어를 직접 설계함으로써 전력, 비용, 속도 측면에서 압도적인 경쟁력을 갖춘 엣지 AI 솔루션을 구현하는 방법을 학습한다. 특히, 최신 경량화 기술인 저비트 양자화(Low-bit Quantization) 기법을 알고리즘 단계에서 적용하고, 이를 C++ 기반의 고수준 합성(High-Level Synthesis, HLS)을 통해 FPGA 상에 하드웨어 로직으로 구현하는 전 과정을 실습한다. 최종적으로는 SoC(System on Chip) 환경에서 프로세서(PS)와 프로그래머블 로직(PL)을 연동하여 완전한 LLM 추론 가속 시스템을 구축하는 프로젝트를 통해, 아이디어를 실제 하드웨어 프로토타입으로 구현하는 역량을 완성한다.전선 / 대학원
본 교과목은 단순히 기존의 가속기를 활용하는 수준을 넘어, 차세대 AI 반도체 분야의 창업 및 핵심 개발에 필요한 맞춤형 AI 추론 엔진 개발 능력을 배양하는 것을 목표로 한다. 이를 위해 최첨단 설계 방법론인‘알고리즘-소프트웨어-하드웨어 통합 설계(Co-design)'에 대한 깊이 있는 이론과 실전 경험을 제공한다. 수강생들은 GPU와 같은 범용 하드웨어의 한계를 이해하고, 특정 LLM 알고리즘에 최적화된 하드웨어를 직접 설계함으로써 전력, 비용, 속도 측면에서 압도적인 경쟁력을 갖춘 엣지 AI 솔루션을 구현하는 방법을 학습한다. 특히, 최신 경량화 기술인 저비트 양자화(Low-bit Quantization) 기법을 알고리즘 단계에서 적용하고, 이를 C++ 기반의 고수준 합성(High-Level Synthesis, HLS)을 통해 FPGA 상에 하드웨어 로직으로 구현하는 전 과정을 실습한다. 최종적으로는 SoC(System on Chip) 환경에서 프로세서(PS)와 프로그래머블 로직(PL)을 연동하여 완전한 LLM 추론 가속 시스템을 구축하는 프로젝트를 통해, 아이디어를 실제 하드웨어 프로토타입으로 구현하는 역량을 완성한다.전선 / 학사
실생활에서 접할 수 있는 다양한 전자제품을 분해, 분석 또는 조립하여 그 안에 탑재된 반도체 부품의 동작 원리, 회로 설계, 적용 사례를 배운다. 비전공자들도 이해하기 쉬운 실습 위주의 교과 과정으로, 초반부에서는 기초 원리의 강의와 실제 제품의 분석 위주로 진행하고, 후반부에서는 회로 변경, 제품의 심화 분석, 완전 재설계 등의 개별 프로젝트를 학생 개인 또는 팀 단위로 수행한다. 실제 제품을 통하여 반도체 지식과 논리적 사고 방법을 배양하는 것이 이 과정의 목표이다. 대상 전자제품과 프로젝트의 주제는 매 학기 변경될 수 있으니 강의 계획서의 참조가 필요하다.전선 / 학사
본 과정에서는 인공지능에 대한 개요 및 deep learning에 대해 이해하며 TensorFlow 개념 및 기초 programming 실습을 진행한다. 그리고 Deep Learning 기반 Object Detection 방법과 무인점포 개발 응용을 위한 학습 trainset 자동 생성 방법을 실습을 통해 익힌다. 또한 AI Chip이 내장된 NPU 가속기 Board와 nVidia Jetson TX2 Board를 이용하여 YOLO V3 Object Detection 실습을 진행한다. 마지막으로 nVidia CUDA를 이용한 GPU Programming 개념 및 병렬 Programming 실습을 통해 GPU 구조에 대해 배운다.전선 / 학사
본 과정에서는 인공지능에 대한 개요 및 deep learning에 대해 이해하며 TensorFlow 개념 및 기초 programming 실습을 진행한다. 그리고 Deep Learning 기반 Object Detection 방법과 무인점포 개발 응용을 위한 학습 trainset 자동 생성 방법을 실습을 통해 익힌다. 또한 AI Chip이 내장된 NPU 가속기 Board와 nVidia Jetson TX2 Board를 이용하여 YOLO V3 Object Detection 실습을 진행한다. 마지막으로 nVidia CUDA를 이용한 GPU Programming 개념 및 병렬 Programming 실습을 통해 GPU 구조에 대해 배운다.전선 / 대학원
컴퓨터를 설계하는 데 필요한 공학적 방법론, 설계기법, 무결함 검증방법, 기술동향, 성능평가 방법을 익힌다. 구체적으로 다루어지는 내용은 파이프라인 형태의 명령어 실행 방법, 명령어 수준의 병렬성, 메모리 계층구조, 입출력 시스템, 다중처리기, GPU 및 가속기 아키텍처 등이다.전선 / 대학원
컴퓨터를 설계하는 데 필요한 공학적 방법론, 설계기법, 무결함 검증방법, 기술동향, 성능평가 방법을 익힌다. 구체적으로 다루어지는 내용은 파이프라인 형태의 명령어 실행 방법, 명령어 수준의 병렬성, 메모리 계층구조, 입출력 시스템, 다중처리기, GPU 및 가속기 아키텍처 등이다.전선 / 대학원
이 교과목은 대학원생들을 대상으로, 현재 사용되고 있는 최신 암호 알고리즘을 설명한다. 이 과목은 다음과 같이 두 부분으로 구성된다: 첫째, DES, IDEA, RC5, RC6 와 같은 블록 암호 알고리즘들을 각각 키(key) 생성, 암호화, 복호화 하는 과정으로 설명한다. 둘째, 전자 서명에 근거한 다양한 인증 기법을 소개한다. DMDC, MD5, SHA-1, HMAC 와 같은 다양한 해쉬(hash) 함수를 사용하여 문장을 축약하고 인증하는 방식을 제시한다.전선 / 학사
AI 응용 프로그램을 위한 디지털 시스템 설계 프로젝트는 CPU, 메모리, 버스, 인터페이스 및 CNN H/W 가속기를 포함하여 AI 응용 프로그램을 위한 디지털 시스템을 설계하는 데 있어 몇 가지 근본적인 문제를 다룬다. 첫 번째 부분에서 H/W 자습서 및 랩은 RISC-V 프로세서, SRAM/DRAM 메모리, 버스 상호 연결, CMOS 이미지 센서 인터페이스를 포함한 인터페이스 및 LCD 디스플레이 패널과 관련된다.전선 / 대학원
본 강좌는 컴퓨터 시뮬레이션을 사용하여 반도체 공정 및 소자특성을 개발하고 최적화 과정을 소개한다. 시뮬레이션을 사용하면 새로운 반도체 공정 기술을 개발하고 소자 특성을 최적화 할 때 실제 웨이퍼 실험을 진행하는 것보다 소요되는 비용을 절감하고 시간을 단축시킬 수 있다. 따라서 현재 반도체 산업계 현장에서 시뮬레이션에 의존도는 계속 높아지고 있다. 본 강좌에서는 다양한 시뮬레이션 툴을 이용하여 인공지능반도체 소자를 제작한 후 소자의 전기적 특성을 평가하는 소자 설계 프로젝트를 수행한다. 이를 위해 식각, 증착, 이온 주입, 열 공정, 산화와 같은 다양한 공정을 시뮬레이션 해주는 툴을 이용하여 소자를 제작한 후, 소자 시뮬레이터를 사용하여 직접 제작한 반도체 소자의 전기적 특성을 예측하게 된다. 또한, 대부분의 시뮬레이터 작업에서 사용하는 Tcl 언어에 대해서 학습한다. 반도체 소자의 아날로그 부분과 디지털 부분의 동작을 통합하여 전체 시스템의 성능을 평가하고 최적하는데 도움이 되는 Mixed mode simulation을 수행하는 예제 및 SPICE 모델 추출하는 예제등을 학습한다. 최종적으로 시뮬레이션 틀을 이용하여 학생 개인별로 선택한 소자를 직접 제작하고 그 소자의 전기적 특성을 분석하는 프로젝트를 수행한다.전선 / 학사
DRAM과 NAND Flash memory 이후의 새로운 형태의 최신 메모리와 로직 반도체 소자 및 재료에 대한 기본 지식 제공을 목적으로 한다. FeRAM, MRAM, PcRAM, ReRAM 소자에 대한 새로운 지식을 제공하고 이들 소자의 궁극적 한계를 생각해본다. 또한, 논리 회로를 이루는 기본 게이트와 이들의 조합에 따른 논리 연산의 원리를 배운다. 이후 뉴로모픽 연산 및 딥러닝 시스템에 관한 기본 이해와 연산 방식에 관해 학습한다. 뉴메모리 및 로직 소자, 뉴로모픽 연산에 관한 전반적인 지식 습득과 더불어 궁극적으로 반도체 또는 고체 전자 소자가 직면하게 될 한계를 설명하고 이를 극복하기 위한 Nanoelectronics의 개념과 전개방향을 설명한다.전선 / 학사
이 강의에서는 인공지능과 딥러닝의 기본 개념을 이해하고, 이를 다양한 응용 분야에 적용하는 방법을 학습한다. 먼저, 윈도우 환경에서 파이썬을 활용하여 영상 및 비전 처리 기법을 익히고, 이를 AI 모델로 구현하는 과정을 다룬다. 이후, 실시간 추론을 위한 NPU(Neural Processing Unit)의 개념과 동작 원리를 이해하고, 리눅스 환경에서 NPU를 활용한 인공지능 추론 및 응용 개발 방법을 학습한다. 또한, CPU 및 NPU 보드를 실제 활용하여 다양한 실시간 고속 인공지능 응용 프로그램을 개발하고 실습하며, 하드웨어 가속을 통한 AI 연산 최적화 방법을 익힌다. 마지막으로, 최신 NPU 기반 AI 애플리케이션 개발 프로젝트를 수행하며, AI 기술을 실제 환경에 적용하는 방법을 배우고 팀 협업을 통한 문제 해결 역량을 강화한다.전선 / 학사
세계적으로 유명한 반도체 회사에 소속된전문가들의 지도 아래 인공지능 반도체 기술에 대한 깊은 탐구의 기회를 제공한다. 수업을 통해 인공지능 반도체 기술의 핵심 원리와 다양한 응용에 대한 종합적인 이해를 얻게 되고, LLM(Large Language Model), Biomedical 분야 등에 인공지능 반도체를 활용하는 방안에 대해 국내외 전문가들의 주관으로 강의가 진행될 예정이다. 이를 통해 인공지능 반도체 기술의 장점과 한계를 명확히 파악하며, 현실 세계에서 혁신적인 해결책과 응용 사례를 제안할 수 있는 능력을 갖추게 된다.전선 / 대학원
컴퓨터그래픽스 전반에 걸쳐 기본적인 개념들을 설명한다. 컴퓨터 그래픽스의 기본적인 렌더링 파이프라인, 물체들을 표현하는 여러 가지 방법, 빛을 나타내는 방법, 레이트레이싱, 볼륨렌더링 등의 특수한 렌더링 방법, 그림자나 질감을 나타내는 방법에 대해서 개론 형식으로 강의한다.전선 / 학사
디지털 시스템 설계과목에서 배운 기본적인 개념 위에 하드웨어와 소프트웨어의 양쪽 면에서 컴퓨터 구조와 조직과 관련된 분석과 설계 기법들을 배운다. 컴퓨터 구조론은 데이터 구조와 마이크로 아키텍처 하드웨어 구현에 대한 이해와 데이터의 흐름과 제어를 위한 추상화 레벨인 ISA(Instruction Set Architecture)에 관한 내용을 주로 다룬다. 그리고 마이크로 아키텍처와 ISA에 대한 이해를 기반으로 간단한 시스템 구현을 실습해 봄으로써 현재 많이 사용되고 있는 HDL의 숙련된 사용에 도움에 되고자 한다.전선 / 학사
AI용 응용 혹은 서비스의 처리과정을 구현한 시스템반도체 회로 설계 프로젝트를 수행한다. CPU, GPU, AP, microcontroller, DSP등의 프로세서, 모뎀등 통신용 반도체, 이미지 센서등 다양한 센서 반도체 및 구동회로등 다양한 시스템반도체 개발을 위한 아키텍처, 하드웨어 회로 설계, 및 구현 과정들을 수행한다. 설계된 회로의 동작 검증을 위하여 시뮬레이션을 통한 모의 검증, FPGA 구현 검증, 혹은 칩 제작을 통한 검증을 수행한다. 또한, 프로젝트 진행 과정에 관하여 설명하는 결과 보고서 및 제작품의 특성을 설명하는 구두 발표를 포함한다.전선 / 학사
연구실에서의 연구참여 활동을 통하여 전공 지식을 심화 학습한다. 각자가 원하는 연구에 참여하며 그 연구에 대한 직접적인 경험을 갖는다.전필 / 대학원
오늘날 정보기술(IT)은 조직의 전략과 운영 상 목표를 달성하는 핵심 요소가 되었다. 이러하여 대부분의 조직에서는 구성원들이 IT에 대해 최소한의 기본적인 지식을 갖추고 있기를 기대한다. 이 강좌는 정보시스템에 대한 기본적인 개념과 원리 전달을 목표로 구성된 종합 입문 과정이다. 입문 과정으로서 이 강좌는 특정한 내용을 깊게 다루는 것보다 다양한 주제를 폭넓게 다루는 데에 중점을 둘 것이다. 수업 중 다루게 될 주제에는 정보시스템의 기본 개념, IT의 전략적 역할, IT와 관련된 조직상의 변화 관리, 지식 경영, 기업 시스템, 인터넷 응용 기술, 시스템 개발 방법론, 신기술 등이 있다. 이와 더불어 경영 사례 연구 및 토론은 IT 환경에서 당면하게 될 구체적인 관리 문제를 다루는 데에 많은 도움을 줄 수 있을 것이다.