최근 확인한 콘텐츠
데이터가 존재하지 않습니다.
김희곤, 사재원, 최동휘, 김혜련, 이성주, 정용화, 박대희
2015 / 정보처리학회논문지. 컴퓨터 및 통신시스템
데이터가 존재하지 않습니다.
loading...
본 논문은 CPU와 GPU로 구성된 이기종 컴퓨팅 환경에서 포토모자이크 응용의 효율적인 작업부하 분배 방법을 제안합니다. CPU와 GPU 자원을 동시에 활용하고, 각 처리기에 할당할 최적의 작업부하량을 예측하여 성능을 개선합니다. 실험 결과, 제안된 방법은 GPU-only 방식 대비 141%의 성능 향상을 보였습니다.
CUDA 병렬 프로그래밍 : 고성능 GPGPU를 이용한 NVIDIA 병렬 컴퓨팅 아키텍처 CUDA
High performance computing on complex environments
대규모 병렬 프로세서 프로그래밍 : CUDA를 이용한 실용적 접근
OpenCL을 이용한 이종 컴퓨팅
Pro deep learning with TensorFlow : a mathematical approach to advanced artificial intelligence in Python
(최대 성능을 위한) 유니티 5 게임 프로그래밍 최적화
(열혈강의) 영상 처리 프로그래밍 : 기초 알고리즘부터 라이브러리 활용까지
R 병렬 프로그래밍 : 빠른 데이터 처리를 위한 병렬 프로그래밍의 기초와 고급 라이브러리 활용
(머신러닝과 블록체인을 떠받치는) GPU의 모든 기술
Accelerating MATLAB® performance : 1001 tips to speed up MATLAB programs
Complexity-aware high efficiency video coding
CUDA 기반 GPU 병렬 처리 프로그래밍 : 기초부터 성능 최적화 전략까지
High performance computing for computer graphics and visualisation : proceedings of the International Workshop on High Performance Computing for Computer Graphics and Visualisation, Swansea, 3-4 July 1995
(실무자를 위한) C++ AMP 핵심 노트
Design for embedded image processing on FPGAs
High performance computing : Second International Symposium, ISHPC'99, Kyoto, Japan, May 26-28, 1999 : proceedings
Job scheduling strategies for parallel processing : IPPS '96 workshop, Honolulu, Hawaii, April 16, 1996 : proceedings
High-performance comupting and networking : 7th international conference, HPCN Europe 1999, Amsterdam, The Netherlands, April 12-14 1999 : proceedings
OpenMP 병렬 프로그래밍 : 멀티 코어를 위한 C, C++ 멀티스레딩의 표준
Euro-Par '96 parallel processing : second International Euro-Par Conference, Lyon, France, August 26-29, 1996 : proceedings
정보처리학회논문지. 컴퓨터 및 통신시스템
김희곤; 사재원; 최동휘; 김혜련; 이성주; 정용화; 박대희디지털콘텐츠학회논문지
윤준원, 송의성정보처리학회논문지. 컴퓨터 및 통신시스템
김진성, 최윤창, 김재학, 정연우, 정용화, 박대희, 김학재한국차세대컴퓨팅학회 논문지
김재하Cluster Computing
Zhang, X.; Wu, Y.; Zhao, C.Journal of Real-Time Image Processing
Park, Seung In; Cao, Yong; Watson, Layne T.; Quek, Francis정보과학회 컴퓨팅의 실제 논문지
하지원; 김서영; 테오도라 아두푸; 엄현상; 김윤희IEEE Transactions on Cloud Computing
Fahao Chen; Peng Li; Celimuge Wu; Song GuoIEEE Transactions on Parallel and Distributed Systems, Parallel and Distributed Systems, IEEE Transactions on, IEEE Trans. Parallel Distrib. Syst.
Scogland, T.R.; Feng, W.; Rountree, B.; de Supinski, B.R.Journal of Computer and System Sciences
Chakroun, I.; Melab, N.Machine Vision and Applications
Gómez-Luna, Juan; González-Linares, José María; Benavides, José Ignacio; Guil, NicolásIEEE Consumer Electronics Magazine
Fanyu MengInternational journal of computer assisted radiology and surgery
Smistad E; Bozorgi M; Lindseth FJournal of Supercomputing
Laso R.,Cabaleiro J.C.,Rivera F.F.,Muñiz M.C.,Álvarez-Dios J.A.Programming and Computer Software
Mikhaylyuk, M. V.; Timokhin, P. Y.; Torgashev, M. A.PROCEEDINGS OF THE VLDB ENDOWMENT
Ailamaki, Anastasia; Chrysogelos, Periklis; Karpathiotakis, Manos; Appuswamy, RajaJournal of Supercomputing
Iturriaga, S.; Nesmachnow, S.; Luna, F.; Alba, E.International Journal of High Performance Computing Applications
Meng, J.; Endo, T.Journal of Supercomputing
Clarke, D.; Zhong, Z.; Rychkov, V.; Lastovetsky, A.IEEE Transactions on Multimedia
Xiao B.,Wang H.,Wu J.,Kwong S.,Kuo C.C.J.전선 / 대학원
이 과목에서는 실시간시스템분야에서의 최신 연구동향을 학습한다. 멀티코어/GPGPU 등의 병렬컴퓨팅 환경, 이종의 컴퓨팅자원들이 결합된 이종컴퓨팅 환경 등 새롭게 대두되는 컴퓨팅 환경에서 실시간시스템을 구성하는 최신 기법들을 학습한다. 또한, 자율주행, 인공지능, IoT등 새롭게 등장하는 응용에서 실시간성을 보장하기 위한 최신 연구들을 학습한다.전선 / 대학원
현재 인공지능 처리를 담당하는 프로세서의 병렬처리 능력이 인공지능 성능을 결정하는 핵심 요건으로 부상하였다. 그러나 이런 특성은 현재 널리 사용되는 범용 CPU의 구조에 적합하지 않다. 따라서 인공지능 전용 프로세서의 개발 및 활용을 위한 다양한 접근이 이루어지고 있다. GPU는 인공지능 알고리즘을 효율적으로 처리할 수 있기 때문에 현재 가장 주목받는 인공지능 프로세서이다. 또 ASIC을 활용하거나 용도에 맞게 하드웨어를 재구성할 수 있는 FPGA을 기반으로 맞춤형 인공지능 프로세서를 만들려는 움직임도 늘고 있다. 본 과목은 이러한 인공지능을 위한 프로세서의 구조를 다룬다. 범용 프로세서 구조를 기본으로 GPU의 구조, ASIC 및 FPGA을 활용한 인공지능 프로세서의 구조와 특성에 대하여 배운다.전선 / 대학원
현재 인공지능 처리를 담당하는 프로세서의 병렬처리 능력이 인공지능 성능을 결정하는 핵심 요건으로 부상하였다. 그러나 이런 특성은 현재 널리 사용되는 범용 CPU의 구조에 적합하지 않다. 따라서 인공지능 전용 프로세서의 개발 및 활용을 위한 다양한 접근이 이루어지고 있다. GPU는 인공지능 알고리즘을 효율적으로 처리할 수 있기 때문에 현재 가장 주목받는 인공지능 프로세서이다. 또 ASIC을 활용하거나 용도에 맞게 하드웨어를 재구성할 수 있는 FPGA을 기반으로 맞춤형 인공지능 프로세서를 만들려는 움직임도 늘고 있다. 본 과목은 이러한 인공지능을 위한 프로세서의 구조를 다룬다. 범용 프로세서 구조를 기본으로 GPU의 구조, ASIC 및 FPGA을 활용한 인공지능 프로세서의 구조와 특성에 대하여 배운다.전선 / 대학원
본 교과목에서는 세 파트를 학습한다: (1) 그래픽스 기본이론, (2) OpenGL과 그의 Extensions, (3) GPU를 사용한 병렬컴퓨팅. 그래픽스 기본이론과 OpenGL의 교육은 약 1.5개월 동안 동시에 진행되며 강체의 관절 애니메이션 프로그래밍이 실습과제로 주어진다. OpenGL의 Extension은 약 2주 정도에 걸쳐 학습이 진행되며 이 extension을 사용한 shading이 실습과제로 주어진다. GPU를 사용한 병렬컴퓨팅은 약 1개월 동안 학습되며 대형행렬의 곱, FFT 등의 계산 프로젝트가 실습과제로 주어진다.전선 / 대학원
컴퓨터그래픽스 전반에 걸쳐 기본적인 개념들을 설명한다. 컴퓨터 그래픽스의 기본적인 렌더링 파이프라인, 물체들을 표현하는 여러 가지 방법, 빛을 나타내는 방법, 레이트레이싱, 볼륨렌더링 등의 특수한 렌더링 방법, 그림자나 질감을 나타내는 방법에 대해서 개론 형식으로 강의한다.전선 / 대학원
본 과목은 데이터사이언스를 위해 고성능 컴퓨팅(high-performance computing, HPC) 시스템을 사용하는 방법을 배운다. 본 교과목의 전반부는 (1) 순차 컴퓨터 시스템의 구조와 동작원리를 배워 시스템 프로그래밍 능력을 배양하며, (2) Process management, CPU scheduling, 네트워크의 기초 등 Linux 시스템의 전반적인 동작원리를 배운다. 강좌의 중반부에서는 (1) 병렬처리 시스템의 구조와 동작원리를 배운 뒤, (2) 병렬화, 최적화 기법 등을 다루며, (3) 딥 러닝 시스템에 대한 최적화 기법 등을 다룬다. 본 교과목의 후반부에서는 (1) 병렬처리 시스템을 프로그래밍하는 다양한 방법들 중 OpenMP, MPI, OpenCL, CUDA 로 병렬처리 시스템을 프로그래밍하는 방법을 배우며, 마지막으로 (2) Spark와 같은 distributed processing platform 및 (3) Dockers와 Kubernetes와 같은 virtualization에 대하여 다룬다.전선 / 대학원
본 코스에서는 선형, 비선형, 정수, 동적, 확률적인 최적화 기법에 대해 강의한다. 각 기법에서 어떻게 바람직한 측면을 최대화 하고 부적적인 측면을 최소화 할 수 있는가를 보여 줄 수 있는 예제들을 제시하게 될 것이다. 특히 산업 뿐 아니라 컴퓨터 프로그램에서 선형, 비선형 문제를 풀기위한 응용문제를 강조하게 될 것이다.전선 / 대학원
병렬처리 프로그래밍 언어를 소개하고 각종 병렬 컴퓨터 구조에 대한 병렬 프로그램의 예, 프로그램 분석 기법, 코드 최적화 기법을 다룬다.전선 / 대학원
빅데이터 혹은 대용량 고차원 데이터의 출연으로 현대 통계학에서 계산의 중요성은 과거의 어떤 때보다 더 중요하게 되었다. 이 과목에서는 빅데이터를 다루는데 필요한 최신의 계산 기법들, 즉 GPU를 이용한 통계계산과 병렬처리를 활용한 통계계산의 이론과 실제를 다룬다.전선 / 학사
연구실에서의 연구참여 활동을 통하여 전공 지식을 심화 학습한다. 각자가 원하는 연구에 참여하며 그 연구에 대한 직접적인 경험을 갖는다.전선 / 학사
컴퓨터 모델링에서는 컴퓨터를 구성하는 각종 자원을 정량적으로 모델링하여 여러 가지 환경하에서 어떻게 동작하는지를 이해하고 성능 분석을 하는 기법을 익힌다. 이를 위해 본 강의에서는 통계적 과정, 분포이론, 확률론등의 기본적 모델링 지식과 함께 실제 시스템에의 적용 방식, 적용 사례 등을 교육한다.전선 / 대학원
본 교과목은 단순히 기존의 가속기를 활용하는 수준을 넘어, 차세대 AI 반도체 분야의 창업 및 핵심 개발에 필요한 맞춤형 AI 추론 엔진 개발 능력을 배양하는 것을 목표로 한다. 이를 위해 최첨단 설계 방법론인‘알고리즘-소프트웨어-하드웨어 통합 설계(Co-design)'에 대한 깊이 있는 이론과 실전 경험을 제공한다. 수강생들은 GPU와 같은 범용 하드웨어의 한계를 이해하고, 특정 LLM 알고리즘에 최적화된 하드웨어를 직접 설계함으로써 전력, 비용, 속도 측면에서 압도적인 경쟁력을 갖춘 엣지 AI 솔루션을 구현하는 방법을 학습한다. 특히, 최신 경량화 기술인 저비트 양자화(Low-bit Quantization) 기법을 알고리즘 단계에서 적용하고, 이를 C++ 기반의 고수준 합성(High-Level Synthesis, HLS)을 통해 FPGA 상에 하드웨어 로직으로 구현하는 전 과정을 실습한다. 최종적으로는 SoC(System on Chip) 환경에서 프로세서(PS)와 프로그래머블 로직(PL)을 연동하여 완전한 LLM 추론 가속 시스템을 구축하는 프로젝트를 통해, 아이디어를 실제 하드웨어 프로토타입으로 구현하는 역량을 완성한다.전선 / 대학원
본 교과목은 단순히 기존의 가속기를 활용하는 수준을 넘어, 차세대 AI 반도체 분야의 창업 및 핵심 개발에 필요한 맞춤형 AI 추론 엔진 개발 능력을 배양하는 것을 목표로 한다. 이를 위해 최첨단 설계 방법론인‘알고리즘-소프트웨어-하드웨어 통합 설계(Co-design)'에 대한 깊이 있는 이론과 실전 경험을 제공한다. 수강생들은 GPU와 같은 범용 하드웨어의 한계를 이해하고, 특정 LLM 알고리즘에 최적화된 하드웨어를 직접 설계함으로써 전력, 비용, 속도 측면에서 압도적인 경쟁력을 갖춘 엣지 AI 솔루션을 구현하는 방법을 학습한다. 특히, 최신 경량화 기술인 저비트 양자화(Low-bit Quantization) 기법을 알고리즘 단계에서 적용하고, 이를 C++ 기반의 고수준 합성(High-Level Synthesis, HLS)을 통해 FPGA 상에 하드웨어 로직으로 구현하는 전 과정을 실습한다. 최종적으로는 SoC(System on Chip) 환경에서 프로세서(PS)와 프로그래머블 로직(PL)을 연동하여 완전한 LLM 추론 가속 시스템을 구축하는 프로젝트를 통해, 아이디어를 실제 하드웨어 프로토타입으로 구현하는 역량을 완성한다.전선 / 대학원
컴퓨터를 설계하는 데 필요한 공학적 방법론, 설계기법, 무결함 검증방법, 기술동향, 성능평가 방법을 익힌다. 구체적으로 다루어지는 내용은 파이프라인 형태의 명령어 실행 방법, 명령어 수준의 병렬성, 메모리 계층구조, 입출력 시스템, 다중처리기, GPU 및 가속기 아키텍처 등이다.전선 / 대학원
본 과목에서는 고차원 데이터의 저차원 표현을 학습하기 위한 기하학적 방법을 소개한다. 미분 기하학의 기초(구체적 주제는 리만 다양체 및 Lie 그룹, 텐서, 커넥션 및 fiber 번들 포함)를 다룬 후, 고차원 데이터에 대한 기존 기계 학습 알고리즘(예: 매니폴드 러닝, 메트릭 러닝)의 기하학적 일반화 방법을 개발하여, 대칭적 구조가 존재하는 고차원 비유클리디언 데이터 문제에 적용한다. 위와 같은 방법을 구현하기 위한 효율적인 계산 알고리즘도 소개한다. 후반부에는 Ito 확률 미분 방정식의 관점에서 강화 학습과 확률 최적 제어 간의 관계를 고찰하여, 고차원 비유클리디언 데이터 강화 학습 문제에 적용 가능한 기하학적 방법도 개발한다.전선 / 대학원
컴퓨터를 설계하는 데 필요한 공학적 방법론, 설계기법, 무결함 검증방법, 기술동향, 성능평가 방법을 익힌다. 구체적으로 다루어지는 내용은 파이프라인 형태의 명령어 실행 방법, 명령어 수준의 병렬성, 메모리 계층구조, 입출력 시스템, 다중처리기, GPU 및 가속기 아키텍처 등이다.전선 / 대학원
기존의 클라우드 의존적 AI 컴퓨팅이 사용자 프라이버시, 네트워크 과부하, 인터넷 단절에 대한 취약성 등 다양한 이슈를 야기함에 따라 최근 AI 컴퓨팅을 클라우드 뿐만 아니라 사용자 근처의 소형/저비용 엣지 컴퓨터에서도 수행하려는 흐름이 전개되며 앰비언트 인공지능이라는 개념이 탄생했다. 본 강좌는 최신 논문 분석, 구현 실습 및 그룹 프로젝트를 통해 앰비언트 인공지능을 위한 핵심 기술과 플랫폼을 익히고 응용하는 것을 목표로 한다. (1) 앰비언트 인공지능 기술: 모델 경량화, 신호처리와 딥러닝 모델의 하이브리드 운용, 클라우드-엣지 통합 운용, 연합 학습, 메타 학습 (2) 앰비언트 인공지능 플랫폼: TensorFlow, TensorFlow Lite, Coral AI, Jetson Nano (3) 앰비언트 인공지능 응용: 혼합현실, CCTV 자체 분석 등전선 / 대학원
본 교과목은 데이터사이언스 대학원의 ABC(AI model/algorithm, Big data, Computing) 교육 과정 중 컴퓨팅(C) 분야 두번째 강좌이다. 본 교과목의 전반부는 (1) 순차 컴퓨터 시스템의 구조와 동작원리를 배워 시스템 프로그래밍 능력을 배양하며, (2) Process management, CPU scheduling, 네트워크의 기초 등 Linux 시스템의 전반적인 동작원리를 배운다. 강좌의 중반부는 (1) 병렬처리 시스템의 구조와 동작원리를 배운 뒤, (2) 병렬화, 최적화 기법 등을 다루며, (3) 딥 러닝 시스템에 대한 최적화 기법 등을 다룬다. 본 교과목의 후반부에서 (1) 병렬처리 시스템을 프로그래밍하는 다양한 방법들 중 OpenMP, MPI, OpenCL, CUDA 로 병렬처리 시스템을 프로그래밍하는 방법을 배우며, 마지막으로 (2) Spark와 같은 distributed processing platform 및 (3) Dockers와 Kubernetes와 같은 virtualization에 대하여 다룬다.전선 / 대학원
컴퓨터, 모바일기기, 데이터서버, AI 시스템 등 다양한 컴퓨팅 기기들의 성능은 그 시스템을 구성하는 각 칩의 연산 속도뿐만 아니라, 칩과 칩 사이에서 데이터를 주고 받는 통신속도 및 지연시간에 크게 영향을 받는다. 고속인터페이스 회로기술은 바로 칩 간의 데이터를 빠르게 주고받기 위한 회로 및 시스템 기술을 통칭하며, 전송선로 이론에 기반한 채널의 설계, 디지털 통신을 활용한 고속 송수신기 및 등화회로 설계, 그리고 정밀한 타이밍 생성 및 복원을 위한 phase/delay-locked loop 설계의 3요소로 구성되어 있다. 특히, 최근에는 디지털 시스템 설계의 효율성을 활용할 수 있는 ADC 기반의 송수신기, 칩을 구성하는 새로운 방식인 칩렛(chiplet)에 필요한 고밀도 저전력의 die-to-die 인터페이스, 그리고 칩상에 집적되는 광소자를 이용한 광통신 회로인 실리콘 포토닉스 등이 새로운 동향으로 떠오르고 있다. 본 교과목은 다양하게 활용되는 고속인터페이스 설계에 필요한 회로뿐만 아니라, 시스템 설계에 필요한 채널 이론, 통신 이론, 신호처리, 피드백 제어이론 등의 인접분야를 함께 다루고, 이들에 대한 통찰력 높은 이해를 통해 고성능, 저전력, 고밀도의 고속인터페이스를 구성할 수 있는 설계역량을 배양한다.전선 / 학사
이 강의에서는 인공지능과 딥러닝의 기본 개념을 이해하고, 이를 다양한 응용 분야에 적용하는 방법을 학습한다. 먼저, 윈도우 환경에서 파이썬을 활용하여 영상 및 비전 처리 기법을 익히고, 이를 AI 모델로 구현하는 과정을 다룬다. 이후, 실시간 추론을 위한 NPU(Neural Processing Unit)의 개념과 동작 원리를 이해하고, 리눅스 환경에서 NPU를 활용한 인공지능 추론 및 응용 개발 방법을 학습한다. 또한, CPU 및 NPU 보드를 실제 활용하여 다양한 실시간 고속 인공지능 응용 프로그램을 개발하고 실습하며, 하드웨어 가속을 통한 AI 연산 최적화 방법을 익힌다. 마지막으로, 최신 NPU 기반 AI 애플리케이션 개발 프로젝트를 수행하며, AI 기술을 실제 환경에 적용하는 방법을 배우고 팀 협업을 통한 문제 해결 역량을 강화한다.