• Title, Summary, Keyword: 고성능컴퓨팅

Search Result 160, Processing Time 0.045 seconds

고성능연구망 인프라 활성화를 위한 Grid 구축

  • Jang, Haeng-Jin
    • Journal of Scientific & Technological Knowledge Infrastructure
    • /
    • /
    • pp.49-55
    • /
    • 2001
  • 인터넷의 발생은 슈퍼컴퓨팅센터를 중심으로 구축된 고성능연구망으로부터 시작되었으며, 대부분의 선진국에서 추진중인 차세대 인터넷 프로젝트도 고성능컴퓨팅 자원 활용을 위해 구축된 고성능연구망을 중심으로 추진되었다.

  • PDF

A Study on the Knowledge Elements of HPC in Computational Science through Analysis of Educational Needs (교육요구분석을 통한 계산과학분야의 고성능컴퓨팅 지식요소에 관한 연구)

  • Yoon, Heejun;Ahn, Seongjin
    • Journal of The Korean Association of Information Education
    • /
    • v.22 no.5
    • /
    • pp.545-556
    • /
    • 2018
  • The purpose of this study is to suggest the knowledge elements for HPC education in computational science. For this purpose, the survey for HPC experts was conducted to verify the content validity and reliability, and the 20 candidate knowledge elements was extracted. And the second survey for HPC users was conducted to apply the t test, Borich requirement, and The Locus for Focus model. And 10 knowledge elements for HPC education were derived. As a result, the first group was 'Parallelism Fundamentals', 'Parallelism', 'Parallel communication and coordination', 'Parallel Decomposition', 'Parallel Algorithms, Analysis, and Programming' and 'Introduction to Modeling and Simulation', 'Fundamental Programming Concepts', 'Fundamental Data Structures', 'Memory Management', 'Algorithms and Design' were second group for HPC education.

Multitasking Mechanism for High-Throughput Computing based on Mobile Cloud Computing (모바일 클라우드 컴퓨팅기반 고-처리량 컴퓨팅을 위한 멀티태스킹 기법)

  • Han, Seok-Hyeon;Mu, He;Kim, Hyun-Woo;Song, Eun-Ha;Jeong, Young-Sik
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • /
    • pp.171-173
    • /
    • 2017
  • 최근 모바일 컴퓨팅은 어플리케이션 실행, 이미지 처리, 동영상 인코딩, 게임 등의 모바일 컴퓨팅 작업 처리를 위한 높은 성능의 컴퓨팅 능력을 요구한다. 모바일 컴퓨팅의 성능을 향상하기 위해 모바일 클라우드 컴퓨팅(Mobile Cloud Computing)을 도입하였다. 기존 모바일 클라우드 컴퓨팅에서는 모바일 컴퓨팅 작업의 처리를 위해 고-성능 컴퓨팅(High-Performance Computing)방법을 적용한 오프로드가 연구되고 있다. 고-성능 컴퓨팅의 목적은 단일작업의 처리속도 향상이므로 다중 작업처리를 위한 모바일 클라우드 컴퓨팅에는 적합하지 않다. 또한 고-성능 컴퓨팅은 모바일 클라우드 사용자에게 동등한 컴퓨팅 성능을 제공하지 못하는 문제점을 내재한다. 본 논문에서는 모바일 클라우드 컴퓨팅 기반 다중 작업 처리를 위한 Multitasking Mechanism for High-Throughput Computing(M2-HTC)을 제안한다. M2-HTC는 모바일 클라우드에서 처리중인 작업과 사용 가능한 컴퓨팅 리소스를 활용하여 다중 모바일 컴퓨팅 작업의 처리시간을 최소화하는 기법이다.

Energy Efficient Computing Technology Trends (에너지 효율성 관련 컴퓨팅 기술동향)

  • Jang, S.M.;An, B.S.;On, J.H.;Lee, B.G.;Jun, S.I.
    • Electronics and Telecommunications Trends
    • /
    • v.30 no.4
    • /
    • pp.12-25
    • /
    • 2015
  • 최근 서버 관련 에너지 소비가 꾸준히 증가함에 따라 IT부문의 에너지 효율성을 높이기 위한 IT기술의 요구가 급증하고 있다. 이러한 요구에 따라 IT시스템 운용 시 사용자로 하여금 에너지 사용 상태를 정확히 인지 및 식별 가능하도록 함으로써 이를 토대로 에너지 제어를 통한 결과를 예상할 수 있도록 하며 에너지절감 유도까지 가능하게 하는 에너지 효율성 컴퓨팅 기술이 활발히 연구되고 있다. 향후에 엑사스케일 컴퓨터나 대규모 매니코어 컴퓨터 개발에 있어서 이러한 핵심기술은 선택이 아니라 필수 요소가 될 것이다.

  • PDF

A Study on the Improvement of High Performance Computing Education in Computational Science (계산과학분야의 고성능컴퓨팅 교육 개선을 위한 탐색적 연구)

  • Yoon, Heejun;Ahn, Seongjin
    • Journal of Digital Convergence
    • /
    • v.16 no.12
    • /
    • pp.21-31
    • /
    • 2018
  • In order to utilize HPC in Computational science, It is necessary to learn the knowledge and skills of computer science such as programming, algorithms and data structure. In this paper, we investigate IT education status in Computational science and propose policy directions to improve the HPC education through user survey. To do this, we surveyed the current state of IT subjects among major subjects in physics, chemistry, life sciences, and earth science in domestic universities and surveyed the users' Recognition of HPC education. As a result, the ratio of IT subjects in Computational science was very lower than the ratio of major domain subjects. Despite the high educational needs of universities, the educational level of universities was the lowest. Most users have learned the necessary knowledge and skills through self-study. We recognized the role of the university is the most urgent and important, and the role of professional institutions and online education is also important.

Trend of Open Source SW-based Cloud Computing Technology (공개SW기반 클라우드 컴퓨팅 기술 현황)

  • Jeong, U.J.;Kang, D.J.;Jung, S.I.
    • Electronics and Telecommunications Trends
    • /
    • v.26 no.5
    • /
    • pp.43-54
    • /
    • 2011
  • 컴퓨팅 자원을 빌려 쓰는 시대를 여는 클라우드 컴퓨팅은 북미, 유럽뿐만 아니라 아시아 전 세계적으로 확산되고 있는 추세이다. 더구나 SW 기술개발의 새로운 방식으로 부상한 공개SW도 클라우드 컴퓨팅의 빠른 확산에 역할을 하며, 여러 분야의 클라우드 요소 기술 발전에도 기여하고 있다. 따라서 본 고에서는 오픈 프로젝트로 진화되고 있는 클라우드 기술을 살펴본다. 먼저, 클라우드 인프라스트럭처 서비스(IaaS: Infrastructure as a Service)를 제공하기 위한 클라우드 컴퓨팅 구조와 구성요소 기술을 분석하고, 관련 공개SW 기술들을 분석한다. 여기서 IaaS 클라우드를 운영, 관리하는 기술을 보다 자세히 분석하고 비교한다. 마지막으로 클라우드 간 호환성 문제를 해결하는 공개SW 기술도 살펴본다.

  • PDF

Trends on Distributed Frameworks for Deep Learning (딥러닝 분산처리 기술동향)

  • Ahn, S.Y.;Park, Y.M.;Lim, E.J.;Choi, W.
    • Electronics and Telecommunications Trends
    • /
    • v.31 no.3
    • /
    • pp.131-141
    • /
    • 2016
  • 최근 알파고를 통해 인공지능 기술이 전 세계인의 이목을 집중시켰던 반면, 인공지능 연구자들은 인공지능 부활에 결정적 역할을 한 딥러닝 기술에 주목하고 있다. 딥러닝은 다계층 인공신경망 기반의 기계학습 기술로서 최근 컴퓨터 비전, 음성인식, 자연어 처리 분야에서 인식 성능을 높이는 데 중요한 역할을 하고 있다. 딥러닝 기술을 이용하여 기계가 수천만장의 이미지를 학습하여 객체를 인식하게 하고, 수천 시간의 음성 데이터를 학습하여 사람의 말을 알아듣게 처리하는 데에는 다수의 고성능 컴퓨터가 필요하다. 따라서 딥러닝에는 다수의 컴퓨터를 효율적으로 이용하기 위한 분산처리 기술이 필수적이며 관련 연구들이 활발히 진행되고 있다. 이에 본고는 다중 컴퓨터 노드들에서 딥러닝 모델을 분산처리할 수 있는 기존의 프레임워크들을 비교 분석하고 딥러닝 분산처리 기술에 대한 발전 방향을 전망한다.

  • PDF

Deep Learning Model Parallelism (딥러닝 모델 병렬 처리)

  • Park, Y.M.;Ahn, S.Y.;Lim, E.J.;Choi, Y.S.;Woo, Y.C.;Choi, W.
    • Electronics and Telecommunications Trends
    • /
    • v.33 no.4
    • /
    • pp.1-13
    • /
    • 2018
  • Deep learning (DL) models have been widely applied to AI applications such image recognition and language translation with big data. Recently, DL models have becomes larger and more complicated, and have merged together. For the accelerated training of a large-scale deep learning model, model parallelism that partitions the model parameters for non-shared parallel access and updates across multiple machines was provided by a few distributed deep learning frameworks. Model parallelism as a training acceleration method, however, is not as commonly used as data parallelism owing to the difficulty of efficient model parallelism. This paper provides a comprehensive survey of the state of the art in model parallelism by comparing the implementation technologies in several deep learning frameworks that support model parallelism, and suggests a future research directions for improving model parallelism technology.