실시간 뉴스



[한상기]초고성능 컴퓨팅의 시대- 새로운 구조와 새로운 소재


컴퓨터를 고성능화 하는 방법으로는 ▲스케일 업과 ▲스케일 아웃 방식이 있었다. 스케일 업은 강력한 대형 머신을 만드는 방법이었고, 스케일 아웃은 다량의 서버를 연계해서 하나의 고성능 시스템으로 만드는 방식이었다. IBM의 전통적인 메인프레임이나 과거 슈퍼컴퓨터는 스케일 업을 지향했다. 반면 요즘 대부분의 인터넷 기업이나 슈퍼컴퓨터는 스케일 아웃 방식의 컴퓨팅 방식을 지원한다.

과거에는 프로세서가 고가였기 때문에 데이터를 어떻게 프로세서에 분산하고 병행처리할 것인가가 컴퓨팅 방식의 중심 과제였다. 그러나 이제는 막대한 양의 데이터를 네트워크를 통해 이동시키는 것이 더 비용이 드는 일이기 때문에, 데이터가 저장된 곳에서 처리를 하는 방식으로 바뀌고 있다. 많은 기업이 이런 데이터 중심 컴퓨팅 모델을 개발하고 적용하고 있는 상황이다.

컴퓨팅 비용이라는 것은 단지 가격 문제가 아니라 에너지 효율, 성능, 성과와 확장성을 모두 고민해야 한다. 또 데이터의 유형이 매우 다양해지고 있기 때문에 때로는 표준 구조가 아닌 형태의 컴퓨터 구조를 그 때 그 때의 요구에 따라 재구성하여 대응하기도 한다.

▲물질 구조 분석 ▲기상 예측 ▲군사 무기 분석 ▲전력망 보안 ▲증권 시장 분석 ▲사이버 공격 예측 ▲생명 과학 등의 고성능 컴퓨팅 기술 분야에서는 이제 테라플롭스를 넘어 페타플롭스의 성능을 생각해야 하며 데이터 규모도 수십, 수백 테라바이트를 다루어야 한다.

초 고성능 컴퓨팅을 원하는 기업은 이제 엑사스케일 컴퓨팅 수준을 얘기하고 있다. 2008년 구현된 페타스케일 컴퓨터의 1천 배가 넘는 엑사플롭스, 1018 플롭스 수준의 성능은 2018년에 가야 이룩할 수 있을 것으로 본다. 이 숫자가 중요한 이유는 인간 두뇌 수준의 프로세싱 성능을 의미하기 때문이다. 인텔은 2012년에 인피니밴드로 유명한 QLogic을 1억2천5백만 불에 인수해 이 시장에 진입하고 있고, 미국은 에너지부의 과학국을 통해 국가 과제로, 유럽 역시 크레스타 프로젝크, DEEP 프로젝트, 몽블랑 프로젝트 등으로 연구 개발 중이다.

메모리 분야에서도 프로세스 로직과 메모리를 3차원으로 구성되는 하이브리드 메모리 큐브를 만들어 소비 전력이나 필요 공간을 획기적으로 줄이고자 한다. 하이브리드 메모리 큐브(HMC)는 기존 DDR3 메모리에 비해 속도는 15배 빠르고 전력 사용량은 70% 절약하며, 차지하는 공간은 90% 줄일 수 있다. 삼성전자와 마이크론이 주축이 된 HMC 콘소시움에서 2013년 4월에 표준 1.0 버전을 발표했다. 이런 방향을 IBM의 존 켈리는 그의 책 ‘스마트 머신즈'에서 ‘스케일 인’ 방식이라고 부른다. (Hybrid Memory Cube 참고.)

대용량의 데이터를 빠르게 처리하기 위한 또 다른 접근은 시스템 안에서 처리하는 방식을 바꾸는 것이다. 요즘 컴퓨터는 처리를 모두 중앙처리장치(CPU)를 통해서 한다. 따라서 모든 데이터를 일단 CPU가 있는 곳으로 이동시켜야 하는데 이는 이제 비효율적인 방법이 되는 것이다. 과거에는 CPU 같은 프로세서의 가격이 높았기 때문에 이런 고전적인 폰 노이만 구조 기반이 가장 기초적인 컴퓨팅 방식이었다.

그러나 이제 저렴하면서도 강력한 프로세서가 있기 때문에 데이터가 있는 곳에 프로세서를 배치하는 개념이 등장했다. 맥 휘트먼 HP 최고경영자(CEO)의 주장에 의하면 현재 컴퓨터 구조 하에서는 90%의 에너지와 시간을 저장된 정보를 한 메모리에서 다른 곳으로 옮기는 것에서 소비하고 있다고 한다. 따라서 많은 새로운 컴퓨팅 모델은 데이터 이동을 최소화하는 컴퓨터 구조를 기반으로 만들어지고 있다.

많은 기업들은 데이터 집중 컴퓨팅을 위한 병렬 처리 방식을 선택하고 있다. 고속의 커뮤니케이션 스위치와 네트워크로 연결된 컴퓨팅 클러스터에 다중 프로세서와 디스크를 연계하고 데이터를 분할해 서로 독립적으로 처리하는 알고리듬을 통한 분산 시스템을 구축해서 성능과 확장성을 구현하고 있다. 빅데이터 처리를 위한 맵리듀스, 하둡, HPCC 이나 관련 프로그래밍 또는 데이터베이스 처리 방식이 이에 해당한다고 볼 수 있다.

그러나 기존 컴퓨터 기술과 구조를 완전히 혁신하는 방식 역시 모색할 수 있는 방향이다. 얼마전 HP는 라스베가스에서 개최한 디스커버 2014에서 새로운 세대의 컴퓨터라고 주장하는 ‘더 머신’을 개발 계획을 발표했다. 지금까지의 개념을 뒤집는 컴퓨터라고 주장하는 더 머신은 하드웨어와 오픈 소스 OS, 그리고 실리콘 광학 기술을 결합했다.

더 머신은 일반적인 코어가 아닌 특수 목적의 코어 클러스터를 사용하며, 구리 선이 아닌 광섬유로 모든 연결을 하고 여기에 새로운 기억 장치인 멤리스터(memristor)를 채택한다고 선언했다.

멤리스터는 1971년 미국 버클리 대학의 레온 추아가 구상했으면 2008년에 HP 랩스가 개발에 성공한 완전히 새로운 저장 장치이다. 저항, 커패시터(콘덴서), 인덕터 다음의 4번째 소자로 언급되는 멤리스터는 저장장치이면서 동시에 처리장치의 역할을 한다.

우리의 피부나 뇌의 시냅스가 좀 전의 정보를 기억해서 그에 따른 반응을 하듯이 저항과 메모리의 특성를 모두 갖는데, 마지막에 경험한 전기 자극을 기억해서 저항값이 달라지기 때문에 멤리스터라고 한다.

멤리스터 하나가 트랜지스터 7~12개를 대치할 수 있고 전기가 없이도 정보 유지가 가능하기 때문에 향후 인간 뇌와 같이 저전력, 고 성능 기기를 만드는데 매우 필요한 소재이다. HP는 이산화 티타니윰을 나노 스케일에서 제어하다 발견했다.

더 머신 서버는 250 나노초에 160 페타바이트의 데이터에 접근이 가능하고, 기존 서버 성능에 6배를 가지면서도 80% 적은 에너지를 소비한다. 개발의 주체인 HP 랩스는 올해 오픈 소스 OS를 개발하고, 2015년에 멤리스터 샘플과 코어 프로토타입을 만들겠다고 한다. 더 머신은 2019년에 상용화될 전망이다.

HP는 더 머신을 막대한 양의 데이터 처리, 빅 데이터 분석, 나아가서 데이터 센터의 새로운 모델을 만드는게 사용할 수 있을 것으로 본다. 빅데이터와 사물인터넷 시대로 들어가면서 이제 모든 회사는 대규모 다양한 유형 데이터를 어떻게 처리할 것인가를 고민하는 것이고 이런 고민이 컴퓨팅 모델, 나아가서 컴퓨터 구조 자체에 대한 새로운 접근을 시도하는 것이다.

초병렬 구조의 수퍼 컴퓨팅, 새로운 컴퓨팅 클러스터, 데이터 집중 병렬 프로그래밍, 차세대 메모리 소자, 새로운 아키텍처 등 모든 새로운 접근이 이제 폰 노이만 구조를 넘어서는 차세대 컴퓨터를 구현하고자 하는 각 기업의 경쟁이 치열하게 진행되고 있으며, 이를 통한 새로운 패러다임이 만들어지고 있는 것이다.

한상기

카이스트에서 인공지능을 전공하고 현재 컴퓨터과학과 인문사회학을 결합한 소셜컴퓨팅 분야의 각종 이슈를 연구하고 있다. 20여 년 동안 대기업과 인터넷 기업에서 전략 수립을 하고 두 번의 창업을 경험했으며, 여러 대학에서 강의를 했다. 사진과 영화, 와인을 좋아하며, 에이콘출판사의 소셜미디어 시리즈 에디터로 다양한 책을 소개하고 있다. 최근엔 학술과 현업 경험을 바탕으로 기업의 신규 사업 전략과 정부 정책을 자문하고 여러 매체에 기고하고 있다. 블로그(isocialcomp.wordpress.com)와 페이스북(facebook.com/stevehan)을 통해서도 왕성한 집필 활동을 하고 있다.







alert

댓글 쓰기 제목 [한상기]초고성능 컴퓨팅의 시대- 새로운 구조와 새로운 소재

댓글-

첫 번째 댓글을 작성해 보세요.

로딩중
포토뉴스