IBM 블루진

IBM Blue Gene
IBM 블루진
IBM Blue Gene P supercomputer.jpg
Argonne 국립연구소의 Blue Gene/P 슈퍼컴퓨터
개발자IBM
유형슈퍼컴퓨터 플랫폼
발매일BG/L: 1999년 2월(1999년 2월)
BG/P: 2007년6월
BG/Q: 2011년 11월
단종2015년 (2015년)
CPUBG/L: PowerPC 440
BG/P: PowerPC 450
BG/Q: PowerPC A2
전임자IBM RS/6000 SP;
QCDOC
후계자IBM PERCS
청색 유전자 처리 단위 계층

Blue Gene은 전력 소비량이 적은 PFLOPS(페타플롭스) 범위에서 동작 속도에 도달할 수 있는 슈퍼컴퓨터를 설계하기 위한 IBM 프로젝트다.

이 프로젝트는 블루진/L, 블루진/P, 블루진/Q3세대의 슈퍼컴퓨터를 만들었다.도입 과정에서 Blue Gene 시스템은 가장 강력하고 전력 효율이 뛰어난 슈퍼컴퓨터 TOP500[1] Green500에서[2] 각각 1위를 차지했습니다.Blue Gene 시스템은 Graph500 [3]리스트에서도 꾸준히 상위권을 차지하고 있습니다.이 프로젝트는 2009년 [4]국가기술혁신훈장을 받았다.

2015년 현재 IBM은 블루진[5] 제품군의 개발을 종료한 것으로 보인다.IBM의 슈퍼컴퓨터 분야에서의 지속적인 노력은 OpenPower에 집중되어 있으며, 무어[6]법칙종말과 싸우기 위해 FPGA와 GPU와 같은 가속기를 사용하는 것으로 보입니다.

역사

1999년 12월, IBM은 단백질 [7]접힘과 같은 생체 분자 현상의 연구에 적용될 대규모 병렬 컴퓨터 구축을 위한 5년간의 노력을 위한 1억 달러의 연구 이니셔티브를 발표했습니다.이 프로젝트에는 두 가지 주요 목표가 있었습니다. 대규모 시뮬레이션을 통해 단백질 접힘의 메커니즘에 대한 이해를 높이고 대규모 병렬 기계 아키텍처와 소프트웨어에서 새로운 아이디어를 모색하는 것이었습니다.주요 조사 분야에는 이 새로운 플랫폼을 사용하여 과학적 목표를 효과적으로 달성하는 방법, 대규모 병렬 머신을 보다 쉽게 사용할 수 있도록 하는 방법, 그리고 새로운 머신 아키텍처를 통해 합리적인 비용으로 성능 목표를 달성하는 방법 등이 포함되어 있습니다.Blue Gene의 초기 디자인은 Monty Denneau가 설계한 Cyclops64 아키텍처의 초기 버전을 기반으로 했습니다.초기 연구 개발 작업은 IBM T.J. 왓슨 연구 센터에서 진행되었으며 William R.의해 주도되었습니다. 풀리 블랭크.[8]

IBM에서 Alan Gara는 QCDOC 아키텍처를 보다 범용적인 슈퍼컴퓨터로 확장하는 작업을 시작했습니다.4D 근접 네이버 상호접속 네트워크는 임의의 노드에서 다른 노드로 메시지 라우팅을 지원하는 네트워크로 대체되었으며 병렬 I/O 하위 시스템이 추가되었습니다.DOE는 이 시스템의 개발에 자금을 대기 시작했고 Blue Gene/L(빛을 뜻하는 L)로 알려지게 되었다. 원래의 Blue Gene 시스템의 개발은 Blue Gene/C(Cyclops를 뜻하는 C)와 이후 Cyclops64라는 이름으로 계속되었다.

2004년 11월, 각 랙에 1,024개의 컴퓨팅 노드를 탑재한 16랙 시스템은 70.72 [1]TFLOPS의 Linpack 퍼포먼스로 TOP500 리스트에서 1위를 달성했습니다.이로써 2002년 이후 세계에서 가장 빠른 컴퓨터 타이틀을 보유하고 있는 NEC의 Earth Simulator를 추월했다.2004년부터 2007년까지 LLNL에서의 Blue[9] Gene/L 설치는 점차 104랙으로 확대되어 478 TFLOPS Linpack과 596 TFLOPS 피크에 도달했습니다.LLNL BlueGene/L 설치는 2008년 6월 Los Alamos National Laboratory의 IBM Cell 기반 Roadrunner 시스템에 추월당하기 전까지 3.5년 동안 TOP500 목록의 첫 번째 자리를 유지했습니다.이 시스템은 MN IBM 공장의 로체스터에 구축되었습니다.

LLNL 설치가 가장 큰 Blue Gene/L 설치인 반면, 많은 소규모 설치들이 뒤따랐다.2006년 11월에는 Blue Gene/L 아키텍처를 사용한 컴퓨터가 TOP500 목록에 27대 있었습니다.이들 컴퓨터는 모두 eServer Blue Gene Solution 아키텍처를 탑재한 것으로 기재되어 있습니다.예를 들어 San Diego Supercomputer Center에는 Blue Gene/L 랙 3개가 보관되어 있었습니다.

TOP500은 단일 벤치마크 애플리케이션의 성능을 측정하는 반면, Linpack, Blue Gene/L은 더 광범위한 애플리케이션의 성능 기록을 세웠습니다.Blue Gene/L은 고압 및 온도 조건에서 용융 금속의 응고(핵 및 성장 과정)를 시뮬레이트하는 3차원 분자 역학 코드(ddcmD)와 같은 실제 애플리케이션에서 100 TFLOPS 이상을 실행한 최초의 슈퍼 컴퓨터입니다.이 업적은 2005년 고든 벨상을 수상했다.

2006년 6월, NNSA와 IBM은 Blue Gene/L이 양자 화학 애플리케이션(Qbox)[10]에서 207.3 TFLOPS를 달성했다고 발표했습니다.Supercomputing [11]2006에서 Blue Gene/L은 모든 HPC Challenge Class of [12]Awards에서 수상했습니다.2007년 IBM 알마든 연구센터와 네바다 대학 연구팀은 쥐의 뇌와 거의 절반 정도 복잡한 인공 신경망을 1초 동안 [13]작동시켰다.

이름

블루진이라는 이름은 원래 생물학자들이 단백질 접힘과 유전자 [14]발달 과정을 이해하도록 돕기 위해 고안된 것에서 유래했다."Blue"는 IBM이 자사의 많은 제품과 회사 자체에 사용하는 전통적인 별칭입니다.원래 블루진 디자인은 "Blue Gene/C"로 이름이 바뀌었고 결국 Cyclops64로 바뀌었다.Blue Gene/L의 "L"은 원래 "Blue Light"라는 디자인의 이름이 "Light"에서 유래했습니다."P" 버전은 페타스케일 디자인으로 설계되었습니다."Q"는 "P" 뒤에 오는 문자입니다.Blue Gene/[15]R은 없습니다.

주요 기능

Blue Gene/L 슈퍼컴퓨터는 다음과 같은 [16]점에서 독특했습니다.

  • 전력 소비를 줄이기 위해 프로세서의 속도를 교환합니다.Blue Gene/L은 저주파 및 저전력 임베디드 전력 사용부동소수점 액셀러레이터를 탑재한 PC 코어각 칩의 성능은 상대적으로 낮았지만, 시스템은 다수의 노드를 사용할 수 있는 애플리케이션의 전력 효율을 높일 수 있었습니다.
  • 2개의 동작 모드를 갖춘 노드당 듀얼 프로세서.한쪽 프로세서가 계산을 처리하고 다른 한쪽 프로세서가 통신을 처리하는 코프로세서 모드와 양쪽 프로세서가 사용자 코드를 실행할 수 있지만 프로세서가 계산과 통신 부하를 모두 공유합니다.
  • 시스템 온 어 칩 설계.512MB 외장 D램을 제외하고 각 노드마다 하나의 칩에 컴포넌트가 내장되어 있었다.
  • 다수의 노드(최대 1024개씩 65,536개까지 확장 가능)
  • 글로벌 통신(브로드캐스트 및 절감), I/O 및 관리를 위한 보조 네트워크와 3차원 토러스 상호 연결
  • 노드당 경량 OS로 시스템 오버헤드를 최소화합니다(시스템 노이즈).

아키텍처

Blue Gene/L 아키텍처는 QCDSP 및 QCDOC 아키텍처의 진화입니다.각 Blue Gene/L Compute 또는 I/O 노드는 관련된 DRAM 메모리 칩을 갖춘 단일 ASIC였습니다.ASIC은 700MHz PowerPC 440 내장 프로세서를 2개 통합했습니다.각 프로세서는 이중 파이프라인 배정도 부동소수점 유닛(FPU), DRAM 컨트롤러가 내장된 캐시 서브시스템 및 여러 통신 서브시스템을 지원하는 로직을 갖추고 있습니다.이중 FPU는 각 Blue Gene/L 노드에 이론적으로 5.6 GFLOPS(기가플롭스)의 최고 성능을 제공했다.두 CPU는 서로 캐시가 일관되지 않았습니다.

컴퓨팅 노드는 컴퓨팅 카드당 2개, 컴퓨팅 카드 16개와 노드 보드당 최대 2개의 I/O 노드가 패키지화되었습니다.캐비닛/[17]랙당 32개의 노드 보드가 있었습니다.모든 필수 서브시스템을 하나의 칩에 통합하고 저전력 로직을 사용함으로써 각 컴퓨팅 노드 또는 I/O노드는 저전력(D램 포함 약 17와트)을 소비했습니다.따라서 표준 19인치 랙에 최대 1024개의 컴퓨팅 노드와 추가 I/O 노드를 전력 공급 및 공기 냉각의 합리적인 한도 내에서 적극적으로 패키징할 수 있었습니다.와트당 FLOPS, 플로어스페이스당2 FLOPS 및 유닛 비용당 FLOPS의 관점에서 성능 메트릭을 통해 매우 높은 성능까지 확장할 수 있었습니다.노드가 너무 많아서 컴포넌트 장애가 불가피했습니다.시스템은 장애가 있는 컴포넌트를 1/2 랙(512개의 컴퓨팅 노드)까지 전기적으로 분리하여 머신을 계속 가동시킬 수 있었습니다.

각 Blue Gene/L 노드는 3개의 병렬 통신 네트워크에 연결되었습니다. 컴퓨팅 노드 간의 피어 투 피어 통신을 위한 3D 트로이덜 네트워크, 집단 통신을 위한 집합 네트워크(브로드캐스트 및 작업 감소), 빠른 장벽을 위한 글로벌 인터럽트 네트워크입니다.Linux 운영 체제를 실행하는 I/O 노드는 이더넷 네트워크를 통해 스토리지 및 외부 호스트에 통신을 제공합니다.I/O 노드가 컴퓨팅 노드를 대신하여 파일 시스템 작업을 처리했습니다.마지막으로 설정, 부팅 및 진단을 위해 별도의 프라이빗 이더넷 네트워크를 통해 모든 노드에 액세스할 수 있게 되었습니다.여러 프로그램을 동시에 실행하기 위해 Blue Gene/L 시스템을 전자적으로 분리된 노드 세트로 분할할 수 있습니다.파티션의 노드 수는 2의 의 정수 거듭제곱이어야 하며, 최소5 2 = 32개의 노드여야 합니다.Blue Gene/L 프로그램을 실행하기 위해 먼저 컴퓨터 파티션을 예약했다.그런 다음 프로그램이 파티션 내의 모든 노드에서 로드되어 실행되었으며, 사용 중인 다른 프로그램은 파티션 내의 노드에 액세스할 수 없었습니다.완료되면 파티션 노드가 해방되어 향후 프로그램에서 사용할 수 있게 됩니다.

Blue Gene/L 컴퓨팅 노드는 단일 사용자 프로그램을 지원하는 최소한의 운영 체제를 사용했습니다.POSIX 콜의 서브셋만이 지원되며 코프로세서 모드에서는 노드 상에서 한 번에1개의 프로세스(가상 모드에서는 CPU당1개의 프로세스)만 실행할 수 있습니다.프로그래머는 로컬 동시성을 시뮬레이션하기 위해 녹색 스레드를 구현해야 했습니다.애플리케이션 개발은 보통 통신에 MPI를 사용하여 C, C++ 또는 Fortran에서 수행되었습니다.그러나 Ruby [19] Python과 같은[18] 일부 스크립트 언어는 컴퓨터 노드로 이식되었습니다.

IBM은 Blue Gene/L을 실행하기 위해 개발된 애플리케이션인 BlueMatter를 [20]오픈 소스로 공개했습니다.이는 응용 프로그램에 의해 torus 및 집합 인터페이스가 어떻게 사용되었는지 문서화하는 역할을 하며, 다른 사용자가 최신 세대의 슈퍼컴퓨터를 연습하기 위한 기반이 될 수 있습니다.

블루진/P

Blue Gene/P 노드 카드
Blue Gene/P 슈퍼컴퓨터 개요

2007년 6월 IBM은 IBM, LLNL 및 Argonne National Laboratory의 Leadership Computing [21]Facility가 포함된 협업을 통해 설계된 Blue Gene/P 슈퍼컴퓨터 2세대를 발표했습니다.

설계.

Blue Gene/P의 디자인은 Blue Gene/L에서 발전된 기술입니다.각 Blue Gene/P Compute 칩에는 PowerPC 450 프로세서 코어가 4개 탑재되어 있으며 850MHz로 동작합니다.코어는 캐시 코히런트이며 칩은 4방향 대칭 멀티프로세서(SMP)로 동작할 수 있습니다.칩의 메모리 서브시스템은 소규모 개인 L2 캐시, 중앙 공유 8MB L3 캐시 및 듀얼 DDR2 메모리 컨트롤러로 구성됩니다.또한 이 칩은 Blue Gene/L과 동일한 네트워크 토폴로지를 사용하여 노드 간 통신 로직을 통합하지만 대역폭은 2배 이상 커집니다.컴퓨팅 카드는 2GB 또는 4GB의 DRAM을 갖춘 Blue Gene/P 칩을 포함하고 있으며, 이 칩은 "컴퓨팅 노드"로 구성되어 있다.1개의 컴퓨팅 노드는 13.6GFLOPS의 피크 퍼포먼스를 발휘합니다.32개의 컴퓨팅 카드를 공랭식 노드 보드에 꽂습니다.랙에는 32개의 노드 보드가 있습니다(1024개의 노드, 4096개의 프로세서 코어).[22]Blue Gene/P는 다수의 저전력 고밀도 칩을 사용함으로써 동세대 다른 슈퍼컴퓨터의 전력 효율을 웃돌았으며, 2007~[2]2008년에는 Green500 리스트의 상위 또는 그 부근에 371대의 MFLOPS/W Blue Gene/P 설비가 있었습니다.

설치

다음은 Blue Gene/P 설치의 불완전한 목록입니다.2009년 11월 현재 TOP500 목록에는 2랙(2048 노드, 8192 프로세서 코어, 23.86 TFLOPS Linpack)[1] 이상의 Blue Gene/P 설치가 15개 포함되어 있습니다.

  • 2007년 11월 12일 독일Forschungszentrum Jülich에서는 16개의 랙(16,384 노드, 65,536 프로세서)을 갖춘 최초의 Blue Gene/P 설치인 JUGENE이 167 TFLOPS의 [23]성능을 발휘했습니다.처음 출시되었을 때 그것은 유럽에서 가장 빠른 슈퍼컴퓨터였고 세계에서 여섯 번째로 빨랐다.2009년에 JUGENE은 메모리 144테라바이트와 6페타바이트의 스토리지를 갖춘 72랙(노드 73,728개, 프로세서 코어 294,912개)으로 업그레이드되어 1PetaFLOPS의 최고 성능을 달성했습니다.이 구성에서는 랙 간에 새로운 공기-물 열 교환기가 통합되어 냉각 비용이 [24]대폭 절감되었습니다.JUGENE은 2012년 7월에 폐쇄되고 Blue Gene/Q 시스템 JUQEN으로 대체되었습니다.
  • Argonne National Laboratory의 40랙(40960노드, 163840프로세서 코어) "Intrepid" 시스템은 2008년 6월 Top 500 목록에서 [25]3위를 차지했습니다.Intrepid 시스템은 INTECT 프로그램의 주요 자원 중 하나입니다.이 프로그램에서는, 동료 평가 대회에서 과학 및 엔지니어링 프로젝트의 「대과제」에 프로세서 시간이 할당됩니다.
  • Lawrence Livermore National Laboratory는 2009년에 36랙의 Blue Gene/P 설치물인 "Dawn"을 설치했습니다.
  • 압둘라 과학기술대학(KOST)은 2009년에 16랙의 Blue Gene/P 설치물인 "Shaheen"을 설치했습니다.
  • 2012년에는 라이스대학에 6랙의 Blue Gene/P가 설치되었으며 [26]상파울루대학과 공동으로 관리될 예정입니다.
  • 2.5 랙의 Blue Gene/P 시스템은 네덜란드 및 그 주변 유럽 국가에서 Low Frequency Array for Radio Astronomy(LOFAR) 프로젝트의 중앙 프로세서입니다.이 애플리케이션은 기계의 스트리밍 데이터 기능을 사용합니다.
  • 2랙의 Blue Gene/P는 2008년 9월 불가리아 소피아에 설치되었으며 불가리아 과학 아카데미와 소피아 [27]대학이 운영하고 있습니다.
  • 2010년에는 빅토리아주 생명과학 계산 [28]이니셔티브를 위해 멜버른 대학에 2랙(8192코어)의 Blue Gene/P가 설치되었습니다.
  • 2011년 뉴질랜드 크라이스트처치에 있는 캔터베리대학에 2랙의 블루진/P가 설치되었다.
  • 2012년 뉴저지 피스카타웨이에 있는 럿거스 대학에 2랙의 Blue Gene/P가 설치되었습니다.그것은 럿거스의 마스코트인 스칼렛 [29]나이트에게 경의를 표하기 위해 "엑스칼리버"로 불렸다.
  • 2008년 뉴욕 [30]로체스터 대학에는 180TB의 스토리지를 갖춘 1랙(1024노드) Blue Gene/P가 설치되었습니다.
  • 아세안 지역의 첫 블루 유전자/P는 2010년 브루나이 대학 다루살람 연구 센터인 UBD-IBM 센터에 설치되었다.이 시설은 기후 변화가 홍수 예측, 농작물 수확량, 재생 에너지 및 [31]지역 열대우림의 건강에 미치는 영향을 조사할 기후 모델링에 대한 대학과 IBM 간의 연구 협력을 촉진시켰다.
  • 2013년에는 기상예보, 재난관리, 정밀농업, 보건 등을 위해 1랙의 Blue Gene/P를 과학기술부에 기증하여 케손시 딜리만 국립컴퓨터센터(PGC) 바이오인포매틱스 핵심시설(FFB)의 후원 아래 보관하고 있습니다.를 클릭합니다.[32]

적용들

  • 2010년 세계 체스 챔피언 타이틀 도전자인 베셀린 토팔로프는 한 인터뷰에서 [33]그가 경기를 준비하는 동안 블루진/P 슈퍼컴퓨터를 사용했다고 확인했다.
  • Blue Gene/P 컴퓨터는 약 9조 개의 [34]연결을 가진 16억 의 뉴런을 포함하는 인간 대뇌 피질의 약 1%를 시뮬레이션하는데 사용되어 왔다.
  • IBM Kittyhawk 프로젝트 팀은 Linux를 컴퓨팅 노드로 이식하고 Blue Gene/P에서 규모에 맞게 실행되는 일반 Web 2.0 워크로드를 시연했습니다.ACM Operating Systems Review에 게재된 이 문서에서는 트리 네트워크를 통해 이더넷을 터널링하는 커널 드라이버에 대해 설명하고 있습니다.이것에 의해, 모든 TCP/IP [35][36]접속이 실현됩니다.MySQL과 같은 표준 Linux 소프트웨어를 실행하는 경우 SpecJBB에 대한 성능 결과는 [citation needed]역대 최고 수준입니다.
  • 2011년 Rutgers University / IBM / University of Texas 팀은 IBM Watson Research Center의 Blue Gene/P 설치와 함께 KOST Shaheen 설치를 "연방형 고성능 컴퓨팅 클라우드"로 연결하여 석유 저장고 최적화 애플리케이션으로 [37]IEEE Scale 2011 과제를 달성했습니다.

블루진/Q

IBM Blue Gene/Q는 일리노이 주 시카고 근처의 Argonne 국립 연구소에 설치되었습니다.

Blue Gene 시리즈의 세 번째 슈퍼컴퓨터 디자인인 Blue Gene/Q는 최고 성능 [38]20Petaflops로 LINPACK 벤치마크 성능 17Petaflops도달했습니다.Blue Gene/Q는 Blue Gene/L 및 /P 아키텍처를 지속적으로 확장하고 강화합니다.

설계.

Blue Gene/Q Compute 칩은 18코어 칩입니다.64비트 A2 프로세서코어는 동시에 4방향 멀티스레드되며 1.6GHz로 동작합니다.각 프로세서 코어는 SIMD 쿼드벡터 2정밀 부동소수점 유닛(IBM QPX)을 갖추고 있다.16 프로세서 코어는 컴퓨팅에 사용되며 17번째 코어는 인터럽트, 비동기 I/O, MPI 페이싱 및 RAS 등의 운영체제 지원기능에 사용된다.18번째 코어는 용장 스페어로 사용되며, 제조 수율을 높이기 위해 사용됩니다.스페어 아웃된 코어는 기능 동작 중에 셧다운됩니다.프로세서 코어는 크로스바 스위치에 의해 32 MB eDRAM L2 캐시에 링크되어 있으며, 절반의 코어 속도로 동작합니다.L2 캐시는 다중 버전으로 트랜잭션 메모리 및 추측 실행을 지원하며 하드웨어에서 [39]원자 작업을 지원합니다.L2 캐시 누락은 1.33GHz로 동작하는 내장 DDR3 메모리 컨트롤러 2개로 처리됩니다.칩은 또한 2GB/s 칩 투 칩 링크와 5D 토러스 구성으로 칩 투 칩 통신을 위한 로직을 통합합니다.Blue Gene/Q 칩은 IBM의 구리 SOI 공정에서 45nm로 제조됩니다.1.6GHz에서 최대 204.8GFLOPS의 성능을 발휘하며 약 55와트를 소비합니다.칩은 19×19mm(359.5mm²)로 14억7000만개의 트랜지스터로 구성되어 있다.칩은 16GB DDR3 DRAM과 함께 컴퓨팅 카드에 마운트됩니다(사용자 프로세서 [40]코어당 1GB).

32분기[41] 계산 드로어에는 각각 [42]수냉식 계산 카드가 32장 포함되어 있습니다."미드플레인"(상자)에는 총 512개의 컴퓨팅 노드를 위한 16개의 Q32 컴퓨팅 드로어가 있으며, 5D 토러스 구성(4x4x4x2)으로 전기적으로 상호 연결됩니다.미드플레인 레벨을 넘어서는 접속은 모두 광학식입니다.랙에는 2개의 미드플레인이 있으며, 따라서 32개의 컴퓨팅 드로어가 있으며, 총 1024개의 컴퓨팅 노드, 16,384개의 사용자 코어 및 16TB [42]RAM이 있습니다.

개별 I/O 드로어는 랙 상부에 배치되거나 별도의 랙에 배치되며, 공랭식으로 되어 있으며, InfiniBand 또는 10기가비트 이더넷 [42]네트워킹용 8개의 컴퓨팅 카드와 8개의 PCIe 확장 슬롯이 포함되어 있습니다.

성능

2011년 11월 Blue Gene/Q 시스템 발표 당시 초기 4랙 Blue Gene/Q 시스템(노드 4096개, 사용자 프로세서 코어 65536개)은 677.1 Tera FLOPS Linpack으로 TOP500[1] 리스트에서 17위를 달성하여 2007년 104랙 BlueGene/L의 최초 설치를 능가했습니다.동일한 4랙 시스템이 250GTEPS(기가 횡단 에지/초) 이상의 GTEPS로 Graph500 목록에서[3] 1위를 차지했습니다.Blue Gene/Q 시스템은 또한 최대 2.1 GFLOPS/[2]W로 가장 에너지 효율이 높은 슈퍼컴퓨터 Green500 목록에서 1위를 차지했습니다.

2012년 6월 Blue Gene/Q 설치는 TOP500,[1] Graph500[3]Green500[2]세 가지 목록에서 모두 상위권을 차지했습니다.

설치

다음은 Blue Gene/Q 설치의 불완전한 목록입니다.2012년 6월 현재 TOP500 목록에는 1/2 랙(512 노드, 8192 프로세서 코어, 86.35 TFLOPS Linpack)[1] 이상의 Blue Gene/Q 설치가 20개 포함되어 있습니다.(크기에 의존하지 않는) 약 2.1 GFLOPS/W의 전력 효율로, 이 모든 시스템은 2012년 6월 Green 500 [2]리스트의 상위를 차지했습니다.

  • Sequoia라고 불리는 Blue Gene/Q 시스템은 2011년부터 Lawrence Livermore National Laboratory(LLNL)에 제공되어 2012년 6월에 완전히 배포되었습니다. 프로그램은 핵 시뮬레이션과 고급 과학 연구를 실행하는 고급 시뮬레이션컴퓨팅 프로그램의 일부입니다.약 3,000 평방 피트(280 m2)[43]의 면적을 커버하는 96개의 랙(프로세서 코어 160만 개 및 메모리 1.6 PB를 갖춘 98,304개의 컴퓨팅 노드)으로 구성되어 있습니다.2012년 6월, 이 시스템은 세계에서 가장 빠른 슈퍼컴퓨터로 [44][45]선정되었습니다.20.1 PFLOPS 피크, 16.32 PFLOPS 지속(Linpack), 최대 7.9 메가와트[1]전력을 소비합니다.2013년 6월 실적은 17.17 PFLOPS sustained([1]Linpack)이다.
  • Argonne Leadership Computing Facility의 Argonne National Laboratory에는 2012년에 Mira라고 하는 10 PFLOPS(피크) Blue Gene/Q 시스템이 설치되었습니다.48대의 랙(49,152대의 컴퓨팅 노드)과 70PB의 디스크 스토리지(470GB/s의 I/O 대역폭)[46][47]로 구성됩니다.
  • Forschungzentrum Jülich의 JUQEN은 28랙의 Blue Gene/Q 시스템으로 2013년 6월부터 2015년 11월까지 상위 [1]500위 안에 든 유럽 최고의 머신이었습니다.
  • Lawrence Livermore National Laboratory(LLNL)의 벌컨은 24랙, 5PFLOPS(피크) 블루 진/Q 시스템으로 2012년에 위탁되어 2019년에 [48]폐기되었다.Vulcan은 Livermore의 HPC(High Performance Computing) Innovation[49] Center를 통해 랩 산업 프로젝트를 수행했으며 DOE/National Nuclear Security Administration(NNSA) [50]미션을 지원하기 위한 학술 협력도 수행했습니다.
  • 이탈리아 [51]볼로냐에 있는 CINECA Supercomputing 시설의 Fermi는 10랙, 2PFLOPS(피크)의 Blue Gene/Q 시스템입니다.
  • DiRAC의 일부로서 EPCC에든버러 대학에서 6랙(6144노드) Blue Gene[52]/Q 시스템을 호스트하고 있습니다.
  • 2013년 Rensselaer Polytechnic Institute에는 AMOS라는 추가 컴퓨팅 하드웨어가 포함된 5랙 Blue Gene/Q 시스템이 설치되었습니다.[53]이 시스템의 등급은 1048.6 테라플롭스로, 사립대학에서 가장 강력한 슈퍼컴퓨터이며,[54] 2014년에는 모든 대학 중 세 번째로 강력한 슈퍼컴퓨터였습니다.
  • 2012년 [55]6월 빅토리아주 생명과학 계산 이니셔티브(Victorian Life Sciences Computation Initiative)에서 838 TFLOPS (피크) 블루 유전자/Q 시스템이 설치되었습니다.이 시스템은 IBM과 VLSCI 간의 협업의 일부로, 진단 개선, 신약 목표 발견, 치료 개선 및 질병에 [56]대한 이해 증진을 목적으로 합니다.이 시스템은 4개의 랙으로 구성되어 있으며, 350TB의 스토리지, 65,536개의 코어, 64TB의 [57]RAM을 갖추고 있습니다.
  • 2012년 [58]7월 로체스터 대학에 209 TFLOPS(피크) 블루 유전자/Q 시스템이 설치되었습니다. 시스템은 Health Sciences Center for Computational Innovation의 일부로서, 의료과학 연구 프로그램에 고성능 컴퓨팅을 적용하는 것을 목적으로 하고 있습니다.이 시스템은 400TB의 고성능 스토리지를 [59]갖춘 단일 랙(컴퓨팅 노드 1,024개)으로 구성됩니다.
  • 2013년 [60]3월 EPFL에 209 TFLOPS 피크(172 TFLOPS LINPACK) 블루 유전자/Q 시스템 Lemanicus가 설치되었다.이 시스템은 스위스 프랑스어권 제네바 호숫가에 있는 세 개의 주요 연구 기관인 로잔 대학, 제네바 대학, EPFL 간의 협업인 고등 모델링 과학 센터([61]Center for Advanced Modeling Science CADMOS)에 속해 있습니다.시스템은 단일 랙(컴퓨팅 노드 1,024개)과 2.1PB의 IBM GPFS-GSS 스토리지로 구성됩니다.
  • 2011년 초 싱가포르 A*STAR Computational Resource Center에 약 100 TFLOPS(피크)의 하프랙 Blue Gene/Q 시스템이 설치되었습니다.[62]

적용들

BG/Q에서 기록적인 과학 애플리케이션이 실행되었으며, BG/Q는 10페타플롭의 지속적인 성능을 최초로 달성한 제품입니다.우주론 시뮬레이션 프레임워크 HACC는 3조 6천억 개의 입자 벤치마크 [63]실행으로 거의 14개의 페타플롭을 달성했으며, Cardioid [64][65]코드는 인간의 심장의 전기생리학 모델을 만들었으며, 세쿼이아에서 거의 실시간 시뮬레이션으로 거의 12개의 페타플롭을 달성했습니다.완전 압축 가능한 플로우 솔버도 Sequoia에서 14.4 PFLOP/s(원래 11 PFLOP/s)를 달성했으며, 이는 기계 공칭 피크 성능의 [66]72%에 해당합니다.

「 」를 참조해 주세요.

레퍼런스

  1. ^ a b c d e f g h i "November 2004 - TOP500 Supercomputer Sites". Top500.org. Retrieved 13 December 2019.
  2. ^ a b c d e "Green500 - TOP500 Supercomputer Sites". Green500.org. Archived from the original on 26 August 2016. Retrieved 13 October 2017.
  3. ^ a b c "The Graph500 List". Archived from the original on 2011-12-27.
  4. ^ Harris, Mark (September 18, 2009). "Obama honours IBM supercomputer". Techradar.com. Retrieved 2009-09-18.
  5. ^ "Supercomputing Strategy Shifts in a World Without BlueGene". Nextplatform.com. 14 April 2015. Retrieved 13 October 2017.
  6. ^ "IBM to Build DoE's Next-Gen Coral Supercomputers - EE Times". EETimes. Archived from the original on 30 April 2017. Retrieved 13 October 2017.
  7. ^ "Blue Gene: A Vision for Protein Science using a Petaflop Supercomputer" (PDF). IBM Systems Journal. 40 (2). 2017-10-23.
  8. ^ "A Talk with the Brain behind Blue Gene", BusinessWeek, November 6, 2001
  9. ^ "BlueGene/L". Archived from the original on 2011-07-18. Retrieved 2007-10-05.
  10. ^ "hpcwire.com". Archived from the original on September 28, 2007.
  11. ^ "SC06". sc06.supercomputing.org. Retrieved 13 October 2017.
  12. ^ "Archived copy". Archived from the original on 2006-12-11. Retrieved 2006-12-03.{{cite web}}: CS1 maint: 제목으로 아카이브된 복사(링크)
  13. ^ "Mouse brain simulated on computer". BBC News. April 27, 2007. Archived from the original on 2007-05-25.
  14. ^ "IBM100 - Blue Gene". 03.ibm.com. 7 March 2012. Retrieved 13 October 2017.
  15. ^ Kunkel, Julian M.; Ludwig, Thomas; Meuer, Hans (12 June 2013). Supercomputing: 28th International Supercomputing Conference, ISC 2013, Leipzig, Germany, June 16-20, 2013. Proceedings. Springer. ISBN 9783642387500. Retrieved 13 October 2017 – via Google Books.
  16. ^ "Blue Gene". IBM Journal of Research and Development. 49 (2/3). 2005.
  17. ^ Kissel, Lynn. "BlueGene/L Configuration". asc.llnl.gov. Archived from the original on 17 February 2013. Retrieved 13 October 2017.
  18. ^ "ece.iastate.edu". Archived from the original on April 29, 2007.
  19. ^ William Scullin (March 12, 2011). Python for High Performance Computing. Atlanta, GA.
  20. ^ Blue Matter 소스 코드, 2020년 2월 28일 취득
  21. ^ "IBM Triples Performance of World's Fastest, Most Energy-Efficient Supercomputer". 2007-06-27. Retrieved 2011-12-24.
  22. ^ "Overview of the IBM Blue Gene/P project". IBM Journal of Research and Development. 52: 199–220. Jan 2008. doi:10.1147/rd.521.0199.
  23. ^ "Supercomputing: Jülich Amongst World Leaders Again". IDG News Service. 2007-11-12.
  24. ^ "IBM Press room - 2009-02-10 New IBM Petaflop Supercomputer at German Forschungszentrum Juelich to Be Europe's Most Powerful". 03.ibm.com. 2009-02-10. Retrieved 2011-03-11.
  25. ^ "Argonne's Supercomputer Named World's Fastest for Open Science, Third Overall". Mcs.anl.gov. Archived from the original on 8 February 2009. Retrieved 13 October 2017.
  26. ^ "Rice University, IBM partner to bring first Blue Gene supercomputer to Texas". news.rice.edu.
  27. ^ 아카이브 2009-12-23 at the Wayback Machine, Dir.bg, 2008년9월 9일
  28. ^ "IBM Press room - 2010-02-11 IBM to Collaborate with Leading Australian Institutions to Push the Boundaries of Medical Research - Australia". 03.ibm.com. 2010-02-11. Retrieved 2011-03-11.
  29. ^ "Archived copy". Archived from the original on 2013-03-06. Retrieved 2013-09-07.{{cite web}}: CS1 maint: 제목으로 아카이브된 복사(링크)
  30. ^ "University of Rochester and IBM Expand Partnership in Pursuit of New Frontiers in Health". University of Rochester Medical Center. May 11, 2012. Archived from the original on 2012-05-11.
  31. ^ "IBM and Universiti Brunei Darussalam to Collaborate on Climate Modeling Research". IBM News Room. 2010-10-13. Retrieved 18 October 2012.
  32. ^ Ronda, Rainier Allan. "DOST's supercomputer for scientists now operational". Philstar.com. Retrieved 13 October 2017.
  33. ^ "Topalov training with super computer Blue Gene P". Players.chessdo.com. Archived from the original on 19 May 2013. Retrieved 13 October 2017.
  34. ^ 카쿠, 미치오미래의 물리학(뉴욕: Doubleday, 2011), 91.
  35. ^ "Project Kittyhawk: A Global-Scale Computer". Research.ibm.com. Retrieved 13 October 2017.
  36. ^ https://wayback.archive-it.org/all/20081031010631/http://weather.ou.edu/~apw/http/http/http/http.pdf[베어 URL PDF]
  37. ^ "Rutgers-led Experts Assemble Globe-Spanning Supercomputer Cloud". News.rutgers.edu. 2011-07-06. Archived from the original on 2011-11-10. Retrieved 2011-12-24.
  38. ^ "IBM announces 20-petaflops supercomputer". Kurzweil. 18 November 2011. Retrieved 13 November 2012. IBM has announced the Blue Gene/Q supercomputer, with peak performance of 20 petaflops
  39. ^ "Memory Speculation of the Blue Gene/Q Compute Chip". Retrieved 2011-12-23.
  40. ^ "The Blue Gene/Q Compute chip" (PDF). Archived from the original (PDF) on 2015-04-29. Retrieved 2011-12-23.
  41. ^ "IBM Blue Gene/Q supercomputer delivers petascale computing for high-performance computing applications" (PDF). 01.ibm.com. Retrieved 13 October 2017.
  42. ^ a b c