AWS ParallelCluster
일반
Q: AWS ParallelCluster를 사용해야 하는 이유는 무엇인가요?
AWS에서 고성능 컴퓨팅(HPC) 워크로드를 실행하려면 AWS ParallelCluster를 사용해야 합니다. AWS ParallelCluster를 사용하여 HPC 애플리케이션용 테스트 환경을 신속하게 구축할 수 있습니다. 또한 클라우드에서 HPC 인프라를 구축하기 위한 시작점으로 AWS ParallelCluster를 사용할 수 있습니다. AWS ParallelCluster는 클러스터 관리의 운영 오버헤드를 최소화하고 클라우드로의 마이그레이션 경로를 간소화합니다.
Q: 어떤 유형의 애플리케이션에서 AWS ParallelCluster 사용에 따른 이점이 분명히 나타나나요?
MPI 애플리케이션 및 NCCL을 사용하는 기계 학습 애플리케이션과 같이 클라우드에서 친숙한 클러스터와 같은 환경이 필요한 고성능 컴퓨팅 애플리케이션에서 AWS ParallelCluster의 이점이 가장 잘 가장 드러납니다.
Q: AWS ParallelCluster는 다른 AWS 서비스와 어떤 관련이 있나요?
AWS ParallelCluster는 완전관리형 AWS 배치 스케줄러인 AWS Batch와 통합됩니다. AWS Batch는 리소스 프로비저닝의 이점이 추가된 온프레미스 배치 스케줄러의 '클라우드 네이티브' 대체품이라고 할 수 있습니다.
또한 AWS ParallelCluster는 HPC 클러스터 노드 간에 지연 시간이 짧은 네트워킹이 필요한 애플리케이션을 위해 Elastic Fabric Adapter(EFA)와 통합됩니다. AWS ParallelCluster는 컴퓨팅 워크로드를 위한 확장 가능한 스토리지가 포함된 고성능 파일 시스템인 Amazon FSx for Lustre 및 Amazon Elastic File System과도 통합됩니다.
Q: AWS ParallelCluster는 클러스터를 구축할 때 무엇을 생성하나요?
AWS ParallelCluster는 구축 및 제어를 위한 헤드 노드, 컴퓨팅 인스턴스의 클러스터, 공유 파일 시스템 및 배치 스케줄러를 프로비저닝합니다. 사용자 지정 설치 전후 부트스트랩 작업을 사용하여 사용 사례를 확장하고 사용자 지정할 수도 있습니다.
Q: AWS ParallelCluster에서 작동하는 배치 스케줄러는 무엇인가요?
AWS ParallelCluster는 AWS의 완전관리형 클라우드 네이티브 배치 스케줄러인 AWS Batch를 지원하며 SLURM과도 호환됩니다.
Q: AWS ParallelCluster에서 지원되는 Linux 배포판은 무엇인가요?
AWS ParallelCluster는 현재 Amazon Linux 2, Ubuntu 18.04, CentOS 7 및 CentOS 8과 호환됩니다. AWS ParallelCluster는 사용할 기본 AMI 목록(리전당 호환되는 Linux 배포판당 하나)을 제공합니다. Linux 배포판 가용성은 GovCloud 및 중국 파티션에서 더 제한됩니다. https://docs.aws.amazon.com/parallelcluster/latest/ug/cluster-definition.html#base-os에서 AWS ParallelCluster 사용 설명서를 검토하여 배포판 호환성에 대해 자세히 알아볼 수 있습니다.
또한 Amazon Linux에서 클러스터가 실행되는 동안 사용자는 AWS ParallelCluster 명령줄 도구를 실행하여 Python을 실행하고 AWS ParallelCluster 패키지를 다운로드할 수 있는 모든 컴퓨터에서 클러스터를 생성하고 관리할 수 있습니다.
Q: AWS ParallelCluster에서 자체 AMI를 사용할 수 있나요?
AWS ParallelCluster AMI를 사용자 지정하는 방법은 세 가지입니다. 기존 AWS ParallelCluster AMI를 가져와서 수정하거나, 기존 사용자 지정 AMI를 가져와 AWS ParallelCluster에 필요한 변경 사항을 적용하거나, 런타임 시 사용자 지정 AMI를 사용할 수 있습니다. 자세한 내용을 알아보려면 https://aws-parallelcluster.readthedocs.io/en/latest/tutorials/02_ami_customization.html을 참조하세요.
Q: AWS ParallelCluster는 Windows를 지원하나요?
AWS ParallelCluster는 Windows 클러스터 구축을 지원하지 않습니다. 그러나 Windows 시스템에서 AWS ParallelCluster 명령줄 도구를 실행할 수 있습니다. 자세한 내용을 알아보려면 https://docs.aws.amazon.com/parallelcluster/latest/ug/install-windows.html을 방문하세요.
Q: AWS ParallelCluster는 예약 인스턴스와 스팟 인스턴스를 지원하나요?
예. AWS ParallelCluster는 온디맨드, 예약 및 스팟 인스턴스를 지원합니다. 스팟 인스턴스에서 수행된 작업은 중단될 수 있습니다. 내결함성이 있고 유연한 애플리케이션을 위해 스팟 인스턴스만 사용하는 것이 좋습니다.
Q: 클러스터의 컴퓨팅 노드에 여러 인스턴스 유형이 있을 수 있나요?
예. 여러 큐와 큐당 여러 인스턴스가 있을 수 있습니다.
Q: AWS ParallelCluster로 얼마나 큰 클러스터를 구축할 수 있나요?
AWS ParallelCluster를 사용하여 구축할 수 있는 클러스터 크기에는 기본 제한이 없습니다. 그러나 계정에 존재하는 인스턴스 제한과 같이 고려해야 할 몇 가지 제약 조건이 있습니다. 일부 인스턴스 유형의 경우 기본 제한이 예상 HPC 클러스터 크기보다 작을 수 있으며 클러스터를 구축하기 전에 제한 증가 요청이 필요합니다. EC2 제한에 대한 자세한 내용을 알아보려면 https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-resource-limits.html을 참조하세요.
Q: AWS ParallelCluster는 배치 그룹 사용을 지원하나요?
예. AWS ParallelCluster는 기본적으로 배치 그룹을 사용하지 않지만 기존 배치 그룹을 AWS ParallelCluster에 제공하거나 시작 시 AWS ParallelCluster에서 새 배치 그룹을 생성하도록 허용하여 배치 그룹을 활성화할 수 있습니다. 배치 그룹을 사용하도록 전체 클러스터 또는 컴퓨팅 노드만 구성할 수도 있습니다. 자세한 내용을 알아보려면 https://cfncluster.readthedocs.io/en/latest/configuration.html#placement-group을 참조하세요.
Q: AWS ParallelCluster에서 어떤 종류의 공유 스토리지를 사용할 수 있나요?
기본적으로 AWS ParallelCluster는 클러스터의 프라이머리 노드에 연결되고 네트워크 파일 시스템(NFS)을 통해 클러스터의 컴퓨팅 노드로 내보내지는 15GB Elastic Block Storage(EBS)의 외부 볼륨을 자동으로 구성합니다. https://docs.aws.amazon.com/parallelcluster/latest/ug/ebs-section.html에서 EBS 스토리지 구성에 대해 자세히 알아볼 수 있습니다. 필요에 맞게 이 공유 스토리지의 볼륨을 구성할 수 있습니다.
AWS ParallelCluster는 Amazon Elastic File System(EFS), RAID 및 Amazon FSx for Lustre 파일 시스템과도 호환됩니다. Amazon S3 객체 스토리지를 작업 입력 소스 또는 작업 출력 대상으로 사용하여 AWS ParallelCluster를 구성할 수도 있습니다. AWS ParallelCluster로 이러한 모든 스토리지 옵션을 구성하는 방법에 대한 자세한 내용을 알아보려면 https://docs.aws.amazon.com/parallelcluster/latest/ug/configuration.html을 참조하세요.
Q: AWS ParallelCluster 요금은 얼마인가요?
AWS ParallelCluster는 추가 요금 없이 사용할 수 있으며 애플리케이션을 실행하는 데 필요한 AWS 리소스에 대해서만 요금을 지불하면 됩니다.
Q: 어느 리전에서 AWS ParallelCluster를 사용할 수 있나요?
AWS ParallelCluster는 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), EU(스톡홀름), EU(파리), EU(런던), EU(프랑크푸르트), EU( 아일랜드), EU(밀라노), 아프리카(케이프타운), 중동(바레인), 아시아 태평양(뭄바이), 아시아 태평양(서울), 아시아 태평양(도쿄), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(홍콩), AWS GovCloud(US-Gov-East), AWS GovCloud(US-Gov-West), 중국(베이징) 및 중국(닝샤) 리전에서 사용할 수 있습니다.
Q: AWS ParallelCluster는 어떻게 지원되나요?
사용자가 EC2 인스턴스 및 배치 스케줄러에 대한 필수 유지관리, 보안 패칭, 사용자 관리 및 MPI 문제 해결을 포함한 클러스터 운영을 담당합니다. AWS ParallelCluster 지원은 리소스 구축 및 AWS Batch 통합 관련 문제로 제한됩니다. AWS Batch 스케줄러 문제는 AWS Batch 서비스 팀에서 지원합니다. 다른 비 AWS 스케줄러에 대한 질문은 자체 지원 커뮤니티에 문의해야 합니다. AWS ParallelCluster의 기본 AMI 중 하나 대신 사용자 지정 AMI를 사용하는 경우 AWS ParallelCluster는 사용자 지정 AMI 사용과 관련된 OS 문제를 지원하지 않는다는 점에 유의하세요.
Q: AWS ParallelCluster는 어떻게 릴리스되나요?
AWS ParallelCluster는 Python Package Index(PyPI)를 통해 릴리스되며 pip를 통해 설치할 수 있습니다. AWS ParallelCluster의 소스 코드는 GitHub의 Amazon Web Services(https://github.com/aws/aws-parallelcluster)에 호스팅되어 있습니다.
Elastic Fabric Adapter(EFA)
Q: EFA를 사용해야 하는 이유는 무엇인가요?
EFA를 사용하면 긴밀하게 연결된 고성능 컴퓨팅(HPC) 애플리케이션에 클라우드의 확장성, 유연성 및 탄력성을 적용할 수 있습니다. EFA 사용 시에는 기존 TCP 채널에 비해 긴밀하게 연결된 HPC 애플리케이션의 지연 시간이 더 짧고 일관적이며 처리량(throughput)은 더 높아지므로 해당 애플리케이션을 더욱 효율적으로 확장할 수 있습니다. 지원되는 모든 EC2 인스턴스에서 사전 예약 없이 온디맨드로 EFA 지원을 동적으로 사용할 수 있으므로 변화하는 비즈니스 및 워크로드 우선 순위에 유연하게 대응할 수 있습니다.
Q: EFA 사용 시 활용할 수 있는 애플리케이션 유형은 무엇인가요?
HPC 애플리케이션은 인스턴스 클러스터 전체에 컴퓨팅 워크로드를 분산하여 병렬 처리를 지원합니다. HPC 애플리케이션의 예로는 전산 유체 역학(CFD), 오류 시뮬레이션, 날씨 시뮬레이션 등이 있습니다. 대개 메시지 전달 인터페이스(MPI)를 사용하여 작성되는 HPC 애플리케이션은 지연 시간과 대역폭 측면에서 모두 인스턴스 간 통신에 대해 엄격한 요구 사항을 적용합니다. libfabric 통신을 지원하는 MPI 및 기타 HPC 미들웨어를 사용하는 애플리케이션에는 EFA를 사용하는 것이 유리합니다.
Q: EFA 통신은 어떤 방식으로 작동하나요?
EFA 디바이스는 Elastic Network Adapter(ENA) 디바이스의 모든 기능을 제공하는 것에 더해 새로운 OS 우회 하드웨어 인터페이스를 제공합니다. 이 인터페이스를 사용하면 사용자 공간 애플리케이션에서 하드웨어의 안정적인 전송 기능과 직접 통신할 수 있습니다. 대다수 애플리케이션은 메시지 전달 인터페이스(MPI) 등의 기존 미들웨어를 사용하여 EFA에 접속합니다. AWS는 EFA의 OS 우회 기능을 지원하기 위해 여러 미들웨어 공급업체와 협력해 왔습니다. OS 우회 기능을 사용하는 통신은 Virtual Private Cloud (VPC)의 단일 서브넷 내에 포함된 인스턴스에서만 사용 가능합니다.
Q: 어떤 인스턴스 유형에서 EFA를 지원하나요?
EFA는 현재 c5n.18xlarge, c5n.metal, i3en.24xlarge, i3en.metal, inf1.24xlarge, m5dn.24xlarge, m5n.24xlarge, r5dn.24xlarge, r5n.24xlarge, p3dn.24xlarge, p4d, m6i.32xlarge, m6i.metal, c6i.32xlarge, c6i.metal, r6i.32xlarge, r6i.metal, x2iezn.12xlarge, x2iezn.metal 및 hpc6a.48xlarge 인스턴스에서 사용 가능합니다.
Q: EFA ENI와 ENA ENI의 차이점은 무엇인가요?
ENA 탄력적 네트워크 인터페이스(ENI)는 VPC 네트워킹을 지원하는 데 필요한 기존 방식의 IP 네트워킹 기능을 제공합니다. EFA ENI는 ENA ENI의 모든 기능을 제공할 뿐만 아니라 애플리케이션이 확장 프로그래밍 인터페이스를 사용하여 인스턴스 커널(OS 우회 통신) 없이 EFA ENI와 직접 통신할 수 있도록 하드웨어 지원도 제공합니다. EFA ENI는 이와 같은 고급 기능을 제공하므로 인스턴스를 시작할 때나 중지된 인스턴스에만 연결할 수 있습니다.
Q: Elastic Fabric Adapter(EFA)와 Elastic Network Adapter(ENA) 모두 SRD(Scalable Reliable Diagram)를 사용합니다. 이 둘은 어떻게 다른가요?
EFA와 ENA Express 모두 AWS에서 개발한 SRD 프로토콜을 사용합니다. EFA는 강하게 결합된 워크로드에서 하드웨어의 전송 통신을 사용하여 애플리케이션 계층에 직접 연결할 수 있도록 만들어졌습니다. ENA Express는 TCP 및 UDP 프로토콜을 사용하는 기존 네트워킹 애플리케이션에 SRD 프로토콜을 사용하도록 설계되었습니다. ENA Express는 가용 영역 안에서도 작동합니다.
Q: 인스턴스에서 EFA를 사용할 때의 사전 요구 사항은 무엇인가요?
EFA 지원은 인스턴스를 시작할 때 활성화하거나 중지된 인스턴스에 추가할 수 있습니다. 실행 중인 인스턴스에 EFA 디바이스를 연결할 수는 없습니다.
NICE DCV
일반
Q: 왜 NICE DCV를 사용해야 하나요?
NICE DCV는 모바일 디바이스의 스트리밍 생산성 애플리케이션에서 HPC 시뮬레이션 시각화에 이르는 광범위한 사용 시나리오에 적합한 그래픽 최적화 스트리밍 프로토콜입니다. 서버 측에서 NICE DCV는 Windows와 Linux를 지원합니다. 클라이언트 측에서 NICE DCV는 Windows, Linux 및 MacOS를 지원하고 디바이스 간 액세스를 기반으로 HTML5 브라우저를 위한 웹 클라이언트를 제공합니다.
Q: NICE DCV를 사용하려면 기본 클라이언트를 다운로드해야 하나요?
아니요, NICE DCV는 모든 HTML5 웹 브라우저에서 작동합니다. 그러나 네이티브 클라이언트는 다중 모니터 지원과 같은 추가 기능을 지원하며 Windows 기본 클라이언트는 3D 마우스, 스토리지 디바이스 및 스마트 카드에 대한 USB 지원도 제공합니다. 워크플로에 이러한 기능이 필요한 경우 여기에서 Windows, Linux 및 MacOS용 NICE DCV 네이티브 클라이언트를 다운로드할 수 있습니다.
Q: 어떤 유형의 애플리케이션에서 NICE DCV 사용에 따른 이점이 분명히 나타나나요?
NICE DCV의 성능은 애플리케이션에 구애받지 않지만 지연 시간이 짧아야 하는 3D 그래픽 집약적 애플리케이션에서 NICE DCV 사용 시 상당한 스트리밍 성능상 이점이 관찰됩니다. 지진 및 저수지 시뮬레이션, 전산 유체 역학(CFD) 분석, 3D 분자 모델링, VFX 합성 및 게임 엔진 기반 3D 렌더링과 같은 HPC 애플리케이션은 NICE DCV의 성능상 이점이 분명한 애플리케이션의 몇 가지 예입니다.
Q: 어느 인스턴스 유형에서 NICE DCV를 지원하나요?
NICE DCV는 모든 Amazon EC2 x86-64 아키텍처 기반 인스턴스 유형에서 지원됩니다. G2, G3, G4 등의 NVIDIA GRID 호환 GPU 인스턴스와 함께 사용하는 경우 NICE DCV는 하드웨어 인코딩을 활용하여 성능을 개선하고 시스템 로드를 줄입니다.
NICE DCV 활성화
Q: Amazon EC2에서 NICE DCV를 사용할 때 NICE DCV 라이선스 서버를 설치해야 하나요?
아니요, EC2 인스턴스에 NICE DCV 서버를 설치하고 사용하는 데는 라이선스 서버가 필요하지 않습니다. 그러나 Amazon S3 버킷에 대한 액세스를 보장하도록 인스턴스를 구성해야 합니다. NICE DCV 서버는 Amazon EC2 인스턴스에서 실행되고 있음을 자동으로 감지하고 주기적으로 Amazon S3 버킷에 연결하여 유효한 라이선스를 사용할 수 있는지 확인합니다. Amazon EC2에서 NICE DCV 라이선스 설정에 대한 자세한 지침을 알아보려면 여기에서 문서를 참조하세요.
Q: 실행 중인 인스턴스에서 NICE DCV를 활성화할 수 있나요?
예. NICE DCV는 실행 중인 세션에 다운로드하여 설치할 수 있는 다운로드 가능한 소프트웨어입니다. NICE DCV 다운로드 페이지 링크는 여기입니다.
Q: NICE DCV 서버에서 지원하는 Windows 및 Linux 배포판은 무엇인가요?
NICE DCV 서버의 OS 지원은 여기에 문서화되어 있습니다.
NICE DCV 사용
Q: NICE DCV의 실시간 성능을 모니터링하려면 어떻게 해야 하나요?
전체 화면 모드가 아닐 때 NICE DCV 클라이언트의 원격 세션 상단에 도구 모음 리본이 표시됩니다. Settings(설정) >> Streaming Mode(스트리밍 모드)를 클릭합니다. 그러면 사용자가 'Best responsiveness(최고의 응답성)(기본값)' 또는 'Best quality(최고의 품질)'를 선택할 수 있는 창이 표시됩니다. 실시간 성능 프레임 속도, 네트워크 지연 시간 및 대역폭 사용량을 모니터링하려면 팝업 창 하단에 있는 'Display Streaming Metrics(스트리밍 지표 표시)'를 클릭합니다.
Q: NICE DCV 서버는 어떻게 관리하나요?
NICE DCV 서버는 운영 체제 서비스로 실행됩니다. NICE DCV 서버를 시작, 중지 또는 구성하려면 관리자(Windows) 또는 루트(Linux)로 로그인해야 합니다. 자세한 내용을 알아보려면 여기에서 설명서를 참조하세요.
Q: NICE DCV는 어느 포트에서 통신하나요?
기본적으로 NICE DCV 서버는 포트 8443을 통해 통신하도록 구성됩니다. NICE DCV 서버를 설치한 후 사용자 지정 TCP 포트를 지정할 수 있습니다. 포트는 1024보다 커야 합니다.
Q: NICE DCV를 사용하여 Linux에서 GPU 공유를 활성화하려면 어떻게 해야 하나요?
GPU 공유를 통해 여러 NICE DCV 가상 세션 간에 하나 이상의 물리적 GPU를 공유할 수 있습니다. GPU 공유를 사용하면 단일 NICE DCV 서버를 사용하고 서버의 물리적 GPU 리소스를 공유하는 여러 가상 세션을 호스팅할 수 있습니다. GPU 공유를 활성화하는 방법에 대한 자세한 내용을 알아보려면 여기에서 문서를 참조하세요.
Q: Windows에서 NICE DCV의 GPU 공유 기능을 사용할 수 있나요?
아니요, NICE DCV GPU 공유는 Linux NICE DCV 서버에서만 사용할 수 있습니다.
Q: 가상 세션이란 무엇이며 어떻게 관리하나요?
가상 세션은 Linux NICE DCV 서버에서만 지원됩니다. NICE DCV 서버는 여러 가상 세션을 동시에 호스팅할 수 있습니다. 가상 세션은 NICE DCV 사용자가 생성하고 관리합니다. NICE DCV 사용자는 자신이 생성한 세션만 관리할 수 있습니다. 루트 사용자는 NICE DCV 서버에서 현재 실행 중인 모든 가상 세션을 관리할 수 있습니다. 가상 세션 관리에 대한 지침을 알아보려면 여기에서 문서를 참조하세요.
NICE EnginFrame
Q: EnginFrame을 사용해야 하는 이유는 무엇인가요?
EnginFrame을 사용하면 도메인 전문가(예: 과학자, 엔지니어, 분석가)가 워크플로를 클라우드로 쉽게 확장하고 결과 도출 시간을 단축하여 생산성을 높일 수 있기 때문입니다. EnginFrame은 관리자가 AWS 리소스를 관리하는 오버헤드와 해당 리소스에 대한 사용자의 권한 및 액세스를 줄입니다. 이러한 기능을 통해 시간을 절약하고 실수를 줄일 수 있으며 팀은 인프라 관리에 대해 걱정하기보다 혁신적인 연구 및 개발 수행에 더 집중할 수 있습니다.
Q: 온프레미스 환경에서 EnginFrame을 활성화하려면 어떻게 해야 하나요?
EnginFrame AWS HPC 커넥터는 EnginFrame 버전 2021.0 이상에서 지원됩니다. 환경에 EnginFrame을 설치하면 관리자는 관리자 포털에서 AWS 클러스터 구성 정의를 시작할 수 있습니다.
Q: EnginFrame 관리자는 어떻게 AWS HPC 환경을 설정하거나 구성할 수 있나요?
EnginFrame 관리자는 AWS ParallelCluster를 사용하여 사용자의 작업을 수락할 준비가 된 AWS에서 실행되는 HPC 클러스터를 생성할 수 있습니다. EnginFrame 내에서 이를 수행하기 위해 관리자는 ParallelCluster 클러스터 구성을 생성, 편집 또는 업로드하는 것으로 시작합니다. 클러스터 생성 단계의 일부로 관리자는 지정된 AWS 클러스터에 대한 고유한 이름을 생성하고 이를 모든 사용자나 특정 사용자 및/또는 사용자 그룹 세트가 액세스할 수 있는지 또는 아무도 액세스할 수 없는지 지정합니다. 생성된 AWS 클러스터는 관리자에 의해 제거될 때까지 제출된 작업을 수락할 수 있습니다. 기본적으로 생성된 상태의 AWS 클러스터는 제출된 작업을 수락할 준비를 하기 위해 최소한의 필수 리소스 세트만 사용하고 작업이 제출되면 탄력적으로 스케일 업됩니다.
Q: 사용자는 온프레미스에서 작업 실행이나 AWS에서 작업 실행을 어떻게 선택할 수 있나요?
관리자가 AWS를 옵션으로 활성화한 EnginFrame 서비스의 경우 드롭다운 메뉴를 사용하여 온프레미스와 AWS에서 사용 가능한 컴퓨팅 큐 중에서 선택할 수 있습니다. 관리자는 워크로드 실행에 적합한 큐를 선택하는 데 도움이 되는 텍스트 설명을 포함할 수 있습니다.
Q: AWS에서 EnginFrame과 함께 사용할 수 있는 작업 스케줄러는 무엇인가요? 온프레미스와 AWS에서 다른 작업 스케줄러를 사용할 수 있나요?
EnginFrame은 AWS에서 생성된 클러스터에 대해 Slurm을 지원합니다. 온프레미스에서 AWS와 다른 스케줄러를 사용하도록 선택할 수도 있습니다(예: 온프레미스에서는 LSF를 사용하고 AWS에서는 Slurm 사용). 서로 다른 작업 스케줄러를 사용하여 온프레미스와 AWS 모두에서 작업을 제출하도록 설정한 EnginFrame 서비스의 경우 관리자는 모든 작업 제출 스크립트가 해당하는 각 스케줄러를 통한 제출을 지원하는지 확인해야 합니다.
Q: AWS에서 어떤 운영 체제를 사용할 수 있나요? 온프레미스와 AWS에서 다른 운영 체제를 사용할 수 있나요?
EnginFrame은 AWS에서 Amazon Linux 2, CentOS 7, Ubuntu 18.04 및 Ubuntu 20.04 운영 체제를 지원합니다. AWS에서 사용하는 것과 다른 운영 체제를 온프레미스에서 사용하도록 선택할 수 있습니다. 그러나 EnginFrame을 사용하여 온프레미스와 AWS 모두에서 동일한 워크로드를 실행하려는 경우 환경 차이를 줄이고 워크로드의 이식성을 단순화하기 위해 동일한 운영 체제를 사용하는 것이 좋습니다.
Q: EnginFrame 요금은 얼마인가요?
AWS에서 EnginFrame 사용에 대한 추가 요금은 없습니다. 사용자는 애플리케이션을 저장하고 실행하는 데 사용된 AWS 리소스에 대한 요금을 지불합니다.
온프레미스에서 EnginFrame을 사용하는 경우 라이선스 파일이 필요합니다. 평가 라이선스를 얻거나 새로운 프로덕션 라이선스를 구입하려면 해당 국가에서 판매, 설치 서비스 및 지원을 제공할 수 있는 공인 NICE 유통업체 또는 리셀러 중 한 곳에 문의하세요.
AWS 기반 연구 및 엔지니어링 스튜디오
Q: AWS 기반 연구 및 엔지니어링 스튜디오란 무엇인가요?
AWS의 연구 및 엔지니어링 스튜디오(RES)는 관리자가 안전한 클라우드 기반 연구 및 엔지니어링 환경을 만들고 관리하는 사용이 간편한 오픈 소스 웹 기반 포털입니다. 사이언티스트와 엔지니어는 RES를 사용하여 클라우드 전문 지식 없이도 데이터를 시각화하고 대화형 애플리케이션을 실행할 수 있으며,
Q: RES를 사용해야 하는 이유는 무엇인가요?
엔지니어링 및 연구 워크로드를 실행하고 간단한 웹 기반 포털을 사용하여 AWS에서 가상 데스크톱을 생성하고 관리하려는 경우 RES를 사용해야 합니다. RES를 사용하면 가상 데스크톱 환경을 설정하고, 연구원과 엔지니어가 Windows 및 Linux 가상 데스크톱을 만들어 연결하고, 단일 인터페이스에서 가상 데스크톱 플릿을 모니터링, 예산 책정 및 관리하고, 웹 기반 포털을 통해 VDI 환경을 관리하고, 가상 데스크톱 요구 사항에 따라 공유 스토리지를 마운트하여 데이터에 쉽게 액세스할 수 있도록 할 수 있습니다. 연구자와 엔지니어가 엔지니어링 워크로드의 규모를 조정하기 전에 출력 및 설계에 대해 대화하고 논의하거나 테스트 사례를 시뮬레이션해야 하는 경우 RES는 이를 위한 강력한 가상 데스크톱을 제공합니다.
Q: 공유 스토리지를 관리하려면 어떻게 해야 합니까?
사용자가 필요한 데이터를 확보할 수 있도록 파일 시스템을 만들고 유지 관리하는 것은 RES 관리자의 책임입니다. RES는 Amazon EFS 및 Amazon FSx for NetApp ONTAP 파일 시스템 유형을 지원합니다. 이 유형은 관리자가 RES를 통해 생성하거나 기존 파일 시스템을 온보딩할 수 있습니다. 스토리지 관리 및 생성에 대한 자세한 내용은 설명서를 참조하세요.
Q: 제품 설명서에 액세스하려면 어떻게 해야 하나요?
RES 문서에 액세스할 수 있습니다.
Q: RES 비용은 얼마입니까?
RES에는 추가 요금이 없으며 애플리케이션 실행에 필요한 AWS 리소스에 대해서만 지불하시면 됩니다.
Q: RES를 사용할 수 있는 리전은 어디인가요?
RES는 일부 리전에서 사용할 수 있습니다. 설명서에서 목록을 찾을 수 있습니다.
Q: RES는 어떻게 지원되나요?
EC2 인스턴스 및 배치 스케줄러, 보안 패치 적용, 사용자 관리 및 가상 데스크톱 인스턴스에서 실행되는 소프트웨어에 필요한 유지 관리를 담당합니다. RES 지원은 리소스 구축과 관련된 문제로 제한됩니다. RES의 기본 AMI 중 하나 대신 사용자 지정 AMI를 사용하는 경우 RES는 사용자 지정 AMI 사용과 관련된 OS 문제를 지원하지 않는다는 점에 유의하세요.
Q: RES에서는 어떤 운영 체제가 지원되나요?
RES는 현재 Windows 및 Linux 운영 체제와 호환됩니다. Linux의 경우 Amazon Linux 2, CentOS 7, Red Hat Enterprise Linux 7, Red Hat Enterprise Linux 8, Red Hat Enterprise Linux 9 배포판을 지원합니다.
Q: Windows 원격 데스크톱 서비스 라이선스를 추가로 받으려면 어떻게 해야 합니까?
각 Amazon EC2 인스턴스에는 관리 목적으로 2개의 원격 데스크톱 서비스(또는 터미널 서비스) 라이선스가 포함되어 있습니다. 이 Quickstart를 사용하면 관리자용으로 이 라이선스를 프로비저닝하는 데 도움이 됩니다. 또한 RDP 또는 RDP 라이선스 없이도 EC2 인스턴스에 대한 원격 액세스를 지원하는 AWS Systems Manager Session Manager를 사용할 수도 있습니다. 추가 원격 데스크톱 서비스 라이선스가 필요한 경우, Microsoft 또는 Microsoft 라이선스 리셀러를 통해 원격 데스크톱 사용자 CAL을 구매해야 합니다. 활성 Software Assurance를 통한 원격 데스크톱 사용자 CAL은 라이선스 이동 혜택을 제공하므로 AWS 기본(공유) 테넌트 환경에서 사용할 수 있습니다. Software Assurance 또는 License Mobility 혜택 없이 라이선스를 가져오는 방법에 대한 자세한 내용은 FAQ의 이 섹션을 참조하세요.
Q: RES 내의 가상 데스크톱은 스팟 인스턴스를 지원하나요?
아니요. RES 내의 가상 데스크톱은 온디맨드 인스턴스만 지원합니다.
Q: RES는 어떻게 출시되나요?
RES는 GitHub의 Amazon Web Services 리포지토리를 통해 릴리스됩니다. 설치 옵션을 찾을 수 있습니다.