Perguntas frequentes
AWS ParallelCluster
Geral
P: Por que eu deveria usar o AWS ParallelCluster?
Você deve usar o AWS ParallelCluster quando deseja executar workloads de computação de alta performance (HPC) (HPC) na AWS. Você pode usar o AWS ParallelCluster para criar rapidamente ambientes de teste para aplicações de HPC, bem como usá-lo como ponto de partida para criar uma infraestrutura de HPC na nuvem. O AWS ParallelCluster minimiza a sobrecarga operacional do gerenciamento de clusters e simplifica o caminho de migração para a nuvem.
P: Quais tipos de aplicações podem se beneficiar com o uso do AWS ParallelCluster?
Aplicativos de computação de alta performance que exigem um ambiente familiar semelhante a um cluster na nuvem, como aplicações MPI e aplicações de machine learning usando NCCL, provavelmente se beneficiarão com o AWS ParallelCluster.
P: Como o AWS ParallelCluster se relaciona/funciona com outros serviços da AWS?
O AWS ParallelCluster é integrado ao AWS Batch, um agendador de lotes da AWS totalmente gerenciado. O AWS Batch pode ser considerado um substituto “nativo da nuvem” para agendadores de lotes on-premises, com o benefício adicional do provisionamento de recursos.
O AWS ParallelCluster também se integra ao Elastic Fabric Adapter (EFA) para aplicações que exigem redes de baixa latência entre nós de clusters de HPC. O AWS ParallelCluster também está integrado ao Amazon FSx para Lustre, um sistema de arquivos de alta performance com armazenamento escalável para workloads de computação e ao Amazon Elastic File System.
P: O que o AWS ParallelCluster cria ao criar um cluster?
O AWS ParallelCluster provisiona um nó principal para criação e controle, um cluster de instâncias de computação, um sistema de arquivos compartilhado e um agendador de lotes. Você também pode estender e personalizar seus casos de uso usando ações personalizadas de bootstrap de pré-instalação e pós-instalação.
P: Quais agendadores de lotes funcionam com o AWS ParallelCluster?
O AWS ParallelCluster oferece suporte ao AWS Batch (o agendador de lotes totalmente gerenciado e nativo da nuvem) e também é compatível com o SLURM.
P: Quais distribuições Linux são compatíveis com o AWS ParallelCluster?
Atualmente, o AWS ParallelCluster é compatível com Amazon Linux 2, Ubuntu 18.04, CentOS 7 e CentOS 8. O AWS ParallelCluster fornece uma lista de AMIs padrão (uma por distribuição Linux compatível por região) para você usar. Observe que a disponibilidade da distribuição do Linux é mais limitada nas partições GovCloud e China. Você pode aprender mais sobre compatibilidade de distribuição consultando o Guia do usuário do AWS ParallelCluster em https://docs.thinkwithwp.com/parallelcluster/latest/ug/cluster-definition.html#base-os.
Além disso, enquanto seu cluster é executado no Amazon Linux, você pode executar a ferramenta de linha de comando AWS ParallelCluster para criar e gerenciar seus clusters a partir de qualquer computador capaz de executar Python e baixar o pacote AWS ParallelCluster.
P: Posso usar minha própria AMI com o AWS ParallelCluster?
Há três maneiras pelas quais você pode personalizar as AMIs do AWS ParallelCluster. Você pode pegar e modificar uma AMI existente do AWS ParallelCluster, usar sua AMI personalizada existente e aplicar as alterações necessárias pelo AWS ParallelCluster em cima dela ou usar sua própria AMI personalizada em tempo de execução. Para obter mais informações, visite https://aws-parallelcluster.readthedocs.io/en/latest/tutorials/02_ami_customization.html.
P: O AWS ParallelCluster oferece suporte ao Windows?
O AWS ParallelCluster não oferece suporte à criação de clusters do Windows. No entanto, você pode executar a ferramenta de linha de comando AWS ParallelCluster na sua máquina Windows. Para obter mais informações, visite https://docs.thinkwithwp.com/parallelcluster/latest/ug/install-windows.html.
P: O AWS ParallelCluster oferece suporte a instâncias reservadas e instâncias Spot?
Sim. O AWS ParallelCluster oferece suporte a instâncias sob demanda, reservadas e Spot. Observe que o trabalho realizado nas instâncias Spot pode ser interrompido. Recomendamos que você use somente instâncias Spot para aplicações flexíveis e tolerantes a falhas.
P: Posso ter vários tipos de instância nos nós de computação do meu cluster?
Sim. Você pode ter várias filas e várias instâncias por fila.
P: Qual o tamanho de um cluster que posso criar com o AWS ParallelCluster?
Não há limite embutido para o tamanho do cluster que você pode criar com o AWS ParallelCluster. No entanto, existem algumas restrições que você deve considerar, como os limites de instância que existem para sua conta. Para alguns tipos de instância, os limites padrão podem ser menores do que os tamanhos esperados de cluster de HPC e solicitações de aumento de limite serão necessárias antes de criar seu cluster. Para obter mais informações sobre os limites do EC2, consulte https://docs.thinkwithwp.com/AWSEC2/latest/UserGuide/ec2-resource-limits.html.
P: O AWS ParallelCluster oferece suporte ao uso de grupos de posicionamento?
Sim. Embora o AWS ParallelCluster não use um grupo de posicionamento por padrão, você pode habilitá-lo fornecendo um grupo de posicionamento existente ao AWS ParallelCluster ou permitindo que o AWS ParallelCluster crie um novo grupo de posicionamento na inicialização. Você também pode configurar todo o cluster ou somente os nós de computação para usar o grupo de posicionamento. Para obter mais informações, consulte https://cfncluster.readthedocs.io/en/latest/configuration.html#placement-group.
P: Que tipo de armazenamento compartilhado posso usar com o AWS ParallelCluster?
Por padrão, o AWS ParallelCluster configura automaticamente um volume externo de 15 GB de Elastic Block Storage (EBS) conectado ao nó principal do cluster e exportado para os nós de computação do cluster via Network File System (NFS). Você pode aprender mais sobre como configurar o armazenamento do EBS em https://docs.thinkwithwp.com/parallelcluster/latest/ug/ebs-section.html. O volume desse armazenamento compartilhado pode ser configurado para atender às suas necessidades.
O AWS ParallelCluster também é compatível com os sistemas de arquivos Amazon Elastic File System (EFS), RAID e Amazon FSx para Lustre. Também é possível configurar o AWS ParallelCluster com o armazenamento de objetos do Amazon S3 como fonte de entradas de trabalho ou como destino para a saída do trabalho. Para obter mais informações sobre como configurar todas essas opções de armazenamento com o AWS ParallelCluster, visite https://docs.thinkwithwp.com/parallelcluster/latest/ug/configuration.html.
P: Quanto custa o AWS ParallelCluster?
O AWS ParallelCluster está disponível gratuitamente, e você paga somente pelos recursos da AWS necessários para executar seus aplicativos.
P: Em quais regiões o AWS ParallelCluster está disponível?
O AWS ParallelCluster está disponível nas seguintes regiões: Leste dos EUA (Norte da Virgínia), Leste dos EUA (Ohio), Oeste dos EUA (Norte da Califórnia), Oeste dos EUA (Oregon), Europa (Estocolmo), Europa (Paris), Europa (Londres), Europa (Frankfurt), Europa (Irlanda), Europa (Milão), África (Cidade do Cabo), Oriente Médio (Bahrein), Ásia-Pacífico (Mumbai), Ásia-Pacífico (Seul), Ásia-Pacífico (Tóquio), Ásia-Pacífico (Singapura), Ásia-Pacífico (Sydney), Ásia-Pacífico (Hong Kong), AWS GovCloud (EUA-Leste), AWS GovCloud (EUA-Oeste), China (Pequim) e China (Ningxia).
P: Há suporte para o AWS ParallelCluster?
Você é responsável pela operação do cluster, incluindo a manutenção necessária em instâncias e agendadores de lotes do EC2, patches de segurança, gerenciamento de usuários e solução de problemas de MPI. O suporte do AWS ParallelCluster é limitado a questões relacionadas à criação dos recursos e à integração do AWS Batch. Problemas do agendador do AWS Batch são atendidos pela equipe de serviços do AWS Batch. Perguntas sobre outros programadores que não são da AWS devem ser direcionadas às suas respectivas comunidades de suporte. Se você usar uma AMI personalizada em vez de uma das AMIs padrão do AWS ParallelCluster, observe que o AWS ParallelCluster não oferece suporte a nenhum problema de sistema operacional relacionado ao uso de uma AMI personalizada.
P: Como o AWS ParallelCluster é lançado?
O AWS ParallelCluster é lançado por meio do Python Package Index (PyPI) e pode ser instalado via pip. O código-fonte do AWS ParallelCluster está hospedado na Amazon Web Services no GitHub em https://github.com/aws/aws-parallelcluster.
Elastic Fabric Adapter (EFA)
P: Por que usar o EFA?
O EFA oferece a escalabilidade, a flexibilidade e elasticidade da nuvem para aplicações de computação de alta performance (HPC) com alto acoplamento. Com o EFA, as aplicações de HPC com alto acoplamento têm acesso a latência menor e mais consistente e maior throughput do que os canais tradicionais de TCP, permitindo uma melhor escalabilidade. O suporte EFA pode ser habilitado dinamicamente, sob demanda, em qualquer instância EC2 suportada sem pré-reserva, dando a você a flexibilidade para responder às mudanças nas prioridades de negócios e workloads.
P: Que tipos de aplicações podem se beneficiar do uso do EFA?
As aplicações de HPC distribuem workloads computacionais em um cluster de instâncias para processamento paralelo. Entre os exemplos de aplicações de HPC estão a dinâmica computacional de fluidos (CFD), simulações de falha e simulações meteorológicas. Aplicações de HPC geralmente são criadas usando a Interface de passagem de mensagens (MPI) e impõem requisitos rigorosos para comunicação entre instâncias em termos de latência e de largura de banda. Aplicações que usam MPI e outro middleware de HPC que oferecem suporte para a pilha de comunicação libfabric podem ser beneficiar do EFA.
P: Como funciona a comunicação do EFA?
Os dispositivos EFA oferecem todas as funcionalidades dos dispositivos Elastic Network Adapter (ENA) mais uma nova interface de hardware de bypass do SO para comunicação direta com a funcionalidade de transporte confiável fornecida pelo hardware. A maioria das aplicações usará o middleware existente, como a Interface de passagem de mensagem (MPI), para fazer interface com o EFA. A AWS trabalhou com diversos provedores de middleware para garantir suporte para a funcionalidade de bypass de SO do EFA. Observe que a comunicação que utiliza a funcionalidade de bypass do SO é limitada a instâncias em uma única sub-rede de uma Virtual Private Cloud (VPC).
P: Que tipos de instâncias oferecem suporte ao EFA?
O EFA está atualmente disponível em instâncias c5n.18xlarge, c5n.metal, i3en.24xlarge, i3en.metal, inf1.24xlarge, m5dn.24xlarge, m5n.24xlarge, r5dn.24xlarge, r5n.24xlarge, p3dn.24xlarge, p4d, m6i.32xlarge, m6i.metal, c6i.32xlarge, c6i.metal, r6i.32xlarge, r6i.metal, x2iezn.12xlarge, x2iezn.metal e hpc6a.48xlarge.
P: Quais são as diferenças entre uma ENI do EFA e uma ENI do ENA?
Uma interface de rede elástica (ENI) ENA oferece recursos de rede IP tradicionais necessários para dar suporte à rede VPC. Uma ENI do EFA oferece toda a funcionalidade de uma ENI do ENA, mais suporte de hardware para que as aplicações se comuniquem diretamente com a ENI do EFA sem envolver o kernel da instância (comunicação de bypass do SO) usando uma interface de programação estendida. Devido aos recursos avançados da ENI do EFA, as ENIs do EFA só podem ser anexadas na inicialização ou a instâncias interrompidas.
P: Tanto o Elastic Fabric Adapter (EFA) quanto o Elastic Network Adapter (ENA) Express usam o Scalable Reliable Diagram (SRD). Qual é a diferença entre os dois?
Tanto o EFA quanto o ENA Express usam o protocolo SRD, criado pela AWS. O EFA foi desenvolvido especificamente para workloads fortemente acopladas para ter comunicação direta de transporte de fornecimento de hardware para a camada de aplicação. O ENA Express foi projetado para usar o protocolo SRD para aplicações de rede tradicionais que usam protocolos TCP e UDP. O ENA Express também funciona dentro de uma zona de disponibilidade.
P: Quais são os pré-requisitos para habilitar o EFA em uma instância?
O suporte do EFA pode ser ativado na inicialização da instância ou adicionado a uma instância interrompida. Os dispositivos EFA não podem ser anexados a uma instância em execução.
NICE DCV
Geral
P: Por que eu deveria usar o NICE DCV?
O NICE DCV é um protocolo de transmissão otimizado para gráficos que é adequado para uma ampla variedade de cenários de uso, desde aplicações de produtividade de transmissão em dispositivos móveis até visualização de simulação de HPC. No lado do servidor, o NICE DCV oferece suporte para Windows e Linux. No lado do cliente, ele oferece suporte para Windows, Linux e macOS, além de fornecer um cliente Web para acesso baseado no navegador HTML5 em todos os dispositivos.
P: Preciso baixar um cliente nativo para usar o NICE DCV?
Não. O NICE DCV funciona com qualquer navegador HTML5. No entanto, clientes nativos oferecem suporte a recursos adicionais, como suporte a vários monitores, com o cliente nativo do Windows também suportando suporte USB para mouses 3D, dispositivos de armazenamento e cartões inteligentes. Para fluxos de trabalho que precisam desses recursos, você pode baixar os clientes nativos do NICE DCV para Windows, Linux e macOS aqui.
P: Quais tipos de aplicações podem se beneficiar com o uso do NICE DCV?
Embora a performance do NICE DCV seja independente de aplicações, os clientes observam um benefício perceptível na performance de transmissão ao usar o NICE DCV com aplicações de gráficos 3D que exigem baixa latência. Aplicações de HPC, como simulações sísmicas e de reservatórios, análises de dinâmica computacional de fluidos (CFD), modelagem molecular 3D, composição de VFX e renderização 3D baseada no Game Engine, são alguns exemplos de aplicações em que o benefício de performance do NICE DCV é aparente.
P: Quais tipos de instância oferecem suporte ao NICE DCV?
O NICE DCV é compatível com todos os tipos de instâncias baseadas na arquitetura x86-64 do Amazon EC2. Quando usado com instâncias de GPU compatíveis com NVIDIA GRID (como G2, G3 e G4), o NICE DCV aproveitará a codificação de hardware para melhorar a performance e reduzir a carga do sistema.
Habilitar o NICE DCV
P: Preciso instalar um servidor de licenças NICE DCV ao usar o NICE DCV no Amazon EC2?
Não, você não precisa de um servidor de licenças para instalar e usar o servidor NICE DCV em uma instância do EC2. No entanto, precisa configurar sua instância para garantir o acesso a um bucket do Amazon S3. O servidor NICE DCV detecta automaticamente que está sendo executado em uma instância do Amazon EC2 e se conecta periodicamente ao bucket do Amazon S3 para determinar se uma licença válida está disponível. Para obter mais instruções sobre a configuração da licença do NICE DCV no Amazon EC2, consulte o documento aqui.
P: Posso habilitar o NICE DCV em uma instância em execução?
Sim. O NICE DCV é um software para download que pode ser baixado e instalado em sessões em execução. O link para a página de download do NICE DCV está aqui.
P: Quais distribuições Windows e Linux são compatíveis com o servidor NICE DCV?
O suporte ao sistema operacional do servidor NICE DCV está documentado aqui.
Usar o NICE DCV
P: Como posso monitorar a performance do NICE DCV em tempo real?
Os clientes NICE DCV têm a faixa da barra de ferramentas exibida na parte superior da sessão remota quando não estão no modo de tela cheia. Clique em Settings > Streaming Mode (Configurações > Modo de transmissão). Isso abre uma janela que permite que os usuários escolham entre “Best responsiveness (default) (Melhor capacidade de resposta - padrão) e “Best quality” (Melhorqualidade). Clique em “Display Streaming Metrics” (Exibir métricas de transmissão) na parte inferior da janela pop-up para monitorar a performance em tempo real, a taxa de quadros, a latência da rede e o uso da largura de banda.
P: Como faço para gerenciar o servidor NICE DCV?
O servidor NICE DCV é executado como um serviço do sistema operacional. Você deve estar logado como administrador (Windows) ou root (Linux) para iniciar, parar ou configurar o servidor NICE DCV. Para obter mais informações, consulte o documento aqui.
P: Em qual porta o NICE DCV se comunica?
Por padrão, o servidor NICE DCV está configurado para se comunicar pela porta 8443. Você pode especificar uma porta TCP personalizada depois de instalar o servidor NICE DCV. A porta deve ser maior que 1024.
P: Como faço para habilitar o compartilhamento de GPU no Linux usando o NICE DCV?
O compartilhamento de GPU permite que você compartilhe uma ou mais GPUs físicas entre várias sessões virtuais do NICE DCV. O uso do compartilhamento de GPU permite que você use um único servidor NICE DCV e hospede várias sessões virtuais que compartilham os recursos físicos da GPU do servidor. Para obter mais detalhes sobre como habilitar o compartilhamento de GPU, consulte o documento aqui.
P: O recurso de compartilhamento de GPU do NICE DCV está disponível no Windows?
Não, o compartilhamento de GPU NICE DCV só está disponível nos servidores Linux NICE DCV.
P: O que são sessões virtuais e como faço para gerenciá-las?
Sessões virtuais apenas têm suporte em servidores Linux NICE DCV. Um servidor NICE DCV pode hospedar várias sessões virtuais simultaneamente. Sessões virtuais são criadas e gerenciadas pelos usuários do NICE DCV. Os usuários do NICE DCV somente podem gerenciar as sessões que eles criaram. O usuário root pode gerenciar todas as sessões virtuais que estão sendo executadas atualmente no servidor NICE DCV. Para obter instruções sobre como gerenciar sessões virtuais, consulte o documento aqui.
NICE EnginFrame
P: Por que eu deveria usar o EnginFrame?
Você deve usar o EnginFrame porque ele pode aumentar a produtividade de especialistas do domínio (como cientistas, engenheiros e analistas), permitindo que eles estendam facilmente seus fluxos de trabalho para a nuvem e reduzam o tempo até a obtenção de resultados. O EnginFrame reduz a sobrecarga dos administradores no gerenciamento dos recursos da AWS, bem como das permissões e do acesso dos usuários a esses recursos. Esses recursos ajudarão você a economizar tempo, reduzir erros e permitir que suas equipes se concentrem mais em realizar pesquisas e desenvolvimento inovadores, em vez de se preocupar com o gerenciamento da infraestrutura.
P: Como faço para habilitar o EnginFrame no meu ambiente on-premises?
O EnginFrame AWS HPC Connector é compatível com o EnginFrame versão 2021.0 ou posterior. Depois de instalar o EnginFrame em seu ambiente, os administradores podem começar a definir as configurações de cluster da AWS a partir do Portal do administrador.
P: Como um administrador do EnginFrame pode configurar ou configurar ambientes de HPC da AWS?
Os administradores do EnginFrame podem usar o AWS ParallelCluster para criar clusters de HPC em execução na AWS, prontos para aceitar trabalhos dos usuários. Para fazer isso no EnginFrame, os administradores podem começar criando, editando ou carregando uma configuração de cluster do ParallelCluster. Como parte da etapa de criação do cluster, os administradores criam um nome exclusivo para um determinado cluster da AWS e especificam se ele é acessível a todos os usuários, a um conjunto específico de usuários e/ou grupos de usuários ou a nenhum usuário. Depois que um cluster da AWS é criado, ele permanece disponível para aceitar trabalhos enviados até que um administrador o remova. Por padrão, um cluster da AWS no estado criado usará somente o conjunto mínimo de recursos necessários para estar pronto para aceitar trabalhos enviados e aumentará de forma elástica à medida que os trabalhos forem enviados.
P: Como os usuários podem escolher entre executar seus trabalhos on-premises ou na AWS?
Para serviços do EnginFrame para os quais seu administrador habilitou a AWS como opção, você pode usar um menu suspenso para selecionar qualquer uma das filas de computação disponíveis on-premises e na AWS. Os administradores podem incluir descrições de texto para ajudar você a escolher qual dessas filas é apropriada para executar sua workload.
P: Quais agendadores de trabalhos posso usar com o EnginFrame na AWS? Posso usar um agendador de tarefas diferente on-premises e na AWS?
O EnginFrame oferece suporte ao Slurm para clusters criados na AWS. Você também pode optar por usar um agendador on-premises diferente do que na AWS (por exemplo, usar LSF on-premises e Slurm na AWS). No caso dos serviços do EnginFrame que você configurar para enviar trabalhos on-premises e na AWS usando diferentes agendadores de tarefas, os administradores precisarão garantir que todos os scripts de envio de trabalhos ofereçam suporte ao envio por meio de cada um desses agendadores.
P: Quais sistemas operacionais posso usar na AWS? Posso usar um sistema operacional diferente on-premises e na AWS?
O EnginFrame é compatível com os sistemas operacionais Amazon Linux 2, CentOS 7, Ubuntu 18.04 e Ubuntu 20.04 na AWS. Você pode optar por usar um sistema operacional on-premises diferente do que você usa na AWS. No entanto, se você pretende usar o EnginFrame para executar a mesma workload on-premises e na AWS, recomendamos usar o mesmo sistema operacional para reduzir a diferença de ambiente e simplificar a portabilidade das suas workloads.
P: Quanto custa o EnginFrame?
Não há cobrança adicional pelo uso do EnginFrame na AWS. Você paga por qualquer recurso da AWS usado para armazenar e executar suas aplicações.
Ao usar o EnginFrame on-premises, você será solicitado a fornecer um arquivo de licença. Para obter uma licença de avaliação ou comprar novas licenças de produção, entre em contato com um dos distribuidores ou revendedores autorizados da NICE que podem fornecer vendas, serviços de instalação e suporte no seu país.
Research and Engineering Studio na AWS
P: O que é o Research and Engineering Studio na AWS?
O Research and Engineering Studio na AWS (RES) é um portal da Web de código aberto e fácil de usar para que os administradores criem e gerenciem ambientes seguros de pesquisa e engenharia baseados em nuvem. Ao usar o RES, cientistas e engenheiros podem visualizar dados e executar aplicações interativas sem a necessidade de experiência em nuvem.
P: Por que usar o RES?
Você deve usar o RES se executar workloads de trabalho de engenharia e pesquisa e preferir usar um portal simples baseado na Web para criar e gerenciar suas áreas de trabalho virtuais na AWS. O RES permite que você configure um ambiente de área de trabalho virtual; que pesquisadores e engenheiros criem e se conectem a áreas de trabalho virtuais do Windows e Linux; que você monitore, orce e gerencie uma frota de áreas de trabalho virtuais de uma única interface; gerencie seu ambiente de VDI por meio de um portal baseado na Web; e monte um armazenamento compartilhado de acordo com os requisitos da área de trabalho virtual para facilitar o acesso aos dados. Caso os pesquisadores e engenheiros precisem interagir e discutir resultados e projetos, ou simular um caso de teste antes de escalar uma workload de engenharia, o RES fornece áreas de trabalho virtuais potentes para fazer isso.
P: Como gerenciar o armazenamento compartilhado?
Os administradores do RES são responsáveis por criar e manter sistemas de arquivos para que os usuários tenham os dados necessários. O RES oferece suporte ao Amazon EFS e aos tipos de sistema de arquivos Amazon FSx para NetApp ONTAP, que os administradores podem criar por meio do RES ou integrar aos sistemas de arquivos existentes. Para obter mais detalhes sobre o gerenciamento e a criação de armazenamento, consulte a documentação.
P: Como acessar a documentação do produto?
Acesse a documentação do RES.
P: Qual é o custo do RES?
O RES está disponível gratuitamente e você paga somente pelos recursos de AWS necessários para executar suas aplicações.
P: Em quais regiões o RES está disponível?
O RES está disponível em um subconjunto de regiões. Você pode encontrar a lista na documentação.
P: Qual é o suporte para o RES?
Você é responsável pela manutenção exigida em instâncias e agendadores de lotes do EC2, patches de segurança, gerenciamento de usuários e software executado nas instâncias da área de trabalho virtual. O suporte do RES é limitado a questões relacionadas à criação dos recursos. Se você usar uma AMI personalizada em vez de uma das AMIs padrão do RES, observe que o RES não oferece suporte a nenhum problema de sistema operacional relacionado ao uso de uma AMI personalizada.
P: Quais sistemas operacionais são compatíveis com o RES?
Atualmente, o RES é compatível com os sistemas operacionais Windows e Linux. Para Linux, o RES é compatível com as seguintes distribuições: Amazon Linux 2, CentOS 7, Red Hat Enterprise Linux 7, Red Hat Enterprise Linux 8 e Red Hat Enterprise Linux 9.
P: Como posso obter licenças adicionais para os serviços de área de trabalho remota do Windows?
As instâncias do Amazon EC2 são fornecidas com duas licenças dos serviços de área de trabalho remota (também conhecidos como serviços de terminal) para fins de administração. Este Quickstart está disponível para ajudar a provisionar essas licenças para seus administradores. Você também pode usar o Gerenciador de Sessões do AWS Systems Manager, que permite acesso remoto a instâncias do EC2 sem RDP e sem precisar de licenças de RDP. Se forem necessárias licenças adicionais de serviços de área de trabalho remota, as CALs de usuário de área de trabalho remota devem ser adquiridas da Microsoft ou de um revendedor de licenças da Microsoft. CALs de usuários de área de trabalho remota com o software Assurance ativo têm benefícios de mobilidade de licenças e podem ser trazidas para ambientes de locatário padrão (compartilhados) da AWS. Para obter informações sobre como trazer licenças sem os benefícios do software Assurance ou da mobilidade de licenças, consulte esta seção das perguntas frequentes.
P: As áreas de trabalho virtuais dentro do RES são compatíveis com instâncias spot?
Não. As áreas de trabalho virtuais dentro do RES oferecem suporte somente a instâncias sob demanda.
P: Como o RES é lançado?
O RES é lançado por meio do repositório da Amazon Web Services no GitHub. Você pode encontrar opções de instalação nesse recurso.
Saiba mais sobre os serviços da AWS que você pode usar para criar uma solução de HPC na AWS.
Obtenha acesso instantâneo ao nível gratuito da AWS.