

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Políticas
<a name="sagemaker-hyperpod-eks-operate-console-ui-governance-policies"></a>

A governança de SageMaker HyperPod tarefas da Amazon simplifica a forma como os recursos do cluster Amazon EKS são alocados e como as tarefas são priorizadas. Veja a seguir informações sobre as políticas de cluster do HyperPod EKS. Para ter informações sobre como configurar a governança de tarefas, consulte [Configuração da governança de tarefas](sagemaker-hyperpod-eks-operate-console-ui-governance-setup-task-governance.md).

As políticas são divididas em **priorização da computação** e **alocação da computação**. Os conceitos de política abaixo serão organizados no contexto dessas políticas.

A **priorização da computação**, ou política de cluster, determina como a computação inativa é tomada emprestada e como as tarefas são priorizadas pelas equipes.
+ A **alocação de computação inativa** define como a computação ociosa é alocada entre as equipes. Ou seja, como a computação não utilizada pode ser tomada emprestada das equipes. Ao escolher uma **alocação de computação inativa**, você pode escolher entre:
  + **Primeiro a chegar, primeiro a ser atendido**: quando esta opção é aplicada, as equipes não são priorizadas umas em relação às outras e cada tarefa recebida tem a mesma probabilidade de obter recursos acima da cota. As tarefas são priorizadas com base na ordem de envio. Isso significa que um usuário poderá usar 100% da computação ociosa se a solicitar primeiro.
  + **Compartilhamento justo**: quando esta opção é aplicada, as equipes tomam emprestada a computação ociosa com base no peso atribuído ao **compartilhamento justo**. Esses pesos são definidos em **Alocação de computação.** Para ter mais informações sobre como isso pode ser usado, consulte [Exemplos de compartilhamento de recursos de computação ociosos](#hp-eks-task-governance-policies-examples).
+ A **Priorização de tarefas** define como as tarefas são colocadas em fila à medida que a computação se torna disponível. Ao selecionar uma **Priorização de tarefas**, você pode escolher entre:
  + **Primeiro a chegar, primeiro a ser atendido**: quando esta opção é aplicada, as tarefas são enfileiradas na ordem em que são solicitadas.
  + **Classificação de tarefas**: quando esta opção é aplicada, as tarefas são enfileiradas na ordem definida pela respectiva priorização. Se essa opção for escolhida, você deverá adicionar classes prioritárias com os pesos de acordo com os quais elas devem ser priorizadas. Tarefas da mesma classe prioritária serão executadas por ordem de chegada. Quando habilitada em “Alocação de computação”, as tarefas de maior prioridade dentro da equipe são antecipadas em relação às de menor prioridade.

    Quando cientistas de dados enviam trabalhos ao cluster, eles usam o nome da classe prioritária no arquivo YAML. A classe prioritária está no formato `priority-class-name-priority`. Para ver um exemplo, consulte [Envie um trabalho para uma fila e um SageMaker namespace gerenciados por IA](sagemaker-hyperpod-eks-operate-console-ui-governance-cli.md#hp-eks-cli-start-job).
  + **Classes prioritárias**: essas classes estabelecem uma prioridade relativa para tarefas ao tomar capacidade emprestada. Quando uma tarefa está sendo executada usando uma cota tomada emprestada, outra tarefa de maior prioridade pode ter precedência sobre ela, se não houver mais capacidade disponível para a tarefa de entrada. Se a opção **Preempção** estiver habilitada em **Alocação de computação**, uma tarefa de maior prioridade também poderá ter precedência sobre as tarefas dentro da própria equipe.
+ O **compartilhamento de recursos não alocados** permite que as equipes emprestem recursos computacionais que não estão alocados a nenhuma equipe por meio da cota de computação. Quando ativada, a capacidade não alocada do cluster fica disponível para que as equipes emprestem automaticamente. Para obter mais informações, consulte [Como funciona o compartilhamento de recursos não alocados](#sagemaker-hyperpod-eks-operate-console-ui-governance-policies-idle-resource-sharing-how-it-works).

A **alocação de computação**, ou cota de computação, define a alocação de computação de uma equipe e qual peso (ou nível de prioridade) é atribuído a uma equipe para a alocação justa de computação ociosa. 
+ **Nome da equipe**: o nome da equipe. Um **namespace** correspondente será criado, do tipo `hyperpod-ns-team-name`. 
+ **Membros**: membros do namespace da equipe. Você precisará configurar um controle de acesso baseado em funções (RBAC) do Kubernetes para usuários de cientistas de dados que desejam fazer parte dessa equipe, para executar tarefas em clusters orquestrados com o Amazon EKS. HyperPod Para configurar um RBAC do Kubernetes, use as instruções em [Create team role](https://github.com/aws/sagemaker-hyperpod-cli/tree/main/helm_chart#5-create-team-role).
+ **Peso com compartilhamento justo**: esse é o nível de priorização atribuído à equipe quando o **compartilhamento justo** é aplicado para **alocação de computação ociosa**. A prioridade mais alta tem peso 100 e a mais baixa tem peso 0. Um peso maior permite que uma equipe acesse mais cedo recursos não utilizados dentro da capacidade compartilhada. Um peso 0 significa a menor prioridade, o que implica que essa equipe sempre estará em desvantagem em comparação com outras equipes. 

  O peso do compartilhamento justo oferece uma vantagem comparativa a essa equipe ao competir com outras pelos recursos disponíveis. A admissão prioriza tarefas de agendamento de equipes com os pesos mais altos e menos tomadas de empréstimo. Por exemplo, se a Equipe A tivesse um peso de 10 e a Equipe B tivesse um peso de 5, a Equipe A teria prioridade no acesso a recursos não utilizados, pois teria trabalhos agendados para uma data anterior aos da Equipe B.
+ **Preempção de tarefas**: a computação é assumida por uma tarefa com base na prioridade. Por padrão, a equipe que empresta computação ociosa antecipará as tarefas de outras equipes. 
+ **Empréstimos e tomadas de empréstimo**: como a computação ociosa está sendo emprestada pela equipe e se a equipe pode tomar emprestado de outras equipes.
  + **Limite de empréstimo baseado em porcentagem**: o limite de computação ociosa que uma equipe pode emprestar, expresso como uma porcentagem de sua cota garantida. Uma equipe pode emprestar até 10.000% da computação alocada. O valor que você fornece aqui é interpretado como uma porcentagem. Por exemplo, um valor de 500 será interpretado como 500%. Essa porcentagem se aplica uniformemente a todos os tipos de recursos (CPU, GPU, memória) e tipos de instância na cota da equipe.
  + **Limite absoluto de empréstimo**: o limite de computação ociosa que uma equipe pode emprestar, definido como valores absolutos de recursos por tipo de instância. Isso fornece controle granular sobre o comportamento de empréstimo para tipos específicos de instância. Você precisa especificar limites absolutos usando o mesmo esquema da **cota de computação**, incluindo contagem de instâncias, aceleradores, vCPU, memória ou partições do acelerador. Você pode especificar limites absolutos para um ou mais tipos de instância na cota da sua equipe.

Para ter informações sobre como esses conceitos são usados, como classes prioritárias e espaços de nome, consulte [Exemplos de AWS CLI comandos de governança de HyperPod tarefas](sagemaker-hyperpod-eks-operate-console-ui-governance-cli.md).

## Exemplos de compartilhamento de recursos de computação ociosos
<a name="hp-eks-task-governance-policies-examples"></a>

A cota total reservada não deve ultrapassar a capacidade disponível do cluster para esse recurso a fim de garantir o gerenciamento adequado da cota. Por exemplo, se um cluster inclui vinte instâncias `ml.c5.2xlarge`, a cota cumulativa atribuída às equipes deve permanecer abaixo de vinte. 

Se as políticas de **alocação de computação** para as equipes permitirem **emprestar e tomar emprestado** ou **emprestar**, a capacidade ociosa será compartilhada entre essas equipes. Por exemplo, a Equipe A e a Equipe B têm a opção **Emprestar e tomar emprestado** habilitada. A Equipe A tem uma cota de seis, mas está usando apenas duas para seus trabalhos, e a Equipe B tem uma cota de cinco e está usando quatro para seus trabalhos. Um trabalho enviado à Equipe B exigindo quatro recursos. Três serão tomados emprestados da Equipe A. 

Se a política de **alocação de computação** de qualquer equipe estiver definida como **Não emprestar**, a equipe não poderá tomar emprestada nenhuma capacidade adicional além de suas próprias alocações.

## Como funciona o compartilhamento de recursos não alocados
<a name="sagemaker-hyperpod-eks-operate-console-ui-governance-policies-idle-resource-sharing-how-it-works"></a>

O compartilhamento de recursos não alocados gerencia automaticamente o pool de recursos que não estão alocados em nenhuma cota de computação em seu cluster. Isso significa monitorar HyperPod continuamente o estado do seu cluster e atualizar automaticamente a configuração correta ao longo do tempo.

**Configuração inicial**
+ Quando você configura como `IdleResourceSharing` `Enabled` no seu ClusterSchedulerConfig (por padrão, é`Disabled`), a governança de HyperPod tarefas começa a monitorar seu cluster e calcula os recursos ociosos disponíveis subtraindo as cotas da equipe da capacidade total do nó.
+ O compartilhamento de recursos não ClusterQueues alocados é criado para representar o pool de recursos emprestáveis.
+ Quando você ativa pela primeira vez o compartilhamento de recursos não alocados, a configuração da infraestrutura leva vários minutos. Você pode monitorar o progresso por meio de políticas `Status` e `DetailedStatus` de entrada ClusterSchedulerConfig.

**Reconciliação contínua**
+ HyperPod a governança de tarefas monitora continuamente alterações, como adições ou remoções de nós e atualizações de cotas de filas de clusters.
+  Quando ocorrem alterações, o compartilhamento de recursos não alocados recalcula a cota e as atualizações. ClusterQueues A reconciliação normalmente é concluída em segundos. 

**Monitoramento**

 Você pode verificar se o compartilhamento de recursos não alocados está totalmente configurado verificando o compartilhamento de recursos não alocados: ClusterQueues 

```
kubectl get clusterqueue | grep hyperpod-ns-idle-resource-sharing
```

Quando você vê ClusterQueues com nomes como`hyperpod-ns-idle-resource-sharing-cq-1`, o compartilhamento de recursos não alocados está ativo. Observe que ClusterQueues podem existir vários compartilhamentos de recursos não alocados, dependendo do número de variações de recursos em seu cluster. 

## Elegibilidade do Node para compartilhamento de recursos não alocados
<a name="sagemaker-hyperpod-eks-operate-console-ui-governance-policies-idle-resource-sharing-node-eligibility"></a>

O compartilhamento de recursos não alocados inclui somente nós que atendem aos seguintes requisitos:

1. **Status Node Ready**
   + Os nós devem estar em `Ready` status para contribuir com o pool de recursos não alocados.
   + Os nós em `NotReady` ou outros estados não prontos são excluídos dos cálculos de capacidade.
   + Quando um nó se torna`Ready`, ele é automaticamente incluído no próximo ciclo de reconciliação.

1. **Status programável do nó**
   + Os nós com `spec.unschedulable: true` são excluídos do compartilhamento de recursos não alocados.
   + Quando um nó se torna programável novamente, ele é automaticamente incluído no próximo ciclo de reconciliação.

1. **Configuração MIG (somente nós de GPU)**
   + Para nós de GPU com particionamento MIG (Multi-Instance GPU), o `nvidia.com/mig.config.state` rótulo deve ser exibido `success` para que o nó contribua com perfis MIG para o compartilhamento de recursos não alocados.
   + Esses nós serão repetidos automaticamente quando a configuração do MIG for concluída com êxito.

1. **Tipos de instância compatíveis**
   + A instância precisa ser um tipo de SageMaker HyperPod instância compatível.
   + Veja a lista de tipos de instância compatíveis no SageMaker HyperPod cluster.

**Topics**
+ [Exemplos de compartilhamento de recursos de computação ociosos](#hp-eks-task-governance-policies-examples)
+ [Como funciona o compartilhamento de recursos não alocados](#sagemaker-hyperpod-eks-operate-console-ui-governance-policies-idle-resource-sharing-how-it-works)
+ [Elegibilidade do Node para compartilhamento de recursos não alocados](#sagemaker-hyperpod-eks-operate-console-ui-governance-policies-idle-resource-sharing-node-eligibility)
+ [Criar políticas](sagemaker-hyperpod-eks-operate-console-ui-governance-policies-create.md)
+ [Editar políticas](sagemaker-hyperpod-eks-operate-console-ui-governance-policies-edit.md)
+ [Excluir políticas](sagemaker-hyperpod-eks-operate-console-ui-governance-policies-delete.md)
+ [Alocação de cota computacional na governança de tarefas da Amazon SageMaker HyperPod](sagemaker-hyperpod-eks-operate-console-ui-governance-policies-compute-allocation.md)

# Criar políticas
<a name="sagemaker-hyperpod-eks-operate-console-ui-governance-policies-create"></a>

Você pode criar suas configurações de **política de cluster** e **alocação de computação** na guia **Políticas**. Veja abaixo instruções sobre como criar as configurações a seguir.
+ Crie sua **política de cluster** para atualizar a forma como as tarefas são priorizadas e a computação ociosa é alocada.
+ Crie uma **alocação de computação** para criar uma política de alocação de computação para uma equipe.
**nota**  
Ao criar uma **alocação de computação**, você precisará configurar um controle de acesso baseado em funções (RBAC) do Kubernetes para usuários de cientistas de dados no namespace correspondente para executar tarefas em clusters orquestrados com o Amazon EKS. HyperPod Os namespaces têm o formato `hyperpod-ns-team-name`. Para configurar um RBAC do Kubernetes, use as instruções em [Create team role](https://github.com/aws/sagemaker-hyperpod-cli/tree/main/helm_chart#5-create-team-role).

Para obter informações sobre os conceitos da política de cluster EKS de governança de HyperPod tarefas, consulte[Políticas](sagemaker-hyperpod-eks-operate-console-ui-governance-policies.md).

**Crie políticas de governança de HyperPod tarefas**

Esse procedimento pressupõe que você já tenha criado um cluster Amazon EKS configurado com HyperPod. Se ainda não fez feito isso, consulte [Criação de um SageMaker HyperPod cluster com a orquestração do Amazon EKS](sagemaker-hyperpod-eks-operate-console-ui-create-cluster.md).

1. Navegue até o [console do Amazon SageMaker AI](https://console.aws.amazon.com/sagemaker/).

1. No painel de navegação esquerdo, em **HyperPodClusters, escolha **Gerenciamento de clusters****.

1. Escolha seu cluster Amazon EKS listado em **SageMaker HyperPodclusters**.

1. Escolha a guia **Políticas**.

1. Para criar uma **política de cluster**:

   1. Escolha o campo **Editar** correspondente para atualizar como as tarefas são priorizadas e a computação ociosa é alocada.

   1. Depois de fazer as alterações, escolha **Enviar**.

1. Para criar uma **alocação de computação**:

1. 

   1. Escolha a opção **Criar** correspondente. Isso leva você para a página de criação de alocação de computação.

   1. Depois de fazer as alterações, escolha **Enviar**.

# Editar políticas
<a name="sagemaker-hyperpod-eks-operate-console-ui-governance-policies-edit"></a>

Você pode editar suas configurações de **política de cluster** e **alocação de computação** na guia **Políticas**. Veja abaixo instruções sobre como editar as configurações a seguir.
+ Edite sua **política de cluster** para atualizar a forma como as tarefas são priorizadas e a computação ociosa é alocada.
+ Edite uma **alocação de computação** para criar uma política de alocação de computação para uma equipe.
**nota**  
Ao criar uma **alocação de computação**, você precisará configurar um controle de acesso baseado em funções (RBAC) do Kubernetes para usuários de cientistas de dados no namespace correspondente para executar tarefas em clusters orquestrados com o Amazon EKS. HyperPod Os namespaces têm o formato `hyperpod-ns-team-name`. Para configurar um RBAC do Kubernetes, use as instruções em [Create team role](https://github.com/aws/sagemaker-hyperpod-cli/tree/main/helm_chart#5-create-team-role).

Para obter mais informações sobre os conceitos da política de cluster EKS de governança de HyperPod tarefas, consulte[Políticas](sagemaker-hyperpod-eks-operate-console-ui-governance-policies.md).

**Editar políticas de governança de HyperPod tarefas**

Esse procedimento pressupõe que você já tenha criado um cluster Amazon EKS configurado com HyperPod. Se ainda não fez feito isso, consulte [Criação de um SageMaker HyperPod cluster com a orquestração do Amazon EKS](sagemaker-hyperpod-eks-operate-console-ui-create-cluster.md).

1. Navegue até o [console do Amazon SageMaker AI](https://console.aws.amazon.com/sagemaker/).

1. No painel de navegação esquerdo, em **HyperPodClusters, escolha **Gerenciamento de clusters****.

1. Escolha seu cluster Amazon EKS listado em **SageMaker HyperPodclusters**.

1. Escolha a guia **Políticas**.

1. Para editar sua **política de cluster**:

   1. Escolha o campo **Editar** correspondente para atualizar como as tarefas são priorizadas e a computação ociosa é alocada.

   1. Depois de fazer as alterações, escolha **Enviar**.

1. Para editar a **alocação de computação**:

1. 

   1. Escolha a configuração que você deseja editar em **Alocação de computação**. Isso leva você para a página de detalhes da configuração.

   1. Se você quiser editar essas configurações, escolha **Editar**.

   1. Depois de fazer as alterações, escolha **Enviar**.

# Excluir políticas
<a name="sagemaker-hyperpod-eks-operate-console-ui-governance-policies-delete"></a>

Você pode excluir sua **política de cluster** e configurações de **alocação de computação** usando o console de SageMaker IA ou. AWS CLI A página a seguir fornece instruções sobre como excluir suas políticas e configurações de governança de SageMaker HyperPod tarefas.

Para obter mais informações sobre os conceitos da política de cluster EKS de governança de HyperPod tarefas, consulte[Políticas](sagemaker-hyperpod-eks-operate-console-ui-governance-policies.md).

**nota**  
Se você estiver tendo problemas para listar ou excluir políticas de governança de tarefas, talvez seja necessário atualizar o conjunto mínimo de permissões de administrador do cluster. Consulte a guia **Amazon EKS** na seção [Usuários do IAM para administração de cluster](sagemaker-hyperpod-prerequisites-iam.md#sagemaker-hyperpod-prerequisites-iam-cluster-admin). Para obter informações adicionais, consulte [Excluir clusters](sagemaker-hyperpod-eks-operate-console-ui-governance-troubleshoot.md#hp-eks-troubleshoot-delete-policies).

## Excluir políticas de governança de HyperPod tarefas (console)
<a name="sagemaker-hyperpod-eks-operate-console-ui-governance-policies-delete-console"></a>

O seguinte usa o console de SageMaker IA para excluir suas políticas de governança de HyperPod tarefas.

**nota**  
Você não pode excluir sua **política de cluster** (`ClusterSchedulerConfig`) usando o console de SageMaker IA. Para saber como fazer isso usando o AWS CLI, consulte[Excluir políticas de governança de HyperPod tarefas (AWS CLI)](#sagemaker-hyperpod-eks-operate-console-ui-governance-policies-delete-cli).

**Para excluir políticas de governança de tarefas (console)**

1. Navegue até o [console do Amazon SageMaker AI](https://console.aws.amazon.com/sagemaker/).

1. No painel de navegação esquerdo, em **HyperPodClusters, escolha **Gerenciamento de clusters****.

1. Escolha seu cluster Amazon EKS listado em **SageMaker HyperPodclusters**.

1. Escolha a guia **Políticas**.

1. Para excluir sua **alocação de computação** (`ComputeQuota`):

   1. Na seção **Alocação de computação**, selecione a configuração que você deseja excluir.

   1. No menu suspenso **Ações**, escolha **Excluir**.

   1. Siga as instruções na interface de usuário para concluir a tarefa.

## Excluir políticas de governança de HyperPod tarefas (AWS CLI)
<a name="sagemaker-hyperpod-eks-operate-console-ui-governance-policies-delete-cli"></a>

O seguinte usa o AWS CLI para excluir suas políticas de governança de HyperPod tarefas.

**nota**  
Se você estiver tendo problemas ao usar os comandos a seguir, talvez seja necessário atualizar seu AWS CLI. Para saber mais, consulte [Instalar ou atualizar para a versão mais recente da AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/getting-started-install.html).

**Como excluir políticas de governança de tarefas (AWS CLI)**

Primeiro, defina suas variáveis para os AWS CLI comandos a seguir.

```
REGION=aws-region
```

1. Obtenha o *cluster-arn* associado às políticas que você deseja excluir. Você pode usar o AWS CLI comando a seguir para listar os clusters em seu Região da AWS.

   ```
   aws sagemaker list-clusters \
       --region ${REGION}
   ```

1. Para excluir alocações de computação (`ComputeQuota`):

   1. Liste todas as cotas de computação associadas ao HyperPod cluster.

      ```
      aws sagemaker list-compute-quotas \
          --cluster-arn cluster-arn \
          --region ${REGION}
      ```

   1. Para cada `compute-quota-id` que desejar excluir, execute o comando a seguir para excluir a cota de computação.

      ```
      aws sagemaker delete-compute-quota \
          --compute-quota-id compute-quota-id \
          --region ${REGION}
      ```

1. Para excluir políticas de cluster (`ClusterSchedulerConfig`):

   1. Liste todas as políticas de cluster associadas ao HyperPod cluster.

      ```
      aws sagemaker list-cluster-scheduler-configs \
          --cluster-arn cluster-arn \
          --region ${REGION}
      ```

   1. Para cada `cluster-scheduler-config-id` que desejar excluir, execute o comando a seguir para excluir a cota de computação.

      ```
      aws sagemaker delete-cluster-scheduler-config 
          --cluster-scheduler-config-id scheduler-config-id \
          --region ${REGION}
      ```

# Alocação de cota computacional na governança de tarefas da Amazon SageMaker HyperPod
<a name="sagemaker-hyperpod-eks-operate-console-ui-governance-policies-compute-allocation"></a>

Os administradores de cluster podem decidir como a organização usa a computação adquirida. Isso reduz o desperdício e os recursos ociosos. Você pode alocar uma cota de computação para que as equipes possam tomar emprestados recursos não utilizados entre si. A alocação de cotas de computação na governança de HyperPod tarefas permite que os administradores aloquem recursos no nível da instância e em um nível de recurso mais granular. Esse recurso oferece gerenciamento de recursos flexível e eficiente para as equipes, permitindo o controle granular de recursos de computação individuais em vez de exigir alocações de instâncias inteiras. A alocação em nível granular elimina a ineficiência da alocação tradicional em nível de instância. Por meio dessa abordagem, você pode otimizar a utilização de recursos e reduzir a computação ociosa.

A alocação de cotas de computação permite três tipos de alocação de recursos: aceleradores, vCPU e memória. Aceleradores são componentes em instâncias com computação acelerada que executam funções, como cálculos de número de ponto flutuante, processamento gráfico ou correspondência de padrões de dados. Os aceleradores incluem GPUs aceleradores Trainium e núcleos de neurônios. Para o compartilhamento de GPU com várias equipes, equipes diferentes podem receber alocações específicas de GPU do mesmo tipo de instância, maximizando a utilização do hardware do acelerador. Para cargas de trabalho com uso intenso de memória que exigem RAM adicional para cenários de pré-processamento de dados ou armazenamento em cache de modelos, você pode alocar a cota de memória além da taxa padrão. GPU-to-memory Para tarefas pesadas de pré-processamento de CPU que precisam de recursos substanciais de CPU e treinamento da GPU, você pode fazer uma alocação de recursos de CPU independente.

Depois de fornecer um valor, a governança de HyperPod tarefas calcula a proporção usando a fórmula de **recurso alocado dividido pela quantidade total de recursos disponíveis na instância**. HyperPod A governança de tarefas então usa essa proporção para aplicar alocações padrão a outros recursos, mas você pode substituir esses padrões e personalizá-los com base no seu caso de uso. Veja a seguir exemplos de cenários de como a governança de HyperPod tarefas aloca recursos com base em seus valores:
+ **Somente acelerador especificado** - a governança de HyperPod tarefas aplica a proporção padrão à vCPU e à memória com base nos valores do acelerador.
+ **Somente vCPU especificada** - a governança de HyperPod tarefas calcula a proporção e a aplica à memória. Os aceleradores são definidos como 0.
+ **Somente memória especificada** - a governança de HyperPod tarefas calcula a proporção e a aplica à vCPU porque a computação é necessária para executar cargas de trabalho especificadas na memória. Os aceleradores são definidos como 0.

Para controlar programaticamente a alocação de cotas, você pode usar o [ ComputeQuotaResourceConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ComputeQuotaResourceConfig.html)objeto e especificar suas alocações em números inteiros.

```
{
    "ComputeQuotaConfig": {
        "ComputeQuotaResources": [{
            "InstanceType": "ml.g5.24xlarge",
            "Accelerators": "16",
            "vCpu": "200.0",
            "MemoryInGiB": "2.0"
        }]
    }
}
```

Para ver todas as alocações alocadas, incluindo os padrões, use a operação. [ DescribeComputeQuota](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeComputeQuota.html) Para atualizar suas alocações, use a [ UpdateComputeQuota](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_UpdateComputeQuota.html)operação.

Você também pode usar a HyperPod CLI para alocar cotas de computação. Para obter mais informações sobre a HyperPod CLI, consulte. [Execução de trabalhos em SageMaker HyperPod clusters orquestrados pelo Amazon EKS](sagemaker-hyperpod-eks-run-jobs.md) O exemplo a seguir demonstra como definir cotas de computação usando a CLI. HyperPod 

```
hyp create hyp-pytorch-job --version 1.1 --job-name sample-job \
--image 123456789012.dkr.ecr.us-west-2.amazonaws.com/ptjob:latest \
--pull-policy "Always" \
--tasks-per-node 1 \
--max-retry 1 \
--priority high-priority \
--namespace hyperpod-ns-team-name \
--queue-name hyperpod-ns-team-name-localqueue \
--instance-type sample-instance-type \
--accelerators 1 \
--vcpu 3 \
--memory 1 \
--accelerators-limit 1 \
--vcpu-limit 4 \
--memory-limit 2
```

Para alocar cotas usando o AWS console, siga estas etapas.

1. Abra o console do Amazon SageMaker AI em [https://console.aws.amazon.com/sagemaker/](https://console.aws.amazon.com/sagemaker/).

1. Em HyperPod clusters, escolha **Gerenciamento de clusters**.

1. Em **Alocações de computação**, escolha **Criar**.

1. Se você ainda não tiver instâncias, escolha **Adicionar alocação** para adicionar uma instância.

1. Em **Alocações**, escolha alocar por instâncias ou recursos individuais. Se você alocar por recursos individuais, a SageMaker IA atribuirá automaticamente alocações a outros recursos de acordo com a proporção que você escolheu. Para substituir essa alocação baseada em proporção, use a alternância correspondente para substituir essa computação.

1. Repita as Etapas 4 e 5 para configurar instâncias adicionais.

Depois de alocar a cota de computação, você pode enviar trabalhos por meio da CLI ou. HyperPod `kubectl` HyperPodprograma com eficiência as cargas de trabalho com base na cota disponível. 

# Alocação da cota de partição da GPU
<a name="sagemaker-hyperpod-eks-operate-console-ui-governance-policies-compute-allocation-gpu-partitions"></a>

Você pode estender a alocação da cota de computação para suportar o particionamento da GPU, permitindo o compartilhamento refinado de recursos no nível da partição da GPU. Quando o particionamento de GPU está habilitado com suporte GPUs no cluster, cada GPU física pode ser particionada em várias isoladas GPUs com alocações definidas de computação, memória e multiprocessador de streaming. Para obter mais informações sobre particionamento de GPU, consulte. [Usando partições de GPU na Amazon SageMaker HyperPod](sagemaker-hyperpod-eks-gpu-partitioning.md) Você pode alocar partições de GPU específicas para equipes, permitindo que várias equipes compartilhem uma única GPU, mantendo o isolamento em nível de hardware e o desempenho previsível.

Por exemplo, uma instância ml.p5.48xlarge com 8 H100 GPUs pode ser particionada em partições de GPU, e você pode alocar partições individuais para equipes diferentes com base nos requisitos de suas tarefas. Quando você especifica as alocações de partição da GPU, a governança de HyperPod tarefas calcula as cotas proporcionais de vCPU e memória com base na partição da GPU, semelhante à alocação no nível da GPU. Essa abordagem maximiza a utilização da GPU eliminando a capacidade ociosa e permitindo o compartilhamento econômico de recursos em várias tarefas simultâneas na mesma GPU física.

## Criação de cotas de computação
<a name="sagemaker-hyperpod-eks-operate-console-ui-governance-policies-compute-allocation-gpu-partitions-creating"></a>

```
aws sagemaker create-compute-quota \
  --name "fractional-gpu-quota" \
  --compute-quota-config '{
    "ComputeQuotaResources": [
      {
        "InstanceType": "ml.p4d.24xlarge",
        "AcceleratorPartition": {
            "Count": 4,
            "Type": "mig-1g.5gb"
        }
      }
    ],
    "ResourceSharingConfig": { 
      "Strategy": "LendAndBorrow", 
      "BorrowLimit": 100 
    }
  }'
```

## Verificando recursos de cota
<a name="sagemaker-hyperpod-eks-operate-console-ui-governance-policies-compute-allocation-gpu-partitions-verifying"></a>

```
# Check ClusterQueue
kubectl get clusterqueues
kubectl describe clusterqueue QUEUE_NAME

# Check ResourceFlavors
kubectl get resourceflavor
kubectl describe resourceflavor FLAVOR_NAME
```