

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Políticas
<a name="sagemaker-hyperpod-eks-operate-console-ui-governance-policies"></a>

 SageMaker HyperPod La gobernanza de tareas de Amazon simplifica la forma en que se asignan los recursos del clúster de Amazon EKS y la forma en que se priorizan las tareas. A continuación, se proporciona información sobre las políticas de clústeres de HyperPod EKS. Para obtener más información acerca de cómo configurar la gobernanza de tareas, consulte [Configuración de la gobernanza de tareas](sagemaker-hyperpod-eks-operate-console-ui-governance-setup-task-governance.md).

Las políticas se dividen en **Priorización de recursos de computación** y **Asignación de recursos de computación**. Los siguientes conceptos de política se organizarán en el contexto de estas políticas.

La **Priorización de recursos de computación**, o la política de clústeres, determina cómo se toma prestada la computación inactiva y cómo priorizan las tareas los equipos.
+ La **Asignación de recursos de computación** define cómo se asignan los recursos de computación inactivos entre los equipos. Es decir, cómo se pueden tomar prestados los recursos de computación inactivos de los equipos. Al elegir una **Asignación de recursos de computación inactivos**, puede escoger entre:
  + **Se ejecutará por orden de llegada**: cuando se aplica, los equipos no tienen prioridad entre sí y cada tarea entrante tiene la misma probabilidad de obtener recursos que superen la cuota. Las tareas se priorizan en función del orden de envío. Esto significa que un usuario puede utilizar el 100 % de los recursos de computación inactivos si lo solicita primero.
  + **Reparto equitativo**: cuando se aplica, los equipos toman prestada la computación inactiva en función de la **Distribución equitativa del peso**. Estas ponderaciones se definen en **Asignación de recursos de computación**. Para obtener más información sobre cómo se puede usar, consulte [Ejemplos de uso compartido de recursos de computación inactivos](#hp-eks-task-governance-policies-examples).
+ **Priorización de tareas** define cómo se ponen en cola las tareas a medida que el cálculo está disponible. Al elegir **Priorización de tareas**, puede escoger entre:
  + **Se ejecutará por orden de llegada**: cuando se aplican, las tareas se ponen en cola en el orden en que se solicitan.
  + **Clasificación de tareas**: cuando se aplica, las tareas se ponen en cola en el orden definido según su prioridad. Si elige esta opción, debe agregar las clases de prioridad junto con las ponderaciones con las que se deberían priorizar. Las tareas de la misma clase de prioridad se ejecutarán por orden de llegada. Cuando la opción Asignación de recursos de computación está activada, las tareas del equipo de mayor prioridad se anteponen a las tareas de menor prioridad.

    Cuando los científicos de datos envían trabajos al clúster, utilizan el nombre de la clase de prioridad del archivo YAML. La clase de prioridad tiene el formato `priority-class-name-priority`. Para ver un ejemplo, consulta [Envíe un trabajo a una cola y un espacio de nombres SageMaker gestionados por la IA](sagemaker-hyperpod-eks-operate-console-ui-governance-cli.md#hp-eks-cli-start-job).
  + **Clases de prioridad**: estas clases establecen una prioridad relativa para las tareas cuando toman prestada la capacidad. Cuando una tarea se ejecuta con una cuota prestada, puede anteponerse a otra tarea de mayor prioridad si no hay más capacidad disponible para la tarea entrante. Si **Preferencia** está activado en **Asignación de recursos de computación**, una tarea de mayor prioridad también puede tener prioridad sobre las tareas de su propio equipo.
+ El **uso compartido de recursos no asignados** permite a los equipos tomar prestados recursos informáticos que no están asignados a ningún equipo a través de la cuota de cálculo. Cuando se habilita, la capacidad del clúster no asignada queda disponible para que los equipos la tomen prestada automáticamente. Para obtener más información, consulte [Cómo funciona el uso compartido de recursos no asignados](#sagemaker-hyperpod-eks-operate-console-ui-governance-policies-idle-resource-sharing-how-it-works).

**Asignación de recursos de computación**, o cuota de computación, define la asignación de recursos de computación de un equipo y el peso (o nivel de prioridad) que se le asigna a un equipo para repartir equitativamente los recursos de computación inactivos. 
+ **Nombre del equipo**: es el nombre del equipo. Se creará un **espacio de nombres** correspondiente, del tipo `hyperpod-ns-team-name`. 
+ **Miembros**: miembros del espacio de nombres del equipo. Deberá configurar un control de acceso basado en roles (RBAC) de Kubernetes para los usuarios de científicos de datos que desee que formen parte de este equipo, a fin de ejecutar tareas en clústeres organizados con Amazon EKS. HyperPod Para configurar un RBAC de Kubernetes, siga las instrucciones de cómo [crear un rol de equipo](https://github.com/aws/sagemaker-hyperpod-cli/tree/main/helm_chart#5-create-team-role).
+ **Distribución equitativa del peso**: es el nivel de prioridad asignado al equipo cuando **Reparto equitativo** se aplica a **Asignación de recursos de computación inactivos**. La prioridad más alta tiene una ponderación de 100 y la prioridad más baja de 0. Una mayor ponderación permite al equipo acceder antes a los recursos no utilizados dentro de la capacidad compartida. Una ponderación cero es la prioridad más baja, lo que implica que este equipo siempre estará en desventaja en comparación con otros equipos. 

  Una distribución equitativa del peso proporciona a este equipo ventaja comparativa a la hora de competir por los recursos disponibles contra los demás. La admisión da prioridad a la programación de las tareas de los equipos con mayor ponderación y menor préstamo. Por ejemplo, si el equipo A tiene una ponderación de 10 y el equipo B tiene una ponderación de 5, el equipo A tendría prioridad al acceder a los recursos no utilizados, ya que tendría trabajos programados antes que el equipo B.
+ **Preferencia de tareas**: sustituye a los recursos de computación de una tarea en función de la prioridad. De forma predeterminada, el equipo que presta los recursos de computación inactivos se antepone a las tareas de otros equipos. 
+ **Prestar y pedir prestado**: cómo presta el equipo los recursos de computación inactivos y si el equipo puede pedir prestado a otros equipos.
  + Límite de **préstamo basado en porcentajes: el límite** de cómputo inactivo que un equipo puede tomar prestado, expresado como un porcentaje de su cuota garantizada. Un equipo puede tomar prestado hasta un 10 000% del cómputo asignado. El valor que proporcione aquí se interpreta como porcentaje. Por ejemplo, un valor de 500 se interpreta como 500 %. Este porcentaje se aplica de manera uniforme a todos los tipos de recursos (CPU, GPU, memoria) y tipos de instancias de la cuota del equipo.
  + **Límite de préstamo absoluto**: el límite de procesamiento inactivo que un equipo puede tomar prestado, definido como valores de recursos absolutos por tipo de instancia. Esto proporciona un control pormenorizado sobre el comportamiento de los préstamos para tipos de instancias específicos. Debes especificar los límites absolutos mediante el mismo esquema que la **cuota de cómputo**, que incluye el recuento de instancias, los aceleradores, la vCPU, la memoria o las particiones aceleradoras. Puedes especificar límites absolutos para uno o más tipos de instancias de la cuota de tu equipo.

Para obtener más información sobre cómo se utilizan estos conceptos, como las clases de prioridad y los espacios de nombres, consulte [Ejemplos de comandos de gobierno AWS CLI de HyperPod tareas](sagemaker-hyperpod-eks-operate-console-ui-governance-cli.md).

## Ejemplos de uso compartido de recursos de computación inactivos
<a name="hp-eks-task-governance-policies-examples"></a>

La cuota total reservada no debe superar la capacidad disponible del clúster para ese recurso, a fin de garantizar una gestión adecuada de la cuota. Por ejemplo, si un clúster está compuesto por 20 instancias de `ml.c5.2xlarge`, la cuota acumulada asignada a los equipos debe permanecer por debajo de 20. 

Si las políticas **Asignación de recursos de computación** para los equipos permiten **Prestar y pedir prestado** o **Prestar**, la capacidad inactiva se comparte entre esos equipos. Por ejemplo, los equipos A y B tienen habilitada la opción **Prestar y pedir prestado**. El equipo A tiene una cuota de 6, pero solo usa 2 para sus trabajos, mientras que el equipo B tiene una cuota de 5 y usa 4 para sus trabajos. Si se envía un trabajo al equipo B que requiere 4 recursos, tendrá que tomar prestados 3 del equipo A. 

Si la política **Asignación de recursos de computación** se fija en **No prestar**, el equipo no podrá pedir prestada ninguna capacidad adicional aparte de sus propias asignaciones.

## Cómo funciona el uso compartido de recursos no asignados
<a name="sagemaker-hyperpod-eks-operate-console-ui-governance-policies-idle-resource-sharing-how-it-works"></a>

El uso compartido de recursos no asignados administra automáticamente el conjunto de recursos que no están asignados a ninguna cuota de procesamiento del clúster. Esto significa que supervisa de HyperPod forma continua el estado del clúster y se actualiza automáticamente a la configuración correcta a lo largo del tiempo.

**Configuración inicial**
+ Cuando lo `IdleResourceSharing` configuras `Enabled` en tu ClusterSchedulerConfig (de forma predeterminada es`Disabled`), el gobierno de HyperPod tareas comienza a monitorear tu clúster y calcula los recursos inactivos disponibles restando las cuotas de equipo de la capacidad total de los nodos.
+ Los recursos compartidos no asignados se ClusterQueues crean para representar el fondo de recursos que se pueden pedir prestado.
+ La primera vez que habilita el uso compartido de recursos no asignados, la configuración de la infraestructura tarda varios minutos. Puede supervisar el progreso a través de la política `Status` y dentro de ella`DetailedStatus`. ClusterSchedulerConfig

**Reconciliación continua**
+ HyperPod El gobierno de tareas supervisa continuamente los cambios, como la incorporación o eliminación de nodos y las actualizaciones de las cuotas de colas de clústeres.
+  Cuando se producen cambios, el uso compartido de recursos no asignados recalcula la cuota y las actualiza. ClusterQueues La reconciliación suele completarse en cuestión de segundos. 

**Supervisión**

 Puede comprobar que el uso compartido de recursos no asignados está completamente configurado comprobando si el uso compartido de recursos no asignados es el uso compartido de recursos no asignados: ClusterQueues 

```
kubectl get clusterqueue | grep hyperpod-ns-idle-resource-sharing
```

Cuando aparezca ClusterQueues con nombres como que el uso compartido `hyperpod-ns-idle-resource-sharing-cq-1` de recursos no asignados está activo. Ten en cuenta que es ClusterQueues posible que se compartan varios recursos no asignados en función del número de tipos de recursos del clúster. 

## Aptitud de los nodos para compartir recursos no asignados
<a name="sagemaker-hyperpod-eks-operate-console-ui-governance-policies-idle-resource-sharing-node-eligibility"></a>

El uso compartido de recursos no localizados solo incluye los nodos que cumplen los siguientes requisitos:

1. **Estado de nodo listo**
   + Los nodos deben estar en `Ready` estado para contribuir al fondo de recursos no asignado.
   + Los nodos `NotReady` u otros estados no preparados se excluyen de los cálculos de capacidad.
   + Cuando un nodo se convierte en nodo`Ready`, se incluye automáticamente en el siguiente ciclo de reconciliación.

1. **Estado programable del nodo**
   + Los nodos con `spec.unschedulable: true` están excluidos del intercambio de recursos no asignados.
   + Cuando un nodo vuelve a ser programable, se incluye automáticamente en el siguiente ciclo de reconciliación.

1. **Configuración MIG (solo nodos de GPU)**
   + En el caso de los nodos de GPU con particiones MIG (GPU de instancias múltiples), la `nvidia.com/mig.config.state` etiqueta debe indicar `success` que el nodo puede contribuir con perfiles MIG al uso compartido de recursos no asignados.
   + Estos nodos se volverán a intentar automáticamente una vez que la configuración de MIG se complete correctamente.

1. **Tipos de instancias compatibles**
   + La instancia debe ser un tipo de SageMaker HyperPod instancia compatible.
   + Consulta la lista de tipos de instancias compatibles en el SageMaker HyperPod clúster.

**Topics**
+ [Ejemplos de uso compartido de recursos de computación inactivos](#hp-eks-task-governance-policies-examples)
+ [Cómo funciona el uso compartido de recursos no asignados](#sagemaker-hyperpod-eks-operate-console-ui-governance-policies-idle-resource-sharing-how-it-works)
+ [Aptitud de los nodos para compartir recursos no asignados](#sagemaker-hyperpod-eks-operate-console-ui-governance-policies-idle-resource-sharing-node-eligibility)
+ [Creación de políticas](sagemaker-hyperpod-eks-operate-console-ui-governance-policies-create.md)
+ [Edición de políticas](sagemaker-hyperpod-eks-operate-console-ui-governance-policies-edit.md)
+ [Eliminación de políticas](sagemaker-hyperpod-eks-operate-console-ui-governance-policies-delete.md)
+ [Asignación de cuotas de cómputo en la gobernanza de SageMaker HyperPod tareas de Amazon](sagemaker-hyperpod-eks-operate-console-ui-governance-policies-compute-allocation.md)

# Creación de políticas
<a name="sagemaker-hyperpod-eks-operate-console-ui-governance-policies-create"></a>

Puede crear sus configuraciones de **Política de clústeres** y **Asignación de recursos de computación** en la pestaña **Políticas**. A continuación, se proporcionan instrucciones sobre cómo crear las configuraciones siguientes.
+ Cree su **Política de clústeres** para actualizar la forma en que se priorizan las tareas y se asignan los recursos de computación inactivos.
+ Cree una **Asignación de recursos de computación** para crear una nueva política de asignación de recursos de computación para un equipo.
**nota**  
Al crear una **asignación de cómputo**, necesitará configurar un control de acceso basado en roles (RBAC) de Kubernetes para que los usuarios de científicos de datos en el espacio de nombres correspondiente ejecuten tareas en clústeres organizados con Amazon EKS. HyperPod Los espacios de nombres tienen el formato `hyperpod-ns-team-name`. Para configurar un RBAC de Kubernetes, siga las instrucciones de cómo [crear un rol de equipo](https://github.com/aws/sagemaker-hyperpod-cli/tree/main/helm_chart#5-create-team-role).

Para obtener información sobre los conceptos de la política de clústeres de EKS sobre la gobernanza de tareas, consulte. HyperPod [Políticas](sagemaker-hyperpod-eks-operate-console-ui-governance-policies.md)

**Cree políticas de gobierno de HyperPod tareas**

En este procedimiento se presupone que ya ha creado un clúster de Amazon EKS configurado con HyperPod. Si aún no lo ha hecho, consulte [Creación de un SageMaker HyperPod clúster con la orquestación de Amazon EKS](sagemaker-hyperpod-eks-operate-console-ui-create-cluster.md).

1. Navega hasta la [consola Amazon SageMaker AI](https://console.aws.amazon.com/sagemaker/).

1. En el panel de navegación izquierdo, en **HyperPodClústeres**, selecciona **Administración de clústeres**.

1. Elija su clúster de Amazon EKS que aparece en **SageMaker HyperPodclústeres**.

1. Elija la pestaña **Policies**.

1. Para crear su **Política de clústeres**, debe hacer lo siguiente:

   1. Elija la opción **Editar** correspondiente para actualizar la forma en que se priorizan las tareas y se asignan los recursos de computación inactivos.

   1. Después de hacer los cambios, elija **Enviar**.

1. Para crear una **Asignación de recursos de computación**:

1. 

   1. Elija la opción **Crear** correspondiente. Esto le llevará a la página de creación de asignaciones de recursos de computación.

   1. Después de hacer los cambios, elija **Enviar**.

# Edición de políticas
<a name="sagemaker-hyperpod-eks-operate-console-ui-governance-policies-edit"></a>

Puede editar sus configuraciones de **Política de clústeres** y **Asignación de recursos de computación** en la pestaña **Políticas**. A continuación, se proporcionan instrucciones sobre cómo editar las configuraciones siguientes.
+ Edite su **Política de clústeres** para actualizar la forma en que se priorizan las tareas y se asignan los recursos de computación inactivos.
+ Edite una **Asignación de recursos de computación** para crear una nueva política de asignación de recursos de computación para un equipo.
**nota**  
Al crear una **asignación de cómputo**, necesitará configurar un control de acceso basado en roles (RBAC) de Kubernetes para que los usuarios de científicos de datos en el espacio de nombres correspondiente ejecuten tareas en clústeres organizados con Amazon EKS. HyperPod Los espacios de nombres tienen el formato `hyperpod-ns-team-name`. Para configurar un RBAC de Kubernetes, siga las instrucciones de cómo [crear un rol de equipo](https://github.com/aws/sagemaker-hyperpod-cli/tree/main/helm_chart#5-create-team-role).

Para obtener más información sobre los conceptos de la política de clústeres de EKS sobre la gobernanza de tareas, consulte. HyperPod [Políticas](sagemaker-hyperpod-eks-operate-console-ui-governance-policies.md)

**Edite las políticas de gobierno de HyperPod tareas**

En este procedimiento se presupone que ya ha creado un clúster de Amazon EKS configurado con HyperPod. Si aún no lo ha hecho, consulte [Creación de un SageMaker HyperPod clúster con la orquestación de Amazon EKS](sagemaker-hyperpod-eks-operate-console-ui-create-cluster.md).

1. Navega hasta la [consola Amazon SageMaker AI](https://console.aws.amazon.com/sagemaker/).

1. En el panel de navegación izquierdo, en **HyperPodClústeres**, selecciona **Administración de clústeres**.

1. Elija su clúster de Amazon EKS que aparece en **SageMaker HyperPodclústeres**.

1. Elija la pestaña **Policies**.

1. Para editar su **Política de clústeres**:

   1. Elija la opción **Editar** correspondiente para actualizar la forma en que se priorizan las tareas y se asignan los recursos de computación inactivos.

   1. Después de hacer los cambios, elija **Enviar**.

1. Para editar la **Asignación de recursos de computación**:

1. 

   1. Elija la configuración que desee editar en **Asignación de recursos de computación**. Esto te lleva a la página de detalles de la configuración.

   1. Si desea editar estas configuraciones, elija **Editar**.

   1. Después de hacer los cambios, elija **Enviar**.

# Eliminación de políticas
<a name="sagemaker-hyperpod-eks-operate-console-ui-governance-policies-delete"></a>

Puede eliminar sus configuraciones de **política de clúster** y **asignación de cómputo** mediante la consola de SageMaker IA o AWS CLI. En la página siguiente, se proporcionan instrucciones sobre cómo eliminar las políticas y configuraciones de gobierno de las SageMaker HyperPod tareas.

Para obtener más información sobre los conceptos de la política de clústeres EKS de gobierno de HyperPod tareas, consulte[Políticas](sagemaker-hyperpod-eks-operate-console-ui-governance-policies.md).

**nota**  
Si tiene problemas para enumerar o eliminar las políticas de gobernanza de tareas, es posible que deba actualizar el conjunto mínimo de permisos del administrador del clúster. Consulte la pestaña **Amazon EKS** en la sección [Usuarios de IAM para la administración de clústeres](sagemaker-hyperpod-prerequisites-iam.md#sagemaker-hyperpod-prerequisites-iam-cluster-admin). Para obtener información adicional, consulta [Eliminación de clústeres](sagemaker-hyperpod-eks-operate-console-ui-governance-troubleshoot.md#hp-eks-troubleshoot-delete-policies).

## Eliminar las políticas de gobierno de HyperPod tareas (consola)
<a name="sagemaker-hyperpod-eks-operate-console-ui-governance-policies-delete-console"></a>

A continuación, se utiliza la consola de SageMaker IA para eliminar las políticas de gobierno de las HyperPod tareas.

**nota**  
No puedes eliminar tu **política de clúster** (`ClusterSchedulerConfig`) mediante la consola de SageMaker IA. Para obtener información sobre cómo hacerlo con AWS CLI, consulte[Elimine las políticas de gobierno de HyperPod tareas (AWS CLI)](#sagemaker-hyperpod-eks-operate-console-ui-governance-policies-delete-cli).

**Cómo eliminar políticas de gobernanza de tareas (consola)**

1. Navega hasta la [consola Amazon SageMaker AI](https://console.aws.amazon.com/sagemaker/).

1. En el panel de navegación izquierdo, en **HyperPodClústeres**, selecciona **Administración de clústeres**.

1. Elija su clúster de Amazon EKS que aparece en **SageMaker HyperPodclústeres**.

1. Elija la pestaña **Policies**.

1. Para eliminar su **Asignación de recursos de computación** (`ComputeQuota`):

   1. En la sección **Asignación de recursos de computación**, seleccione la configuración que desea eliminar.

   1. En el menú desplegable **Acciones**, elija **Eliminar**.

   1. Siga las instrucciones de la interfaz de usuario para completar la tarea.

## Elimine las políticas de gobierno de HyperPod tareas (AWS CLI)
<a name="sagemaker-hyperpod-eks-operate-console-ui-governance-policies-delete-cli"></a>

A continuación, se utilizan AWS CLI para eliminar las políticas de gobierno de HyperPod tareas.

**nota**  
Si tiene problemas para utilizar los siguientes comandos, es posible que deba actualizar su AWS CLI. Para obtener más información, consulte [Instalación o actualización de la versión más reciente de la AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/getting-started-install.html).

**Cómo eliminar políticas de gobernanza de tareas (AWS CLI)**

Primero configura tus variables para los AWS CLI comandos siguientes.

```
REGION=aws-region
```

1. Obtenga las políticas *cluster-arn* asociadas a las que desee eliminar. Puede usar el siguiente AWS CLI comando para enumerar los clústeres de su Región de AWS.

   ```
   aws sagemaker list-clusters \
       --region ${REGION}
   ```

1. Para eliminar sus asignaciones de recursos de computación (`ComputeQuota`):

   1. Enumere todas las cuotas de procesamiento asociadas al HyperPod clúster.

      ```
      aws sagemaker list-compute-quotas \
          --cluster-arn cluster-arn \
          --region ${REGION}
      ```

   1. Para eliminar cada `compute-quota-id` que desee eliminar, ejecute el siguiente comando para eliminar la cuota de computación.

      ```
      aws sagemaker delete-compute-quota \
          --compute-quota-id compute-quota-id \
          --region ${REGION}
      ```

1. Para eliminar las políticas de clústeres (`ClusterSchedulerConfig`):

   1. Enumera todas las políticas de clúster asociadas al HyperPod clúster.

      ```
      aws sagemaker list-cluster-scheduler-configs \
          --cluster-arn cluster-arn \
          --region ${REGION}
      ```

   1. Para eliminar cada `cluster-scheduler-config-id` que desee eliminar, ejecute el siguiente comando para eliminar la cuota de computación.

      ```
      aws sagemaker delete-cluster-scheduler-config 
          --cluster-scheduler-config-id scheduler-config-id \
          --region ${REGION}
      ```

# Asignación de cuotas de cómputo en la gobernanza de SageMaker HyperPod tareas de Amazon
<a name="sagemaker-hyperpod-eks-operate-console-ui-governance-policies-compute-allocation"></a>

Los administradores de clústeres pueden decidir cómo utiliza la organización los recursos de computación adquiridos. De este modo, se reducen los residuos y los recursos inactivos. Puede asignar una cuota de computación de forma que los equipos puedan tomar prestados los recursos no utilizados entre ellos. La asignación de cuotas de cómputo en la gobernanza de HyperPod tareas permite a los administradores asignar los recursos a nivel de instancia y a un nivel de recursos más detallado. Esta capacidad resulta en una administración de recursos flexible y eficiente para los equipos, ya que permite un control detallado de los recursos de computación individuales en lugar de requerir la asignación de instancias completas. La asignación más detallada elimina las ineficiencias de la asignación tradicional en la instancia. Con este enfoque, puede optimizar la utilización de los recursos y reducir la computación inactiva.

La asignación de cuotas de computación admite tres tipos de asignación de recursos: aceleradores, vCPU y memoria. Los aceleradores son componentes de las instancias de computación aceleradas que realizan funciones, como cálculos numéricos de coma flotante, procesamiento de gráficos o coincidencia de patrones de datos. Los aceleradores incluyen GPUs los aceleradores Trainium y los núcleos neuronales. Para compartir GPU entre varios equipos, distintos equipos pueden recibir asignaciones de GPU específicas del mismo tipo de instancia, lo que maximiza el uso del hardware del acelerador. Para cargas de trabajo con uso intensivo de memoria que requieren RAM adicional para el preprocesamiento de datos o escenarios de almacenamiento en caché de modelos, puede asignar una cuota de memoria superior a la proporción predeterminada. GPU-to-memory Para las tareas de preprocesamiento que requieren un uso intensivo de la CPU y que requieren una cantidad considerable de recursos de la CPU junto con el entrenamiento de la GPU, puede asignar recursos de CPU independientes.

Una vez que proporciones un valor, el gobierno de HyperPod tareas calcula la proporción mediante la fórmula: **recurso asignado dividido por la cantidad total de recursos disponibles** en la instancia. HyperPod A continuación, el gobierno de tareas utiliza esta proporción para aplicar las asignaciones predeterminadas a otros recursos, pero puedes anular estos valores predeterminados y personalizarlos en función de tu caso de uso. Los siguientes son ejemplos de escenarios de cómo la gobernanza de HyperPod tareas asigna los recursos en función de sus valores:
+ **Solo se especificó el acelerador**: el gobierno de HyperPod tareas aplica la relación predeterminada a la vCPU y la memoria en función de los valores del acelerador.
+ **Solo se especificó la vCPU: el** gobierno de HyperPod tareas calcula la proporción y la aplica a la memoria. Los aceleradores se establecen en 0.
+ **Solo se especifica la memoria**: el gobierno de HyperPod tareas calcula la proporción y la aplica a la vCPU, ya que se requiere computación para ejecutar cargas de trabajo especificadas en memoria. Los aceleradores se establecen en 0.

Para controlar mediante programación la asignación de cuotas, puedes usar el [ ComputeQuotaResourceConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ComputeQuotaResourceConfig.html)objeto y especificar tus asignaciones en números enteros.

```
{
    "ComputeQuotaConfig": {
        "ComputeQuotaResources": [{
            "InstanceType": "ml.g5.24xlarge",
            "Accelerators": "16",
            "vCpu": "200.0",
            "MemoryInGiB": "2.0"
        }]
    }
}
```

Para ver todas las asignaciones asignadas, incluidas las predeterminadas, utilice la operación. [ DescribeComputeQuota](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeComputeQuota.html) Para actualizar las asignaciones, utilice la operación. [ UpdateComputeQuota](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_UpdateComputeQuota.html)

También puede usar la HyperPod CLI para asignar cuotas de cómputo. Para obtener más información acerca de la HyperPod CLI, consulte[Ejecución de tareas en SageMaker HyperPod clústeres orquestados por Amazon EKS](sagemaker-hyperpod-eks-run-jobs.md). En el siguiente ejemplo, se muestra cómo establecer las cuotas de cómputo mediante la HyperPod CLI.

```
hyp create hyp-pytorch-job --version 1.1 --job-name sample-job \
--image 123456789012.dkr.ecr.us-west-2.amazonaws.com/ptjob:latest \
--pull-policy "Always" \
--tasks-per-node 1 \
--max-retry 1 \
--priority high-priority \
--namespace hyperpod-ns-team-name \
--queue-name hyperpod-ns-team-name-localqueue \
--instance-type sample-instance-type \
--accelerators 1 \
--vcpu 3 \
--memory 1 \
--accelerators-limit 1 \
--vcpu-limit 4 \
--memory-limit 2
```

Para asignar las cuotas mediante la AWS consola, sigue estos pasos.

1. Abre la consola Amazon SageMaker AI en [https://console.aws.amazon.com/sagemaker/](https://console.aws.amazon.com/sagemaker/).

1. En HyperPod clústeres, selecciona **Gestión de clústeres**.

1. En **Asignaciones de recursos de computación**, elija **Crear**.

1. Si aún no tiene instancias, elija **Agregar asignación** para agregar una instancia.

1. En **Asignaciones**, elija asignar por instancias o por recursos individuales. Si asignas por recursos individuales, la SageMaker IA asigna automáticamente las asignaciones a otros recursos según la proporción que elijas. Para anular esta asignación basada en proporciones, utilice el conmutador correspondiente para anular la computación.

1. Repita los pasos 4 y 5 para configurar instancias adicionales.

Después de asignar la cuota de cómputo, puede enviar los trabajos a través de la HyperPod CLI o`kubectl`. HyperPodprograma las cargas de trabajo de manera eficiente en función de la cuota disponible. 

# Asignación de la cuota de particiones de la GPU
<a name="sagemaker-hyperpod-eks-operate-console-ui-governance-policies-compute-allocation-gpu-partitions"></a>

Puede ampliar la asignación de cuotas de cómputo para admitir la partición de la GPU, lo que permite compartir recursos de forma pormenorizada a nivel de partición de la GPU. Cuando la partición de la GPU está habilitada o es compatible con GPUs el clúster, cada GPU física se puede dividir en varias GPU aisladas GPUs con asignaciones definidas de procesamiento, memoria y multiprocesador de streaming. Para obtener más información sobre la partición de la GPU, consulte. [Uso de particiones de GPU en Amazon SageMaker HyperPod](sagemaker-hyperpod-eks-gpu-partitioning.md) Puede asignar particiones de GPU específicas a los equipos, lo que permite que varios equipos compartan una sola GPU y, al mismo tiempo, mantenga el aislamiento a nivel de hardware y un rendimiento predecible.

Por ejemplo, una instancia ml.p5.48xlarge con 8 H100 se puede particionar en particiones de GPU, y GPUs puedes asignar particiones individuales a diferentes equipos en función de sus requisitos de tareas. Al especificar las asignaciones de particiones de GPU, el gobierno de HyperPod tareas calcula las cuotas proporcionales de vCPU y memoria en función de la partición de GPU, de forma similar a la asignación a nivel de GPU. Este enfoque maximiza el uso de la GPU, ya que elimina la capacidad inactiva y permite compartir recursos de forma rentable entre varias tareas simultáneas en la misma GPU física.

## Creación de cuotas de cómputo
<a name="sagemaker-hyperpod-eks-operate-console-ui-governance-policies-compute-allocation-gpu-partitions-creating"></a>

```
aws sagemaker create-compute-quota \
  --name "fractional-gpu-quota" \
  --compute-quota-config '{
    "ComputeQuotaResources": [
      {
        "InstanceType": "ml.p4d.24xlarge",
        "AcceleratorPartition": {
            "Count": 4,
            "Type": "mig-1g.5gb"
        }
      }
    ],
    "ResourceSharingConfig": { 
      "Strategy": "LendAndBorrow", 
      "BorrowLimit": 100 
    }
  }'
```

## Verificación de los recursos de cuotas
<a name="sagemaker-hyperpod-eks-operate-console-ui-governance-policies-compute-allocation-gpu-partitions-verifying"></a>

```
# Check ClusterQueue
kubectl get clusterqueues
kubectl describe clusterqueue QUEUE_NAME

# Check ResourceFlavors
kubectl get resourceflavor
kubectl describe resourceflavor FLAVOR_NAME
```