

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Ejemplos
<a name="examples"></a>

En los siguientes ejemplos de configuraciones se muestran AWS ParallelCluster las configuraciones que utilizan Slurm, Torquey AWS Batch programadores.

**nota**  
A partir de la versión 2.11.5, AWS ParallelCluster no admite el uso de SGE o Torque planificadores.

**Contents**
+ [Slurm Workload Manager (`slurm`)](#example.slurm)
+ [Son of Grid Engine () `sge` y Torque Resource Manager (`torque`)](#example.torque)
+ [AWS Batch (`awsbatch`)](#example.awsbatch)

## Slurm Workload Manager (`slurm`)
<a name="example.slurm"></a>

El siguiente ejemplo lanza un clúster con el programador `slurm`. La configuración de ejemplo lanza 1 clúster con 2 colas de trabajos. La primera cola, `spot`, inicialmente tiene 2 instancias de spot `t3.micro` disponibles. Puede escalarse verticalmente hasta un máximo de 10 instancias y reducirse verticalmente hasta un mínimo de 1 instancia cuando no se ha ejecutado ningún trabajo durante 10 minutos (se puede ajustar mediante la configuración de [`scaledown_idletime`](scaling-section.md#scaledown-idletime)). La segunda cola, `ondemand`, comienza sin instancias y puede escalarse verticalmente hasta un máximo de 5 instancias `t3.micro` bajo demanda.

```
[global]
update_check = true
sanity_check = true
cluster_template = slurm

[aws]
aws_region_name = <your Región de AWS>

[vpc public]
master_subnet_id = <your subnet>
vpc_id = <your VPC>

[cluster slurm]
key_name = <your EC2 keypair name>
base_os = alinux2                   # optional, defaults to alinux2
scheduler = slurm
master_instance_type = t3.micro     # optional, defaults to t3.micro
vpc_settings = public
queue_settings = spot,ondemand

[queue spot]
compute_resource_settings = spot_i1
compute_type = spot                 # optional, defaults to ondemand

[compute_resource spot_i1]
instance_type = t3.micro
min_count = 1                       # optional, defaults to 0
initial_count = 2                   # optional, defaults to 0

[queue ondemand]
compute_resource_settings = ondemand_i1

[compute_resource ondemand_i1]
instance_type = t3.micro
max_count = 5                       # optional, defaults to 10
```

## Son of Grid Engine () `sge` y Torque Resource Manager (`torque`)
<a name="example.torque"></a>

**nota**  
Este ejemplo solo se aplica a AWS ParallelCluster las versiones anteriores a la 2.11.4 (inclusive). A partir de la versión 2.11.5, AWS ParallelCluster no admite el uso de SGE o Torque planificadores.

El siguiente ejemplo lanza un clúster con el programador `torque` o `sge`. Para utilizar SGE, cambiar `scheduler = torque` a. `scheduler = sge` La configuración de ejemplo le permite tener un máximo de 5 nodos simultáneos y se reduce verticalmente a dos cuando no se ha ejecutado ningún trabajo durante un plazo de 10 minutos.

```
[global]
update_check = true
sanity_check = true
cluster_template = torque

[aws]
aws_region_name = <your Región de AWS>

[vpc public]
master_subnet_id = <your subnet>
vpc_id = <your VPC>

[cluster torque]
key_name = <your EC2 keypair name>but they aren't eligible for future updates
base_os = alinux2                   # optional, defaults to alinux2
scheduler = torque                  # optional, defaults to sge
master_instance_type = t3.micro     # optional, defaults to t3.micro
vpc_settings = public
initial_queue_size = 2              # optional, defaults to 0
maintain_initial_size = true        # optional, defaults to false
max_queue_size = 5                  # optional, defaults to 10
```

**nota**  
A partir de la versión 2.11.5, AWS ParallelCluster no admite el uso de SGE o Torque planificadores. Si usa estas versiones, puede seguir usándolas o bien puede solucionar problemas con el soporte de los equipos de AWS servicio y AWS soporte.

## AWS Batch (`awsbatch`)
<a name="example.awsbatch"></a>

El siguiente ejemplo lanza un clúster con el programador `awsbatch`. Se establece para elegir el tipo de instancia óptimo, en función de las necesidades de sus recursos de trabajo.

La configuración de ejemplo permite un máximo de 40 v CPUs simultáneos y se reduce a cero cuando no se ha ejecutado ningún trabajo durante 10 minutos (se puede ajustar mediante la [`scaledown_idletime`](scaling-section.md#scaledown-idletime) configuración).

```
[global]
update_check = true
sanity_check = true
cluster_template = awsbatch

[aws]
aws_region_name = <your Región de AWS>

[vpc public]
master_subnet_id = <your subnet>
vpc_id = <your VPC>

[cluster awsbatch]
scheduler = awsbatch
compute_instance_type = optimal # optional, defaults to optimal
min_vcpus = 0                   # optional, defaults to 0
desired_vcpus = 0               # optional, defaults to 4
max_vcpus = 40                  # optional, defaults to 20
base_os = alinux2               # optional, defaults to alinux2, controls the base_os of
                                # the head node and the docker image for the compute fleet
key_name = <your EC2 keypair name>
vpc_settings = public
```