

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Passaggio da AWS ParallelCluster 2.x a 3.x
<a name="moving-from-v2-to-v3"></a>

Le sezioni seguenti descrivono cosa succede quando si passa dalla AWS ParallelCluster 2.x alla 3.x, incluse le modifiche da una versione all'altra.

## Azioni Bootstrap personalizzate
<a name="custom_bootstrap_actions"></a>

Con AWS ParallelCluster 3, è possibile specificare diversi script di azioni bootstrap personalizzati per il nodo principale e i nodi di calcolo utilizzando `OnNodeStart` (`pre_install`nella AWS ParallelCluster versione 2) e `OnNodeConfigured` (`post_install`nella AWS ParallelCluster versione 2) i parametri nelle sezioni e/. [`HeadNode`[`Scheduling`[`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues)](Scheduling-v3.md)](HeadNode-v3.md) Per ulteriori informazioni, consulta [Azioni bootstrap personalizzate](custom-bootstrap-actions-v3.md). 

 Gli script di azioni bootstrap personalizzati sviluppati per AWS ParallelCluster 2 devono essere adattati per essere utilizzati in 3: AWS ParallelCluster 
+ Non è consigliabile utilizzare `/etc/parallelcluster/cfnconfig` e `cfn_node_type` distinguere tra nodi principali e nodi di calcolo. Ti consigliamo invece di specificare due script diversi in e/. [`HeadNode`[`Scheduling`[`SlurmQueues`](Scheduling-v3.md#Scheduling-v3-SlurmQueues)](Scheduling-v3.md)](HeadNode-v3.md)
+ Se preferite continuare a caricarlo `/etc/parallelcluster/cfnconfig` per utilizzarlo nello script di azioni bootstrap, tenete presente che il valore di `cfn_node_type` è cambiato da "MasterServer" a "HeadNode" (vedi:[Lingua inclusiva](#inclusive_language)).
+ Su AWS ParallelCluster 2, il primo argomento di input per gli script di azione bootstrap era l'URL S3 dello script ed era riservato. In AWS ParallelCluster 3, solo gli argomenti configurati nella configurazione vengono passati agli script.

**avvertimento**  
L'utilizzo di variabili interne fornite tramite il `/etc/parallelcluster/cfnconfig` file non è ufficialmente supportato. Questo file potrebbe essere rimosso come parte di future release.

## AWS ParallelCluster 2.x e 3.x utilizzano una sintassi diversa del file di configurazione
<a name="pcluster_use_different_config_file_syntax"></a>

 ******** 

AWS ParallelCluster La configurazione 3.x utilizza la sintassi YAML. Il riferimento completo può essere trovato all'indirizzo. [File di configurazione](configuration-v3.md)

Oltre a richiedere un formato di file YAML, nella versione 3.x sono state aggiornate diverse sezioni di configurazione, impostazioni e valori dei parametri. AWS ParallelCluster In questa sezione, annotiamo le principali modifiche alla AWS ParallelCluster configurazione insieme a side-by-side esempi che illustrano queste differenze tra ciascuna versione di. AWS ParallelCluster

**Esempio di configurazione di code di pianificazione multiple con hyperthreading abilitato e disabilitato**

AWS ParallelCluster 2:

```
[cluster default]
queue_settings = ht-enabled, ht-disabled
...

[queue ht-enabled]
compute_resource_settings = ht-enabled-i1
disable_hyperthreading = false

[queue ht-disabled]
compute_resource_settings = ht-disabled-i1
disable_hyperthreading = true

[compute_resource ht-enabled-i1]
instance_type = c5n.18xlarge
[compute_resource ht-disabled-i1]
instance_type = c5.xlarge
```

AWS ParallelCluster 3:

```
...
Scheduling:
  Scheduler: slurm
  SlurmQueues:
    - Name: ht-enabled
      Networking:
        SubnetIds:
          - compute_subnet_id
      ComputeResources:
        - Name: ht-enabled-i1
          DisableSimultaneousMultithreading: true
          InstanceType: c5n.18xlarge     
    - Name: ht-disabled
      Networking:
        SubnetIds:
          - compute_subnet_id
      ComputeResources:
        - Name: ht-disabled-i1
          DisableSimultaneousMultithreading: false
          InstanceType: c5.xlarge
```

**Esempio di novità FSx per la configurazione del file system Lustre**

AWS ParallelCluster 2:

```
[cluster default]
fsx_settings = fsx
...

[fsx fsx]
shared_dir = /shared-fsx
storage_capacity = 1200
imported_file_chunk_size = 1024
import_path = s3://amzn-s3-demo-bucket
export_path = s3://amzn-s3-demo-bucket/export_dir
weekly_maintenance_start_time = 3:02:30
deployment_type = PERSISTENT_1
data_compression_type = LZ4
```

AWS ParallelCluster 3:

```
...
SharedStorage:
  - Name: fsx
    MountDir: /shared-fsx
    StorageType: FsxLustre
    FsxLustreSettings:
      StorageCapacity: 1200
      ImportedFileChunkSize: 1024
      ImportPath: s3://amzn-s3-demo-bucket
      ExportPath: s3://amzn-s3-demo-bucket/export_dir
      WeeklyMaintenanceStartTime: "3:02:30"
      DeploymentType: PERSISTENT_1
      DataCompressionType: LZ4
```

**Esempio di configurazione di cluster che monta un file system esistente FSx per Lustre**

AWS ParallelCluster 2:

```
[cluster default]
fsx_settings = fsx
...

[fsx fsx]
shared_dir = /shared-fsx
fsx_fs_id = fsx_fs_id
```

AWS ParallelCluster 3:

```
...
SharedStorage:
  - Name: fsx
    MountDir: /shared-fsx
    StorageType: FsxLustre
    FsxLustreSettings:
      FileSystemId: fsx_fs_id
```

 **Esempio di cluster con lo stack software Intel HPC Platform Specification** 

AWS ParallelCluster 2:

```
[cluster default]
enable_intel_hpc_platform = true
...
```

AWS ParallelCluster 3:

```
...
AdditionalPackages:
  IntelSoftware:
    IntelHpcPlatform: true
```

Note: 
+  L'installazione del software Intel HPC Platform Specification è soggetta ai termini e alle condizioni del [Contratto di licenza per l'utente finale Intel](https://software.intel.com/en-us/articles/end-user-license-agreement) applicabile.

 **Esempi di configurazioni IAM personalizzate, tra cui: profilo dell'istanza, ruolo dell'istanza, politiche aggiuntive per le istanze e il ruolo per le funzioni lambda associate al cluster** 

AWS ParallelCluster 2: 

```
[cluster default]
additional_iam_policies = arn:aws:iam::aws:policy/AmazonS3ReadOnlyAccess,arn:aws:iam::aws:policy/AmazonDynamoDBReadOnlyAccess
ec2_iam_role = ec2_iam_role
iam_lambda_role = lambda_iam_role
...
```

AWS ParallelCluster 3: 

```
...
Iam:
  Roles:
    CustomLambdaResources: lambda_iam_role
HeadNode:
  ...
  Iam:
    InstanceRole: ec2_iam_role
Scheduling:
  Scheduler: slurm
  SlurmQueues:
    - Name: queue1
      ...
      Iam:
        InstanceProfile: iam_instance_profile
    - Name: queue2
      ...
      Iam:
        AdditionalIamPolicies:
          - Policy: arn:aws:iam::aws:policy/AmazonS3ReadOnlyAccess
          - Policy: arn:aws:iam::aws:policy/AmazonDynamoDBReadOnlyAccess
```

Note: 
+ Per AWS ParallelCluster 2, le impostazioni IAM vengono applicate a tutte le istanze di un cluster e non `additional_iam_policies` possono essere utilizzate insieme a. `ec2_iam_role`
+ Per AWS ParallelCluster 3, puoi avere impostazioni IAM diverse per i nodi principali e di calcolo e persino specificare impostazioni IAM diverse per ogni coda di calcolo.
+ Per AWS ParallelCluster 3, puoi utilizzare un profilo di istanza IAM come alternativa a un ruolo IAM. `InstanceProfile``InstanceRole`o non `AdditionalIamPolicies` possono essere configurati insieme.

**Esempio di azioni bootstrap personalizzate**

AWS ParallelCluster 2:

```
[cluster default]
s3_read_resource = arn:aws:s3:::amzn-s3-demo-bucket/*
pre_install = s3://amzn-s3-demo-bucket/scripts/pre_install.sh
pre_install_args = 'R curl wget'
post_install = s3://amzn-s3-demo-bucket/scripts/post_install.sh
post_install_args = "R curl wget"
...
```

AWS ParallelCluster 3: 

```
...
HeadNode:
  ...
  CustomActions:
    OnNodeStart:
      Script: s3://amzn-s3-demo-bucket/scripts/pre_install.sh
      Args:
        - R
        - curl
        - wget
    OnNodeConfigured:
      Script: s3://amzn-s3-demo-bucket/scripts/post_install.sh
      Args: ['R', 'curl', 'wget']
  Iam:
    S3Access:
      - BucketName: amzn-s3-demo-bucket
Scheduling:
  Scheduler: slurm
  SlurmQueues:
    - Name: queue1
      ...
      CustomActions:
        OnNodeStart:
          Script: s3://amzn-s3-demo-bucket/scripts/pre_install.sh
          Args: ['R', 'curl', 'wget']
        OnNodeConfigured:
          Script: s3://amzn-s3-demo-bucket/scripts/post_install.sh
          Args: ['R', 'curl', 'wget']
      Iam:
        S3Access:
          - BucketName: amzn-s3-demo-bucket
```

 **Esempio di cluster con accesso in lettura e scrittura alle risorse del bucket S3** 

AWS ParallelCluster 2: 

```
[cluster default]
s3_read_resource = arn:aws:s3:::amzn-s3-demo-bucket/read_only/*
s3_read_write_resource = arn:aws:s3:::amzn-s3-demo-bucket/read_and_write/*
...
```

AWS ParallelCluster 3: 

```
...
HeadNode:
  ...
  Iam:
    S3Access:
      - BucketName: amzn-s3-demo-bucket
        KeyName: read_only/
        EnableWriteAccess: False
      - BucketName: amzn-s3-demo-bucket
        KeyName: read_and_write/
        EnableWriteAccess: True
Scheduling:
  Scheduler: slurm
  SlurmQueues:
    - Name: queue1
      ...
      Iam:
        S3Access:
          - BucketName: amzn-s3-demo-bucket
            KeyName: read_only/
            EnableWriteAccess: False
          - BucketName: amzn-s3-demo-bucket
            KeyName: read_and_write/
            EnableWriteAccess: True
```

## Lingua inclusiva
<a name="inclusive_language"></a>

AWS ParallelCluster 3 usa le parole «head node» nei punti in cui «master» è stato usato in AWS ParallelCluster 2. Questo include gli output seguenti: 
+ Variabile esportata nell'ambiente di AWS Batch lavoro modificata: da `MASTER_IP` a`PCLUSTER_HEAD_NODE_IP`.
+ Tutti gli CloudFormation output sono cambiati da a`Master*`. `HeadNode*`
+ Tutti NodeType i tag sono cambiati da `Master` a. `HeadNode`

## Supporto Scheduler
<a name="scheduler_support"></a>

AWS ParallelCluster 3.x non supporta gli scheduler Son of Grid Engine (SGE) e Torque.

I AWS Batch comandi`awsbhosts`,`awsbkill`,`awsbout`, `awsbqueues``awsbstat`, e `awsbsub` sono distribuiti come pacchetto `aws-parallelcluster-awsbatch-cli` PyPI separato. Questo pacchetto viene installato dal AWS ParallelCluster nodo principale. È ancora possibile utilizzare questi AWS Batch comandi dal nodo principale del cluster. Tuttavia, se desideri utilizzare AWS Batch i comandi da una posizione diversa dal nodo principale, devi prima installare il pacchetto `aws-parallelcluster-awsbatch-cli` PyPI.

## AWS ParallelCluster CLI
<a name="parallelcluster_cli"></a>

L'interfaccia AWS ParallelCluster a riga di comando (CLI) è stata modificata. La nuova sintassi è descritta in. [AWS ParallelCluster Comandi CLI](commands-v3.md) Il formato di output per la CLI è una stringa [JSON](https://json.org/).

 **Configurazione di un nuovo cluster** 

Il `pcluster configure` comando include parametri diversi in AWS ParallelCluster 3 rispetto a AWS ParallelCluster 2. Per ulteriori informazioni, consulta [`pcluster configure`](pcluster.configure-v3.md).

Si noti inoltre che la sintassi del file di configurazione è cambiata rispetto a AWS ParallelCluster 2. Per un riferimento completo delle impostazioni di configurazione del cluster, vedere[File di configurazione del cluster](cluster-configuration-file-v3.md).

 **Creazione di un nuovo cluster** 

AWS ParallelCluster Il `pcluster create` comando di 2 è stato sostituito dal [`pcluster create-cluster`](pcluster.create-cluster-v3.md)comando. 

Nota che il comportamento predefinito in AWS ParallelCluster 2.x, senza l'`-nw`opzione, è quello di attendere gli eventi di creazione del cluster, mentre il comando AWS ParallelCluster 3.x ritorna immediatamente. L'avanzamento della creazione del cluster può essere monitorato utilizzando. [`pcluster describe-cluster`](pcluster.describe-cluster-v3.md)

Un file di configurazione a AWS ParallelCluster 3 dimensioni contiene una singola definizione di cluster, quindi il `-t` parametro non è più necessario.

Di seguito è riportato un esempio di file di configurazione.

```
# AWS ParallelCluster v2
$ pcluster create \
    -r REGION \
    -c V2_CONFIG_FILE \
    -nw \
    -t CLUSTER_TEMPLATE \
    CLUSTER_NAME

# AWS ParallelCluster v3
$ pcluster create-cluster \
    --region REGION \
    --cluster-configuration V3_CONFIG_FILE \
    --cluster-name CLUSTER_NAME
```

 **Elenco dei cluster** 

Il comando `pcluster list` AWS ParallelCluster 2.x deve essere sostituito con [`pcluster list-clusters`](pcluster.list-clusters-v3.md)command. 

 Nota: è necessaria la CLI AWS ParallelCluster v2 per elencare i cluster creati con le versioni 2.x di. AWS ParallelCluster Scopri [Installazione AWS ParallelCluster in un ambiente virtuale (scelta consigliata)](install-v3-virtual-environment.md) come installare più versioni di Using Virtual Environments. AWS ParallelCluster 

```
# AWS ParallelCluster v2
$ pcluster list -r REGION

# AWS ParallelCluster v3
$ pcluster list-clusters --region REGION
```

 **Avvio e arresto di un cluster** 

I comandi `pcluster start` e `pcluster stop` AWS ParallelCluster 2.x devono essere sostituiti con [`pcluster update-compute-fleet`](pcluster.update-compute-fleet-v3.md)comandi. 

 Avvio di una flotta di elaborazione: 

```
# AWS ParallelCluster v2
$ pcluster start \
    -r REGION \
    CLUSTER_NAME

# AWS ParallelCluster v3 - Slurm fleets
$ pcluster update-compute-fleet \
    --region REGION \
    --cluster-name CLUSTER_NAME \
    --status START_REQUESTED

# AWS ParallelCluster v3 - AWS Batch fleets
$ pcluster update-compute-fleet \
    --region REGION \
    --cluster-name CLUSTER_NAME \
    --status ENABLED
```

 Arresto di una flotta di elaborazione: 

```
# AWS ParallelCluster v2
$ pcluster stop \
    -r REGION \
    CLUSTER_NAME

# AWS ParallelCluster v3 - Slurm fleets
$ pcluster update-compute-fleet \
    --region REGION \
    --cluster-name CLUSTER_NAME \
    --status STOP_REQUESTED

# AWS ParallelCluster v3 - AWS Batch fleets
$ pcluster update-compute-fleet \
    --region REGION \
    --cluster-name CLUSTER_NAME \
    --status DISABLED
```

 **Connessione a un cluster** 

Il comando `pcluster ssh` AWS ParallelCluster 2.x ha nomi di parametri diversi in AWS ParallelCluster 3.x. Consultare [`pcluster ssh`](pcluster.ssh-v3.md).

Connessione a un cluster: 

```
# AWS ParallelCluster v2
$ pcluster ssh \
    -r REGION \
    CLUSTER_NAME \
    -i ~/.ssh/id_rsa

# AWS ParallelCluster v3
$ pcluster ssh \
    --region REGION \
    --cluster-name CLUSTER_NAME \
    -i ~/.ssh/id_rsa
```

## Aggiornamento della configurazione IMDS
<a name="imds-update"></a>

A partire dalla versione 3.0.0, AWS ParallelCluster ha introdotto il supporto per limitare l'accesso all'IMDS del nodo principale (e alle credenziali del profilo di istanza) a un sottoinsieme di superutenti, per impostazione predefinita. Per ulteriori informazioni, consulta [Proprietà `Imds`](HeadNode-v3.md#HeadNode-v3-Imds.properties).