

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Etapa 2: fazer upload do código do aplicativo em um bucket do Amazon S3
<a name="other-services-cp-chef11-s3"></a>

**Importante**  
O AWS OpsWorks Stacks serviço chegou ao fim da vida útil em 26 de maio de 2024 e foi desativado para clientes novos e existentes. É altamente recomendável que os clientes migrem suas cargas de trabalho para outras soluções o mais rápido possível. Se você tiver dúvidas sobre migração, entre em contato com a AWS Support equipe no [AWS re:POST](https://repost.aws/) ou por meio do Premium [AWS Support](https://aws.amazon.com/support).

Como você deve fornecer um link para o repositório de código como parte da configuração do pipeline, tenha o código do repositório a mão antes de criar o pipeline. Nesta demonstração, você faz upload de um aplicativo PHP em um bucket do Amazon S3.

Embora CodePipeline possa usar código diretamente de GitHub ou CodeCommit como fontes, este passo a passo demonstra como usar um bucket do Amazon S3. O bucket do Amazon S3 permite CodePipeline detectar alterações no código do aplicativo e implantar o aplicativo alterado automaticamente. Se desejar, use um bucket existente. Certifique-se de que o bucket atenda aos CodePipeline critérios descritos em [Simple Pipeline Walkthrough (Amazon S3 Bucket](https://docs.aws.amazon.com/codepipeline/latest/userguide/getting-started-w.html)) na documentação. CodePipeline 

**Importante**  
O bucket do Amazon S3 deve estar na mesma região em que você criará o pipeline posteriormente. No momento, CodePipeline oferece suporte ao provedor OpsWorks Stacks somente na região Leste dos EUA (Norte da Virgínia) (us-east-1). Todos os recursos desta demonstração devem ser criados na região Leste dos EUA (N. da Virgínia). O bucket também deve ser versionado porque CodePipeline requer uma fonte versionada. Para obter mais informações, consulte [Usar versionamento](https://docs.aws.amazon.com/AmazonS3/latest/dev/Versioning.html).

**Para carregar seu aplicativo para o bucket do Amazon S3**

1. No [GitHub site](https://github.com/awslabs/opsworks-demo-php-simple-app/archive/version1.zip), baixe um arquivo ZIP do aplicativo PHP de amostra OpsWorks Stacks e salve-o em um local conveniente em seu computador local.

1. Certifique-se de que `index.php` e a pasta `ASSETS` estão no nível raiz do arquivo ZIP baixado. Se não estiverem, dezipe o arquivo e crie um novo arquivo ZIP que tenha esses arquivos no nível raiz.

1. Abra o console do Amazon S3 em [https://console.aws.amazon.com/s3/](https://console.aws.amazon.com/s3/).

1. Escolha **Criar bucket**.

1. Na página **Create a Bucket - Select a Bucket Name and Region**, digite um nome exclusivo para o seu bucket em **Bucket Name**. Os nomes dos buckets devem ser exclusivos em todas as AWS contas, não apenas na sua própria conta. Esta demonstração usa o nome **my-appbucket**, mas é possível usar `my-appbucket-yearmonthday` para fazer com que o nome do bucket seja exclusivo. Na lista suspensa **Region**, escolha a opção **US Standard** e, em seguida, **Create**. **US Standard** equivale a `us-east-1`.  
![\[Página Criar bucket do S3.\]](http://docs.aws.amazon.com/pt_br/opsworks/latest/userguide/images/cp_integ_s3bucket.png)

1. Na lista **All Buckets**, selecione o bucket que você criou.

1. Na página do bucket, escolha **Upload (Carregar)**.

1. Na página **Upload - Select Files and Folders**, selecione **Add files**. Procure o arquivo ZIP salvo na etapa 1, clique em **Open** e, em seguida, **Start Upload**.  
![\[Caixa de diálogo Select Files and Folders do S3\]](http://docs.aws.amazon.com/pt_br/opsworks/latest/userguide/images/cp_integ_uploadzip.png)

1. Após a conclusão do upload, selecione o arquivo ZIP na lista de arquivos do bucket e escolha a opção **Properties**.

1. No painel **Properties**, copie o link para o arquivo ZIP e anote o link. Você precisará da parte do nome do bucket e do nome do arquivo ZIP deste link para criar o pipeline.