

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# IA generativa em ambientes de SageMaker notebook
<a name="jupyterai"></a>

O [Jupyter AI](https://github.com/jupyterlab/jupyter-ai) é uma extensão de código aberto de JupyterLab integração de recursos generativos de IA nos notebooks Jupyter. Por meio da interface de chat do Jupyter AI e dos comandos mágicos, os usuários interagem com o código gerado a partir de instruções em linguagem natural, explicam o código existente, fazem perguntas sobre seus arquivos locais, geram cadernos inteiros e muito mais. A extensão conecta os notebooks Jupyter a grandes modelos de linguagem (LLMs) que os usuários podem usar para gerar texto, código ou imagens e fazer perguntas sobre seus próprios dados. O Jupyter AI oferece suporte a fornecedores de modelos generativos AI21, como Anthropic ( AWS e JumpStart Amazon Bedrock), Cohere e OpenAI.

Você também pode usar o Amazon Q Developer como uma solução pronta para uso. Em vez de ter que configurar manualmente uma conexão com um modelo, você pode começar a usar o Amazon Q Developer com uma configuração simplificada. Quando você ativa o Amazon Q Developer, ele se torna o fornecedor de soluções padrão dentro do Jupyter AI. Para obter mais informações sobre como usar o Amazon Q Developer, consulte [SageMaker JupyterLab](studio-updated-jl.md).

O pacote da extensão está incluído na [versão 1.2 e posteriores](https://github.com/aws/sagemaker-distribution/tree/main/build_artifacts/v1) da [Amazon SageMaker Distribution](https://github.com/aws/sagemaker-distribution). O Amazon SageMaker Distribution é um ambiente Docker para ciência de dados e computação científica usado como imagem padrão de instâncias de JupyterLab notebooks. Usuários de diferentes IPython ambientes podem instalar o Jupyter AI manualmente.

Nesta seção, fornecemos uma visão geral dos recursos do Jupyter AI e demonstramos como configurar modelos fornecidos pelo JumpStart Amazon Bedrock [JupyterLab](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated-jl.html)ou pelos notebooks [Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio.html) Classic. Para obter informações mais detalhadas sobre o projeto Jupyter AI, consulte sua [documentação](https://jupyter-ai.readthedocs.io/en/latest/). Como alternativa, você pode consultar a publicação no blog *[Generative AI in Jupyter](https://blog.jupyter.org/generative-ai-in-jupyter-3f7174824862)* para obter uma visão geral e exemplos dos principais recursos do Jupyter AI.

Antes de usar o Jupyter AI e interagir com você LLMs, certifique-se de atender aos seguintes pré-requisitos:
+ Para modelos hospedados por AWS, você deve ter o ARN do seu endpoint de SageMaker IA ou ter acesso ao Amazon Bedrock. Para outros fornecedores de modelos, você deve ter a chave de API usada para autenticar e autorizar solicitações para seu modelo. O Jupyter AI oferece apoio a uma ampla variedade de fornecedores de modelos e modelos de linguagem. Consulte a lista de [modelos compatíveis](https://jupyter-ai.readthedocs.io/en/latest/users/index.html#model-providers) para se manter atualizado sobre os modelos mais recentes disponíveis. Para obter informações sobre como implantar um modelo em JumpStart, consulte [Implantar um modelo](https://docs.aws.amazon.com/sagemaker/latest/dg/jumpstart-deploy.html) na JumpStart documentação. Você precisa solicitar acesso ao [Amazon Bedrock](https://aws.amazon.com/bedrock/) para usá-lo como seu fornecedor de modelos.
+ Certifique-se de que as bibliotecas de IA do Jupyter estejam presentes em seu ambiente. Caso contrário, instale o pacote necessário seguindo as instruções em [Instalação do Jupyter AI](sagemaker-jupyterai-installation.md).
+ Familiarize-se com os recursos do Jupyter AI em [Acesse os atributos do Jupyter AI](sagemaker-jupyterai-overview.md).
+ Configure os modelos de destino que você deseja usar seguindo as instruções em [Configure seu fornecedor de modelo](sagemaker-jupyterai-model-configuration.md).

Depois de concluir as etapas de pré-requisito, vá para [Use o Jupyter AI em nosso Studio JupyterLab Classic](sagemaker-jupyterai-use.md).

**Topics**
+ [Instalação do Jupyter AI](sagemaker-jupyterai-installation.md)
+ [Acesse os atributos do Jupyter AI](sagemaker-jupyterai-overview.md)
+ [Configure seu fornecedor de modelo](sagemaker-jupyterai-model-configuration.md)
+ [Use o Jupyter AI em nosso Studio JupyterLab Classic](sagemaker-jupyterai-use.md)

# Instalação do Jupyter AI
<a name="sagemaker-jupyterai-installation"></a>

Para usar o Jupyter AI, você deve instalar o pacote Jupyter AI. Para usuários do [Amazon SageMaker AI Distribution](https://github.com/aws/sagemaker-distribution/tree/main/build_artifacts/v1), recomendamos selecionar a imagem SageMaker de distribuição versão 1.2 ou posterior. Nenhuma outra instalação é necessária. Os usuários do JupyterLab in Studio podem escolher a versão de sua SageMaker distribuição na Amazon ao criar um espaço.

Para usuários de outros IPython ambientes, a versão do pacote Jupyter AI recomendado depende da versão JupyterLab que eles estão usando.

A distribuição do Jupyter AI consiste em dois pacotes.
+ `jupyter_ai`: Este pacote fornece uma JupyterLab extensão e uma interface de usuário (UI) nativa de bate-papo. Ele atua como um assistente de conversação usando o grande modelo de linguagem de sua escolha.
+ `jupyter_ai_magics`: Este pacote fornece os comandos IPython `%%ai` `%ai` mágicos com os quais você pode invocar um modelo de linguagem grande (LLM) a partir das células do seu notebook.

**nota**  
A instalação do `jupyter_ai` também instala o `jupyter_ai_magics`. No entanto, você pode instalar de `jupyter_ai_magics` forma independente sem JupyterLab ou`jupyter_ai`. Os comandos `%%ai` mágicos `%ai` funcionam em qualquer ambiente de IPython kernel. Se você só instalar o `jupyter_ai_magics`, não poderá usar a interface de usuário de chat.

Para usuários de JupyterLab 3, em particular usuários do Studio Classic, recomendamos instalar a `jupyter-ai` [versão 1.5.x](https://pypi.org/project/jupyter-ai/#history) ou qualquer versão 1.x posterior. No entanto, é altamente recomendável usar o Jupyter AI com JupyterLab 4. A `jupyter-ai` versão compatível com JupyterLab 3 pode não permitir que os usuários definam parâmetros adicionais do modelo, como temperatura, amostragem top-k e top-p, tokens ou comprimento máximo ou contratos de licença de aceitação do usuário.

Para usuários de JupyterLab 4 ambientes que não usam SageMaker Distribuição, recomendamos instalar a `jupyter-ai` [versão 2.5.x](https://pypi.org/project/jupyter-ai/#history) ou qualquer versão 2.x posterior.

Consulte as instruções de instalação na seção de *Instalação* da [documentação do Jupyter AI](https://jupyter-ai.readthedocs.io/en/latest/users/index.html#installation-via-pip).

# Acesse os atributos do Jupyter AI
<a name="sagemaker-jupyterai-overview"></a>

Você pode acessar os recursos do Jupyter AI de duas maneiras distintas: usando a interface de usuário de chat ou usando comandos mágicos dentro dos cadernos.

## A partir da interface de usuário de chat do assistente de IA
<a name="sagemaker-jupyterai-overview-chatui"></a>

A interface de chat conecta você ao Jupyternaut, um agente conversacional que usa o modelo de linguagem de sua escolha. 

Depois de iniciar um JupyterLab aplicativo instalado com o Jupyter AI, você pode acessar a interface de bate-papo escolhendo o ícone de bate-papo (![\[Icon of a rectangular shape with a curved arrow pointing to the upper right corner.\]](http://docs.aws.amazon.com/pt_br/sagemaker/latest/dg/images/studio/icons/jupyterai/jupyterai-chat-ui.png)) no painel de navegação esquerdo. Novos usuários são solicitados a configurar seu modelo. Para obter as instruções de configuração, consulte [Configure seu fornecedor de modelo na interface de usuário de chat](sagemaker-jupyterai-model-configuration.md#sagemaker-jupyterai-model-configuration-chatui).

**Com a interface de usuário de chat, você pode:**
+ **Responder perguntas**: por exemplo, você pode pedir ao Jupyternaut para criar uma função Python que adicione arquivos CSV a um bucket do Amazon S3. Posteriormente, você pode refinar sua resposta com uma pergunta complementar, como adicionar um parâmetro à função para escolher o caminho em que os arquivos são gravados. 
+ **Interaja com arquivos em JupyterLab**: Você pode incluir uma parte do seu caderno em seu prompt selecionando-a. Em seguida, você pode substituí-la pela resposta sugerida pelo modelo ou copiar manualmente a resposta para a área de transferência.
+ **Gerar cadernos inteiros** a partir de prompts: ao iniciar o prompt com `/generate`, você aciona um processo de geração de caderno em segundo plano sem interromper o uso do Jupyternaut. Uma mensagem contendo o link para o novo arquivo é exibida após a conclusão do processo.
+ **Aprender e fazer perguntas sobre arquivos locais**: usando o comando `/learn`, você pode ensinar um modelo de incorporação de sua escolha sobre arquivos locais e, em seguida, fazer perguntas sobre esses arquivos usando o comando `/ask`. O Jupyter AI armazena o conteúdo incorporado em um [banco de dados de vetores FAISS](https://github.com/facebookresearch/faiss) local e, em seguida, usa a geração aumentada via recuperação (RAG) para fornecer respostas com base no que aprendeu. Para apagar todas as informações aprendidas anteriormente do seu modelo de incorporação, use `/learn -d`.

**nota**  
O Amazon Q Developer não tem a capacidade de gerar cadernos do zero.

Para obter uma lista completa dos atributos e instruções detalhadas sobre seu uso, consulte a documentação da [interface de chat do Jupyter AI](https://jupyter-ai.readthedocs.io/en/latest/users/index.html#the-chat-interface). Para saber como configurar o acesso a um modelo no Jupyternaut, consulte [Configure seu fornecedor de modelo na interface de usuário de chat](sagemaker-jupyterai-model-configuration.md#sagemaker-jupyterai-model-configuration-chatui).

## A partir de células do caderno
<a name="sagemaker-jupyterai-overview-magic-commands"></a>

Usando comandos `%%ai` `%ai` mágicos, você pode interagir com o modelo de linguagem de sua escolha a partir das células do notebook ou de qualquer interface de linha de IPython comando. O comando `%%ai` aplica suas instruções à célula inteira, enquanto o `%ai` aplica à linha específica.

O exemplo a seguir ilustra um comando mágico `%%ai` que invoca um modelo Anthropic Claude para gerar um arquivo HTML contendo a imagem de um quadrado branco com bordas pretas.

```
%%ai anthropic:claude-v1.2 -f html
Create a square using SVG with a black border and white fill.
```

Para saber mais sobre a sintaxe de cada comando, use `%ai help`. Para listar os fornecedores e modelos compatíveis com a extensão, execute `%ai list`.

Para obter uma lista completa de atributos e instruções detalhadas sobre seu uso, consulte a documentação dos [comandos mágicos](https://jupyter-ai.readthedocs.io/en/latest/users/index.html#the-ai-and-ai-magic-commands) do Jupyter AI. Em particular, você pode personalizar o formato de saída do seu modelo usando o parâmetro `-f` ou `--format`, permitir a interpolação de variáveis em prompts, incluindo as variáveis especiais `In` e `Out`, e muito mais.

Para saber como configurar o acesso a um modelo, consulte [Configure seu fornecedor de modelos em um caderno](sagemaker-jupyterai-model-configuration.md#sagemaker-jupyterai-model-configuration-magic-commands). 

# Configure seu fornecedor de modelo
<a name="sagemaker-jupyterai-model-configuration"></a>

**nota**  
Nesta seção, presumimos que a linguagem e os modelos de incorporação que você planeja usar já estejam implantados. Para modelos fornecidos pela AWS, você já deve ter o ARN do seu endpoint de SageMaker IA ou acesso ao Amazon Bedrock. Para outros fornecedores de modelos, você deve ter a chave de API usada para autenticar e autorizar solicitações para seu modelo.  
O Jupyter AI oferece apoio a uma ampla variedade de fornecedores de modelos e modelos de linguagem. Consulte a lista de [modelos compatíveis](https://jupyter-ai.readthedocs.io/en/latest/users/index.html#model-providers) para se manter atualizado sobre os modelos mais recentes disponíveis. Para obter informações sobre como implantar um modelo fornecido pela JumpStart, consulte [Implantar um modelo](https://docs.aws.amazon.com/sagemaker/latest/dg/jumpstart-deploy.html) na JumpStart documentação. Você precisa solicitar acesso ao [Amazon Bedrock](https://aws.amazon.com/bedrock/) para usá-lo como seu fornecedor de modelos.

A configuração do Jupyter AI varia dependendo se você está usando a interface de usuário de chat ou comandos mágicos.

## Configure seu fornecedor de modelo na interface de usuário de chat
<a name="sagemaker-jupyterai-model-configuration-chatui"></a>

**nota**  
Você pode configurar vários modelos LLMs e incorporá-los seguindo as mesmas instruções. No entanto, você deve configurar pelo menos um **modelo de linguagem**.

**Para configurar sua interface de usuário de chat**

1. Em JupyterLab, acesse a interface de bate-papo escolhendo o ícone de bate-papo (![\[Icon of a rectangular shape with a curved arrow pointing to the upper right corner.\]](http://docs.aws.amazon.com/pt_br/sagemaker/latest/dg/images/studio/icons/jupyterai/jupyterai-chat-ui.png)) no painel de navegação esquerdo.

1. Selecione o ícone de configuração (![\[Gear or cog icon representing settings or configuration options.\]](http://docs.aws.amazon.com/pt_br/sagemaker/latest/dg/images/studio/icons/jupyterai/jupyterai-configure-models.png)) no canto superior direito do painel esquerdo. Isso abrirá o painel de configuração do Jupyter AI.

1. Preencha os campos relacionados ao seu fornecedor de serviços.
   + **Para modelos fornecidos pela JumpStart Amazon Bedrock**
     + Na lista suspensa do **modelo de linguagem**, selecione modelos implantados com JumpStart ou `sagemaker-endpoint` `bedrock` para modelos gerenciados pelo Amazon Bedrock.
     + Os parâmetros diferem com base no fato de seu modelo ser implantado no SageMaker AI ou no Amazon Bedrock.
       + Para modelos implantados com JumpStart:
         + [**Insira o nome do seu endpoint em Nome do **endpoint e, em seguida, o nome** Região da AWS no qual seu modelo está implantado em Nome da região.**](sagemaker-jupyterai-use.md#sagemaker-jupyterai-region-name) Para recuperar o ARN dos endpoints de SageMaker IA, navegue [https://console.aws.amazon.com/sagemaker/](https://console.aws.amazon.com/sagemaker/) até e **escolha** Inferência **e** endpoints no menu à esquerda.
         + Cole o JSON do [**Esquema de solicitação**](sagemaker-jupyterai-use.md#sagemaker-jupyterai-request-schema) personalizado para seu modelo e o [**Caminho de resposta**](sagemaker-jupyterai-use.md#sagemaker-jupyterai-response-path) correspondente para analisar a saída do modelo.
**nota**  
Você pode encontrar o formato de solicitação e resposta de vários modelos de JumpStart fundação nos seguintes [exemplos de cadernos](https://github.com/aws/amazon-sagemaker-examples/tree/main/introduction_to_amazon_algorithms/jumpstart-foundation-models). Cada caderno tem o nome do modelo que ele demonstra.
       + [**Para modelos gerenciados pelo Amazon Bedrock: adicione o AWS perfil que armazena suas AWS credenciais em seu sistema (opcional) e, em seguida, o perfil Região da AWS no qual seu modelo está implantado no nome da região.**](sagemaker-jupyterai-use.md#sagemaker-jupyterai-region-name)
     + (Opcional) Selecione um [modelo de incorporação](sagemaker-jupyterai-overview.md#sagemaker-jupyterai-embedding-model) ao qual você tenha acesso. Os modelos de incorporação são usados para capturar informações adicionais de documentos locais, permitindo que o modelo de geração de texto responda às perguntas dentro do contexto desses documentos.
     + Selecione **Salvar alterações** e navegue até o ícone de seta para a esquerda (![\[Left-pointing arrow icon, typically used for navigation or returning to a previous page.\]](http://docs.aws.amazon.com/pt_br/sagemaker/latest/dg/images/studio/icons/jupyterai/jupyterai-return-to-chat.png)) no canto superior esquerdo do painel esquerdo. Isso abrirá a interface de usuário de chat do Jupyter AI. Você pode começar a interagir com seu modelo.
   + **Para modelos hospedados por fornecedores terceirizados**
     + Na lista suspensa do **modelo de idioma**, selecione seu ID de fornecedor. Você pode encontrar os detalhes de cada fornecedor, incluindo seu ID, na [lista de fornecedores de modelos](https://jupyter-ai.readthedocs.io/en/latest/users/index.html#model-providers) do Jupyter AI.
     + (Opcional) Selecione um [modelo de incorporação](sagemaker-jupyterai-overview.md#sagemaker-jupyterai-embedding-model) ao qual você tenha acesso. Os modelos de incorporação são usados para capturar informações adicionais de documentos locais, permitindo que o modelo de geração de texto responda às perguntas dentro do contexto desses documentos.
     + Insira as chaves de API dos seus modelos.
     + Selecione **Salvar alterações** e navegue até o ícone de seta para a esquerda (![\[Left-pointing arrow icon, typically used for navigation or returning to a previous page.\]](http://docs.aws.amazon.com/pt_br/sagemaker/latest/dg/images/studio/icons/jupyterai/jupyterai-return-to-chat.png)) no canto superior esquerdo do painel esquerdo. Isso abrirá a interface de usuário de chat do Jupyter AI. Você pode começar a interagir com seu modelo.

O instantâneo a seguir é uma ilustração do painel de configuração da interface do usuário do chat definido para invocar um modelo FLAN-T5-small fornecido e implantado na IA. JumpStart SageMaker 

![\[Painel de configuração da interface do usuário do Chat configurado para invocar um modelo FLAN-T5-small fornecido por. JumpStart\]](http://docs.aws.amazon.com/pt_br/sagemaker/latest/dg/images/studio/jupyterai/jupyterai-chatui-configuration.png)


### Passe parâmetros extras do modelo e parâmetros personalizados para sua solicitação
<a name="sagemaker-jupyterai-configuration-model-parameters"></a>

Seu modelo pode precisar de parâmetros extras, como um atributo personalizado para aprovação do contrato do usuário ou ajustes em outros parâmetros do modelo, como temperatura ou duração da resposta. Recomendamos definir essas configurações como uma opção de inicialização do seu JupyterLab aplicativo usando uma configuração de ciclo de vida. Para obter informações sobre como criar uma configuração de ciclo de vida e anexá-la ao seu domínio ou a um perfil de usuário do [console de SageMaker IA](https://console.aws.amazon.com/sagemaker/), consulte [Criar e associar uma configuração de ciclo de vida](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-lcc.html). Você pode escolher seu script de LCC ao criar um espaço para seu JupyterLab aplicativo.

Use o seguinte esquema JSON para configurar seus [parâmetros extras](sagemaker-jupyterai-use.md#sagemaker-jupyterai-extra-model-params):

```
{
  "AiExtension": {
    "model_parameters": {
      "<provider_id>:<model_id>": { Dictionary of model parameters which is unpacked and passed as-is to the provider.}
      }
    }
  }
}
```

O script a seguir é um exemplo de um arquivo de configuração JSON que você pode usar ao criar uma LCC de JupyterLab aplicativo para definir o tamanho máximo de um [modelo do AI21 Labs Jurassic-2 implantado](https://docs.aws.amazon.com/bedrock/latest/userguide/model-parameters-jurassic2.html) no Amazon Bedrock. Aumentar o comprimento da resposta gerada pelo modelo pode evitar o truncamento sistemático da resposta do seu modelo.

```
#!/bin/bash
set -eux

mkdir -p /home/sagemaker-user/.jupyter

json='{"AiExtension": {"model_parameters": {"bedrock:ai21.j2-mid-v1": {"model_kwargs": {"maxTokens": 200}}}}}'
# equivalent to %%ai bedrock:ai21.j2-mid-v1 -m {"model_kwargs":{"maxTokens":200}}

# File path
file_path="/home/sagemaker-user/.jupyter/jupyter_jupyter_ai_config.json"

#jupyter --paths

# Write JSON to file
echo "$json" > "$file_path"

# Confirmation message
echo "JSON written to $file_path"

restart-jupyter-server

# Waiting for 30 seconds to make sure the Jupyter Server is up and running
sleep 30
```

O script a seguir é um exemplo de um arquivo de configuração JSON para criar um JupyterLab aplicativo LCC usado para definir parâmetros de modelo adicionais para um modelo [Anthropic Claude implantado](https://docs.aws.amazon.com/bedrock/latest/userguide/model-parameters-claude.html) no Amazon Bedrock.

```
#!/bin/bash
set -eux

mkdir -p /home/sagemaker-user/.jupyter

json='{"AiExtension": {"model_parameters": {"bedrock:anthropic.claude-v2":{"model_kwargs":{"temperature":0.1,"top_p":0.5,"top_k":25
0,"max_tokens_to_sample":2}}}}}'
# equivalent to %%ai bedrock:anthropic.claude-v2 -m {"model_kwargs":{"temperature":0.1,"top_p":0.5,"top_k":250,"max_tokens_to_sample":2000}}

# File path
file_path="/home/sagemaker-user/.jupyter/jupyter_jupyter_ai_config.json"

#jupyter --paths

# Write JSON to file
echo "$json" > "$file_path"

# Confirmation message
echo "JSON written to $file_path"

restart-jupyter-server

# Waiting for 30 seconds to make sure the Jupyter Server is up and running
sleep 30
```

Depois de anexar sua LCC ao seu domínio ou perfil de usuário, adicione-a ao seu espaço ao iniciar seu JupyterLab aplicativo. Para garantir que seu arquivo de configuração seja atualizado pela LCC, execute `more ~/.jupyter/jupyter_jupyter_ai_config.json` em um terminal. O conteúdo do arquivo deve corresponder ao conteúdo do arquivo JSON passado para a LCC.

## Configure seu fornecedor de modelos em um caderno
<a name="sagemaker-jupyterai-model-configuration-magic-commands"></a>

**Para invocar um modelo via Jupyter AI em JupyterLab notebooks Studio Classic usando os comandos mágicos e `%%ai` `%ai`**

1. Instale as bibliotecas de cliente específicas do seu fornecedor de modelos no ambiente de caderno. Por exemplo, ao usar modelos OpenAI, você precisa instalar a biblioteca de cliente do `openai`. Você pode encontrar a lista das bibliotecas de cliente necessárias por fornecedor na coluna de *pacotes Python* da [lista de fornecedores](https://jupyter-ai.readthedocs.io/en/latest/users/index.html#model-providers) do Jupyter AI.
**nota**  
Para modelos hospedados por AWS, já `boto3` está instalado na imagem de distribuição de SageMaker IA usada por JupyterLab, ou em qualquer imagem de ciência de dados usada com o Studio Classic.

1. 
   + **Para modelos hospedados por AWS**

     Certifique-se de que sua função de execução tenha a permissão para invocar seu endpoint de SageMaker IA para modelos fornecidos JumpStart ou que você tenha acesso ao Amazon Bedrock.
   + **Para modelos hospedados por fornecedores terceirizados**

     Exporte a chave de API do seu fornecedor no ambiente de caderno usando variáveis de ambiente. É possível usar o seguinte comando mágico: Substitua a `provider_API_key` no comando pela variável de ambiente encontrada na coluna *Variável de ambiente* da [lista de fornecedores](https://jupyter-ai.readthedocs.io/en/latest/users/index.html#model-providers) do Jupyter AI Model para seu fornecedor.

     ```
     %env provider_API_key=your_API_key
     ```

# Use o Jupyter AI em nosso Studio JupyterLab Classic
<a name="sagemaker-jupyterai-use"></a>

Você pode usar o Jupyter AI no JupyterLab Studio Classic invocando modelos de linguagem da interface do usuário do chat ou das células do notebook. As seções a seguir fornecem informações sobre as etapas necessárias para concluir isso.

## Use modelos de linguagem da interface de usuário de chat
<a name="sagemaker-jupyterai-use-chatui"></a>

Escreva sua mensagem na caixa de texto da interface de usuário de chat para começar a interagir com seu modelo. Para limpar o histórico de mensagens, use o comando `/clear`.

**nota**  
Limpar o histórico de mensagens não apaga o contexto do chat com o fornecedor do modelo.

## Use modelos de linguagem de células de caderno
<a name="sagemaker-jupyterai-use-magic-commands"></a>

Antes de usar os `%ai` comandos `%%ai` e para invocar um modelo de linguagem, carregue a IPython extensão executando o seguinte comando em uma célula do notebook Studio Classic JupyterLab ou Studio Classic.

```
%load_ext jupyter_ai_magics
```
+ **Para modelos hospedados por AWS:**
  + Para invocar um modelo implantado na SageMaker IA, passe a string `sagemaker-endpoint:endpoint-name` para o comando `%%ai` mágico com os parâmetros necessários abaixo e adicione seu prompt nas linhas a seguir.

    A tabela a seguir lista os parâmetros obrigatórios e opcionais ao invocar modelos hospedados pelo SageMaker AI ou pelo Amazon Bedrock.<a name="sagemaker-jupyterai-jumpstart-inference-params"></a>    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/sagemaker/latest/dg/sagemaker-jupyterai-use.html)

    O comando a seguir invoca um modelo [LLama2-7b hospedado pela IA](https://sagemaker.readthedocs.io/en/stable/doc_utils/pretrainedmodels.html). SageMaker 

    ```
    %%ai sagemaker-endpoint:jumpstart-dft-meta-textgeneration-llama-2-7b -q {"inputs":"<prompt>","parameters":{"max_new_tokens":64,"top_p":0.9,"temperature":0.6,"return_full_text":false}} -n us-east-2 -p [0].generation -m {"endpoint_kwargs":{"CustomAttributes":"accept_eula=true"}} -f text
    Translate English to French:
    sea otter => loutre de mer
    peppermint => menthe poivrée
    plush girafe => girafe peluche
    cheese =>
    ```

    O exemplo a seguir invoca um modelo FLAN-T5-small hospedado pela IA. SageMaker 

    ```
    %%ai sagemaker-endpoint:hf-text2text-flan-t5-small --request-schema={"inputs":"<prompt>","parameters":{"num_return_sequences":4}} --region-name=us-west-2 --response-path=[0]["generated_text"] -f text
    What is the atomic number of Hydrogen?
    ```
  + Para invocar um modelo implantado no Amazon Bedrock, passe a string `bedrock:model-name` para o comando `%%ai` mágico com qualquer parâmetro opcional definido na lista de [parâmetros para invocar modelos hospedados pelo ou JumpStart Amazon Bedrock](#sagemaker-jupyterai-jumpstart-inference-params) e, em seguida, adicione seu prompt nas linhas a seguir.

    O exemplo a seguir invoca um [modelo AI21 Labs Jurassic-2 hospedado](https://docs.aws.amazon.com/bedrock/latest/userguide/model-parameters-jurassic2.html) pelo Amazon Bedrock.

    ```
    %%ai bedrock:ai21.j2-mid-v1 -m {"model_kwargs":{"maxTokens":256}} -f code
    Write a function in python implementing a bubbble sort.
    ```
+ **Para modelos hospedados por fornecedores terceirizados**

  Para invocar um modelo hospedado por fornecedores terceirizados, passe a string `provider-id:model-name` para o comando mágico `%%ai` com um [`Output format`](#sagemaker-jupyterai-output-format-params) opcional e adicione o prompt nas linhas a seguir. Você pode encontrar os detalhes de cada fornecedor, incluindo seu ID, na [lista de fornecedores de modelos](https://jupyter-ai.readthedocs.io/en/latest/users/index.html#model-providers) do Jupyter AI.

  O comando a seguir solicita que um modelo Anthropic Claude gere um arquivo HTML contendo a imagem de um quadrado branco com bordas pretas.

  ```
  %%ai anthropic:claude-v1.2 -f html
  Create a square using SVG with a black border and white fill.
  ```