

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Modelos básicos de IA generativa no Canvas SageMaker
<a name="canvas-fm-chat"></a>

O Amazon SageMaker Canvas fornece modelos básicos de IA generativos que você pode usar para iniciar bate-papos conversacionais. Esses modelos de geração de conteúdo são treinados em grandes quantidades de dados de texto para aprender os padrões estatísticos e as relações entre as palavras, e podem produzir um texto coerente que seja estatisticamente semelhante ao texto no qual foram treinados. É possível usar esse recurso para aumentar sua produtividade da seguinte maneira:
+ Gerar conteúdo, como esboços de documentos, relatórios e blogs
+ Resumir o texto de grandes corpus de texto, como transcrições de teleconferências, relatórios anuais ou capítulos de manuais do usuário
+ Extrair informações e conclusões importantes de grandes passagens de texto, como notas de reuniões ou narrativas
+ Melhorar o texto e capturar erros gramaticais ou de digitação

Os modelos básicos são uma combinação dos modelos de linguagem grande da [Amazon SageMaker JumpStart e do Amazon Bedrock](https://docs.aws.amazon.com/bedrock/latest/userguide/what-is-service.html) (LLMs). O Canvas oferece os seguintes modelos:


| Modelo | Tipo | Description | 
| --- | --- | --- | 
|  Titã da Amazon  | Modelo Amazon Bedrock |  O Amazon Titan é um modelo de linguagem poderoso e de uso geral que você pode usar para tarefas como resumo, geração de texto (como criar uma postagem no blog), classificação, perguntas e respostas abertas e extração de informações. Ele é pré-treinado em grandes conjuntos de dados, o que o torna adequado para tarefas e raciocínios complexos. Para continuar apoiando as melhores práticas no uso responsável da IA, os modelos básicos do Amazon Titan são criados para detectar e remover conteúdo prejudicial nos dados, rejeitar conteúdo impróprio na entrada do usuário e filtrar saídas de modelos que contêm conteúdo impróprio (como discurso de ódio, palavrões e violência).  | 
|  Anthropic Claude Instant  | Modelo Amazon Bedrock |  O Claude Instant da Anthropic é um modelo mais rápido e econômico, mas ainda assim muito capaz. Esse modelo pode lidar com uma variedade de tarefas, incluindo diálogo casual, análise de texto, resumo e resposta a perguntas de documentos. Assim como o Claude-2, o Claude Instant é compatível com até 100.000 tokens em cada prompt, o equivalente a cerca de 200 páginas de informações.  | 
|  Anthropic Claude-2  | Modelo Amazon Bedrock |  O Claude-2 é o modelo mais poderoso da Anthropic, que se destaca em uma ampla variedade de tarefas, desde diálogos sofisticados e geração de conteúdo criativo até o acompanhamento detalhado de instruções. O Claude-2 é compatível com até 100.000 tokens em cada prompt, o equivalente a cerca de 200 páginas de informações. Ele pode gerar respostas mais longas em comparação com a versão anterior. Ele oferece apoio a casos de uso como resposta a perguntas, extração de informações, remoção de PII, geração de conteúdo, classificação de múltipla escolha, dramatização, comparação de texto, resumo e perguntas e respostas sobre documentos com citação.  | 
|  Falcon-7B-Instruct  | JumpStart modelo |  O Falcon-7B-Instruct tem 7 bilhões de parâmetros e foi ajustado em uma mistura de conjuntos de dados de chat e instruct. Ele serve como assistente virtual e tem melhor desempenho ao seguir instruções ou iniciar uma conversa. Como o modelo foi treinado em grandes quantidades de dados da web em inglês, ele carrega os estereótipos e vieses comumente encontrados online e não é adequado para outros idiomas além do inglês. Comparado ao Falcon-40B-Instruct, o Falcon-7B-Instruct é um modelo um pouco menor e mais compacto.  | 
|  Falcon-40B-Instruct  | JumpStart modelo |  O Falcon-40B-Instruct tem 40 bilhões de parâmetros e foi ajustado em uma mistura de conjuntos de dados de chat e instruct. Ele serve como assistente virtual e tem melhor desempenho ao seguir instruções ou iniciar uma conversa. Como o modelo foi treinado em grandes quantidades de dados da web em inglês, ele carrega os estereótipos e vieses comumente encontrados online e não é adequado para outros idiomas além do inglês. Comparado ao Falcon-7B-Instruct, o Falcon-40B-Instruct é um modelo um pouco maior e mais poderoso.  | 
|  Jurassic-2 Mid  | Modelo Amazon Bedrock |  O Jurassic-2 Mid é um modelo de geração de texto de alto desempenho treinado em um grande corpus de texto (atual até meados de 2022). É altamente versátil, de uso geral e capaz de compor textos semelhantes aos humanos e resolver tarefas complexas, como responder a perguntas, classificar textos e muitas outras. Esse modelo oferece recursos de instrução zero, permitindo que ele seja direcionado apenas com linguagem natural e sem o uso de exemplos. Seu desempenho é até 30% mais rápido do que o do seu antecessor, o modelo Jurassic-1. O Jurassic-2 Mid AI21 é um modelo de tamanho médio, cuidadosamente projetado para encontrar o equilíbrio certo entre qualidade excepcional e preço acessível.  | 
|  Jurassic-2 Ultra  | Modelo Amazon Bedrock |  O Jurassic-2 Ultra é um modelo de geração de texto de alto desempenho treinado em um grande corpus de texto (atual até meados de 2022). É altamente versátil, de uso geral e capaz de compor textos semelhantes aos humanos e resolver tarefas complexas, como responder a perguntas, classificar textos e muitas outras. Esse modelo oferece recursos de instrução zero, permitindo que ele seja direcionado apenas com linguagem natural e sem o uso de exemplos. Seu desempenho é até 30% mais rápido do que o do seu antecessor, o modelo Jurassic-1. Comparado ao Jurassic-2 Mid, o Jurassic-2 Ultra é um modelo um pouco maior e mais poderoso.  | 
|  Llama-2-7b-Chat  | JumpStart modelo |  O Llama-2-7b-Chat é um modelo básico da Meta que é adequado para se envolver em conversas significativas e coerentes, gerar novos conteúdos e extrair respostas de notas existentes. Como o modelo foi treinado em grandes quantidades de dados da web em inglês, ele carrega os estereótipos e vieses comumente encontrados online e não é adequado para outros idiomas além do inglês.  | 
|  Llama-2-13B-Chat  | Modelo Amazon Bedrock |  O Llama-2-13B-Chat da Meta foi ajustado em relação aos dados de conversação após o treinamento inicial em dados da internet. Ele é otimizado para diálogos naturais e habilidades envolventes de bate-papo, o que o torna adequado como agente de conversação. Em comparação com o Llama-2-7b-Chat menor, o Llama-2-13B-Chat tem quase o dobro de parâmetros, permitindo que ele se lembre de mais contexto e produza respostas conversacionais com mais nuances. Assim como o Llama-2-7b-Chat, o Llama-2-13B-Chat foi treinado em dados em inglês e é mais adequado para tarefas em inglês.  | 
|  Llama-2-70B-Chat  | Modelo Amazon Bedrock |  Assim como o Llama-2-7b-Chat e o Llama-2-13B-Chat, o modelo Llama-2-70B-Chat da Meta é otimizado para engajar um diálogo natural e significativo. Com 70 bilhões de parâmetros, esse grande modelo conversacional pode lembrar um contexto mais extenso e produzir respostas altamente coerentes quando comparado às versões mais compactas do modelo. No entanto, isso tem o custo de respostas mais lentas e maiores requisitos de recursos. O Llama-2-70B-Chat foi treinado em grandes quantidades de dados da Internet em inglês e é mais adequado para tarefas em inglês.  | 
|  Mistral-7B  | JumpStart modelo |  O Mistral-7B da Mistral.AI é um excelente modelo de linguagem de uso geral adequado para uma ampla variedade de tarefas de linguagem natural (PNL), como geração de texto, resumo e resposta a perguntas. Ele utiliza atenção de consulta agrupada (GQA), que permite velocidades de inferência mais rápidas, fazendo com que tenha um desempenho comparável a modelos com duas ou três vezes mais parâmetros. Ele foi treinado em uma mistura de dados de texto, incluindo livros, sites e artigos científicos no idioma inglês, por isso é mais adequado para tarefas em inglês.  | 
|  Mistral-7B-Chat  | JumpStart modelo |  O Mistral-7B-Chat é um modelo conversacional da Mistral.AI baseado no Mistral-7B. Embora o Mistral-7B seja o melhor para tarefas gerais de PNL, o Mistral-7B-Chat foi ajustado ainda mais nos dados de conversação para otimizar suas habilidades de bate-papo natural e envolvente. Como resultado, o Mistral-7B-Chat gera respostas mais humanas e lembra o contexto das respostas anteriores. Como o Mistral-7B, esse modelo é mais adequado para tarefas em inglês.  | 
|  MPT-7B-Instruct  | JumpStart modelo |  O MPT-7B-Instruct é um modelo para tarefas de seguimento de instruções de formato longo e pode ajudá-lo a escrever tarefas, incluindo resumo de texto e respostas a perguntas, para economizar tempo e esforço. Esse modelo foi treinado em grandes quantidades de dados ajustados e pode lidar com entradas maiores, como documentos complexos. Use esse modelo quando quiser processar grandes corpos de texto ou quiser que o modelo gere respostas longas.  | 

Os modelos básicos da Amazon Bedrock atualmente só estão disponíveis nas regiões Leste dos EUA (Norte da Virgínia) e Oeste dos EUA (Oregon). Além disso, ao usar modelos básicos do Amazon Bedrock, você é cobrado com base no volume de tokens de entrada e tokens de saída, conforme especificado por cada fornecedor de modelo. Para obter mais informações, consulte a página de [preços do Amazon Bedrock](https://aws.amazon.com/bedrock/pricing/). Os modelos JumpStart básicos são implantados em instâncias do SageMaker AI Hosting, e você é cobrado pela duração do uso com base no tipo de instância usada. Para obter mais informações sobre o custo de diferentes tipos de instância, consulte a seção Amazon SageMaker AI Hosting: inferência em tempo real na [página de SageMaker preços](https://aws.amazon.com/sagemaker/pricing/).

A consulta de documentos é um atributo adicional que você pode usar para consultar e obter informações de documentos armazenados em índices usando o Amazon Kendra. Com essa funcionalidade, você pode gerar conteúdo a partir do contexto desses documentos e receber respostas específicas para seu caso de uso comercial, em vez de respostas genéricas às grandes quantidades de dados nos quais os modelos básicos foram treinados. Para obter mais informações sobre índices no Amazon Kendra, consulte o [Guia do desenvolvedor do Amazon Kendra](https://docs.aws.amazon.com/kendra/latest/dg/what-is-kendra.html).

Se você quiser obter respostas de qualquer um dos modelos básicos personalizados para seus dados e caso de uso, você pode ajustar os modelos básicos. Para saber mais, consulte [Ajustar modelos de base](canvas-fm-chat-fine-tune.md).

Se você quiser obter previsões de um modelo da Amazon SageMaker JumpStart Foundation por meio de um aplicativo ou site, você pode implantar o modelo em um *endpoint* de SageMaker IA. SageMaker Os endpoints de IA hospedam seu modelo e você pode enviar solicitações ao endpoint por meio do código do aplicativo para receber previsões do modelo. Para obter mais informações, consulte [Implantar seus modelos em um endpoint](canvas-deploy-model.md).

# Preencha os pré-requisitos para modelos de base no Canvas SageMaker
<a name="canvas-fm-chat-prereqs"></a>

As seções a seguir descrevem os pré-requisitos para interagir com modelos básicos e usar o atributo de consulta de documentos no Canvas. O restante do conteúdo desta página pressupõe que você atendeu aos pré-requisitos para modelos básicos. O atributo de consulta de documentos requer permissões adicionais.

## Pré-requisitos para modelos básicos
<a name="canvas-fm-chat-prereqs-fm"></a>

As permissões que você precisa para interagir com os modelos estão incluídas nas permissões dos Ready-to-use modelos do Canvas. Para usar os modelos generativos baseados em IA no Canvas, você deve ativar as permissões de **configuração dos Ready-to-use modelos do Canvas** ao configurar seu domínio Amazon SageMaker AI. Para obter mais informações, consulte [Pré-requisitos para configurar o Amazon Canvas SageMaker](canvas-getting-started.md#canvas-prerequisites). A **configuração dos Ready-to-use modelos Canvas** anexa a política de [AmazonSageMakerCanvasAIServicesacesso](https://docs.aws.amazon.com/sagemaker/latest/dg/security-iam-awsmanpol-canvas.html#security-iam-awsmanpol-AmazonSageMakerCanvasAIServicesAccess) à função de execução do seu usuário do Canvas AWS Identity and Access Management (IAM). Se você encontrar algum problema com a concessão de permissões, consulte o tópico [Solução de problemas com a concessão de permissões por meio do console de SageMaker IA](canvas-limits.md#canvas-troubleshoot-trusted-services).

Se você já configurou seu Domínio, você pode editar suas configurações de Domínio e ativar as permissões. Para obter instruções sobre como editar suas configurações de Domínio, consulte [Editar configurações de domínio](domain-edit.md). Ao editar as configurações do seu domínio, acesse as **configurações do Canvas** e ative a opção **Ativar Ready-to-use modelos do Canvas**.

Alguns modelos JumpStart básicos também exigem que você solicite um aumento na cota de instâncias de SageMaker IA. O Canvas hospeda os modelos com os quais você está interagindo atualmente nessas instâncias, mas a cota padrão para sua conta pode ser insuficiente. Se você encontrar um erro ao executar qualquer um dos modelos a seguir, solicite um aumento de cota para os tipos de instância associados:
+ Falcon-40B: `ml.g5.12xlarge`, `ml.g5.24xlarge`
+ Falcon-13B: `ml.g5.2xlarge`, `ml.g5.4xlarge`, `ml.g5.8xlarge`
+ MPT-7B-Instruct: `ml.g5.2xlarge`, `ml.g5.4xlarge`, `ml.g5.8xlarge`

Para os tipos de instâncias anteriores, solicite um aumento de 0 para 1 para a cota de uso do endpoint. Para obter mais informações como aumentar uma cota de instância para sua conta, consulte [Solicitar um aumento da cota](https://docs.aws.amazon.com/servicequotas/latest/userguide/request-quota-increase.html) no *Guia do usuário do Service Quotas*.

## Pré-requisitos para a consulta de documentos
<a name="canvas-fm-chat-prereqs-kendra"></a>

**nota**  
A consulta de documentos é suportada no seguinte Regiões da AWS: Leste dos EUA (Norte da Virgínia), Leste dos EUA (Ohio), Oeste dos EUA (Oregon), Europa (Irlanda), Ásia-Pacífico (Cingapura), Ásia-Pacífico (Sydney), Ásia-Pacífico (Tóquio) e Ásia-Pacífico (Mumbai).

O atributo de consulta de documentos exige que você já tenha um índice do Amazon Kendra que armazene seus documentos e metadados do documento. Para obter mais informações sobre o Amazon Kendra, consulte o [Guia do desenvolvedor do Amazon Kendra](https://docs.aws.amazon.com/kendra/latest/dg/what-is-kendra.html). Para saber mais sobre as cotas para consultar índices, consulte [Cotas](https://docs.aws.amazon.com/kendra/latest/dg/quotas.html) no *Guia do desenvolvedor do Amazon Kendra*.

Você também deve se certificar de que seu perfil de usuário do Canvas tenha as permissões necessárias para a consulta de documentos. A [AmazonSageMakerCanvasFullAccess](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonSageMakerCanvasFullAccess.html)política deve ser anexada à função de execução do AWS IAM para o domínio de SageMaker IA que hospeda seu aplicativo Canvas (essa política é anexada por padrão a todos os perfis de usuário novos e existentes do Canvas). Você também deve conceder especificamente permissões de consulta de documentos e especificar o acesso a um ou mais índices do Amazon Kendra.

Se o administrador do Canvas estiver configurando um novo Domínio ou perfil de usuário, faça com que ele configure o Domínio seguindo as instruções em [Pré-requisitos para configurar o Amazon Canvas SageMaker](canvas-getting-started.md#canvas-prerequisites). Ao configurar o domínio, eles podem ativar as permissões de consulta do documento por meio da **configuração dos Ready-to-use modelos Canvas**.

O administrador do Canvas também pode gerenciar as permissões de consulta de documentos no nível do perfil do usuário. Por exemplo, se o administrador quiser conceder permissões de consulta de documentos a alguns perfis de usuário, mas remover permissões para outros, ele poderá editar as permissões para um usuário específico.

O seguinte procedimento mostra como ativar permissões de consulta de documentos para um perfil de usuário específico:

1. Abra o console de SageMaker IA em [https://console.aws.amazon.com/sagemaker/](https://console.aws.amazon.com/sagemaker/).

1. No painel de navegação à esquerda, escolha **Configurações do administrador**.

1. Em **Configurações do administrador**, escolha **Domínios**.

1. Na lista de Domínios, selecione o Domínio do perfil do usuário.

1. Na página de **Detalhes do domínio**, escolha o **Perfil do usuário** cujas permissões você deseja editar.

1. Na página **Detalhes do usuário**, selecione **Editar**.

1. No painel de navegação à esquerda, selecione **Configurações do Canvas**.

1. Na seção de **configuração de Ready-to-use modelos do Canvas**, ative o botão **Habilitar consulta de documentos usando o Amazon Kendra**.

1. No menu suspenso, selecione um ou mais índices do Amazon Kendra aos quais você deseja conceder acesso.

1. Escolha **Enviar** para salvar as alterações nas configurações do seu Domínio.

Agora você será capaz de usar os modelos básicos do Canvas para consultar documentos nos índices especificados do Amazon Kendra.

# Iniciar uma nova conversa para gerar, extrair ou resumir conteúdo
<a name="canvas-fm-chat-new"></a>

Para começar a usar modelos básicos de IA generativa no Canvas, você pode iniciar uma nova sessão de chat com um dos modelos. Para JumpStart modelos, você é cobrado enquanto o modelo está ativo, então você deve inicializar os modelos quando quiser usá-los e desligá-los quando terminar de interagir. Se você não desligar um JumpStart modelo, o Canvas o desligará após 2 horas de inatividade. Para modelos da Amazon Bedrock (como o Amazon Titan), você é cobrado por prompt; os modelos já estão ativos e não precisam ser inicializados ou encerrados. Você é cobrado diretamente pelo uso desses modelos pela Amazon Bedrock.

Para abrir um chat com uma modelo, faça o seguinte:

1. Abra o aplicativo SageMaker Canvas.

1. No painel de navegação esquerdo, escolha **eady-to-usemodelos R.**

1. Escolha **Gerar, extrair e resumir conteúdo**.

1. Na página de boas-vindas, você receberá uma recomendação para iniciar o modelo padrão. Você pode iniciar o modelo recomendado ou escolher **Selecionar outro modelo** no menu suspenso para escolher um diferente.

1. Se você selecionou um modelo de JumpStart base, precisará iniciá-lo antes que ele esteja disponível para uso. Escolha **Iniciar o modelo** e, em seguida, o modelo será implantado em uma instância de SageMaker IA. A conclusão dessa operação pode levar vários minutos. Quando o modelo estiver pronto, você poderá inserir prompts e fazer perguntas ao modelo.

   Se você selecionou um modelo básico do Amazon Bedrock, pode começar a usá-lo instantaneamente inserindo um prompt e fazendo perguntas.

Dependendo do modelo, você pode realizar várias tarefas. Por exemplo, você pode inserir uma passagem de texto e pedir ao modelo que a resuma. Ou você pode pedir ao modelo que apresente um breve resumo das tendências do mercado em seu Domínio.

As respostas do modelo em um chat são baseadas no contexto de seus prompts anteriores. Se você quiser fazer uma nova pergunta no chat que não esteja relacionada ao tópico da conversa anterior, recomendamos que você inicie um novo chat com o modelo.

# Extrair informações de documentos com a consulta de documentos
<a name="canvas-fm-chat-query"></a>

**nota**  
Esta seção pressupõe que você concluiu a seção [Pré-requisitos para a consulta de documentos](canvas-fm-chat-prereqs.md#canvas-fm-chat-prereqs-kendra) acima.

A consulta de documentos é um atributo que você pode usar ao interagir com modelos básicos no Canvas. Com a consulta de documentos, você pode acessar um corpus de documentos armazenados em um *índice* Amazon Kendra, que contém o conteúdo dos seus documentos e é estruturado de forma a tornar os documentos pesquisáveis. Você pode fazer perguntas específicas direcionadas aos dados do seu índice Amazon Kendra, e o modelo básico responderá às suas perguntas. Por exemplo, você pode consultar uma base de conhecimento interna de informações de TI e fazer perguntas como “Como faço para me conectar à rede da minha empresa?” Para obter mais informações sobre um índice, consulte o [Guia do desenvolvedor do Amazon Kendra](https://docs.aws.amazon.com/kendra/latest/dg/what-is-kendra.html).

Ao usar o atributo de consulta de documentos, os modelos básicos restringem suas respostas ao conteúdo dos documentos em seu índice com uma técnica chamada geração aumentada via recuperação (RAG). Essa técnica agrupa as informações mais relevantes do índice junto com o prompt do usuário e as envia ao modelo básico para obter uma resposta. As respostas são limitadas ao que pode ser encontrado em seu índice, evitando que o modelo forneça respostas incorretas com base em dados externos. Para obter mais informações sobre esse processo, consulte a postagem do blog [Crie rapidamente aplicações de IA generativa de alta precisão em dados corporativos](https://aws.amazon.com/blogs/machine-learning/quickly-build-high-accuracy-generative-ai-applications-on-enterprise-data-using-amazon-kendra-langchain-and-large-language-models/).

Para começar, em um chat com um modelo básico no Canvas, ative o botão **Consulta de documentos** na parte superior da página. No menu suspenso, selecione o índice do Amazon Kendra que você deseja consultar. Em seguida, você pode começar a fazer perguntas relacionadas aos documentos em seu índice.

**Importante**  
A consulta de documentos é compatível com o atributo [Comparar saídas do modelo](canvas-fm-chat-compare.md). Qualquer histórico de chat existente é sobrescrito quando você inicia um novo chat para comparar as saídas do modelo.

# Modelos de inicialização
<a name="canvas-fm-chat-manage"></a>

**nota**  
A seção a seguir descreve os modelos de inicialização, que se aplicam somente aos modelos JumpStart básicos, como o Falcon-40B-Instruct. Você pode acessar os modelos Amazon Bedrock, como o Amazon Titan, instantaneamente a qualquer momento.

Você pode iniciar quantos JumpStart modelos quiser. Cada JumpStart modelo ativo gera cobranças em sua conta, por isso recomendamos que você não inicie mais modelos do que os que está usando atualmente.

Para iniciar outro modelo, faça o seguinte:

1. Na página **Gerar, extrair e resumir conteúdo**, escolha **Novo chat**.

1. Escolha o modelo no menu suspenso. Se você quiser escolher um modelo não exibido no menu suspenso, escolha **Iniciar outro modelo** e, em seguida, selecione o modelo que você deseja inicializar.

1. Escolha **Inicializar modelo**.

O modelo começará a ser inicializado e, em alguns minutos, você poderá conversar com o modelo.

# Encerrar modelos
<a name="canvas-fm-chat-shut-down"></a>

É altamente recomendável que você encerre os modelos que não está usando. Os modelos são encerrados automaticamente após 2 horas de inatividade. No entanto, para encerrar manualmente um modelo, faça o seguinte:

1. Na página **Gerar, extrair e resumir conteúdo**, abra o chat do modelo que você deseja encerrar.

1. Na página de chat, escolha o ícone **Mais opções** (![\[Vertical ellipsis icon representing a menu or more options.\]](http://docs.aws.amazon.com/pt_br/sagemaker/latest/dg/images/studio/canvas/more-options-icon.png)).

1. Escolha **Encerrar o modelo**.

1. Na caixa de confirmação de **Encerrar o modelo**, escolha **Encerrar**.

O modelo começará a ser encerrado. Se seu chat comparar dois ou mais modelos, você pode encerrar um modelo individual na página de chat escolhendo o ícone **Mais opções** do modelo (![\[Vertical ellipsis icon representing a menu or more options.\]](http://docs.aws.amazon.com/pt_br/sagemaker/latest/dg/images/studio/canvas/more-options-icon.png)) e, em seguida, escolhendo **Encerrar o modelo**.

# Comparar saídas do modelo
<a name="canvas-fm-chat-compare"></a>

Você pode querer comparar a saída de diferentes modelos lado a lado para ver qual saída de modelo você prefere. Isso pode ajudar você a decidir qual modelo melhor se adequa ao seu caso de uso. Você pode comparar até três modelos em chats.

**nota**  
Cada modelo individual incorre em cobranças em sua conta.

Você deve iniciar um novo chat para adicionar modelos para comparação. Para comparar a saída dos modelos lado a lado em um chat, faça o seguinte:

1. Em um chat, escolha **Novo chat**.

1. Escolha **Comparar** e use o menu suspenso para selecionar o modelo que você deseja adicionar. Para adicionar um terceiro modelo, escolha **Comparar** novamente para adicionar outro modelo.
**nota**  
Se você quiser usar um JumpStart modelo que não está ativo no momento, você será solicitado a inicializar o modelo.

Quando os modelos estão ativos, você verá os dois modelos lado a lado no chat. Você pode enviar seu prompt e cada modelo responderá no mesmo chat, conforme mostrado na captura de tela a seguir.

![\[Captura de tela da interface do Canvas com a saída de dois modelos mostrados lado a lado.\]](http://docs.aws.amazon.com/pt_br/sagemaker/latest/dg/images/studio/canvas/canvas-chat-compare-outputs.png)


Quando terminar de interagir, certifique-se de desligar todos JumpStart os modelos individualmente para evitar cobranças adicionais.

# Ajustar modelos de base
<a name="canvas-fm-chat-fine-tune"></a>

Os modelos básicos que você pode acessar por meio do Amazon SageMaker Canvas podem ajudá-lo com uma variedade de tarefas de uso geral. No entanto, se você tiver um caso de uso específico e quiser respostas personalizadas com base em seus próprios dados, poderá *ajustar* um modelo básico.

Para ajustar um modelo básico, você fornece um conjunto de dados que consiste em exemplos de prompts e respostas do modelo. Em seguida, você treina o modelo básico com base nos dados. Por fim, o modelo básico ajustado é capaz de fornecer respostas mais específicas.

A seguinte lista contém os modelos básicos que você pode ajustar no Canvas:
+ Titan Express
+ Falcon-7B
+ Falcon-7B-Instruct
+ Falcon-40B-Instruct
+ Falcon-40B
+ FLAN-T5-Grande
+ Flan-T5-Xl
+ Flan-T5-Xxl
+ MPT-7B
+ MPT-7B-Instruct

Você pode acessar informações mais detalhadas sobre cada modelo básico na aplicação Canvas enquanto ajusta um modelo. Para obter mais informações, consulte [Ajuste o modelo](#canvas-fm-chat-fine-tune-procedure-model).

Este tópico descreve como ajustar os modelos de base no Canvas.

## Antes de começar
<a name="canvas-fm-chat-fine-tune-prereqs"></a>

Antes de ajustar um modelo básico, certifique-se de ter as permissões para Ready-to-use modelos no Canvas e uma função de AWS Identity and Access Management execução que tenha uma relação de confiança com o Amazon Bedrock, o que permite que o Amazon Bedrock assuma sua função enquanto ajusta os modelos básicos.

Ao configurar ou editar seu domínio do Amazon SageMaker AI, você deve 1) ativar as permissões de configuração dos Ready-to-use modelos do Canvas e 2) criar ou especificar uma função do Amazon Bedrock, que é uma função de execução do IAM à qual a SageMaker IA atribui uma relação de confiança com o Amazon Bedrock. Para obter mais informações sobre como definir essas configurações, consulte [Pré-requisitos para configurar o Amazon Canvas SageMaker](canvas-getting-started.md#canvas-prerequisites).

Você pode configurar a função Amazon Bedrock manualmente se preferir usar sua própria função de execução do IAM (em vez de permitir que a SageMaker IA crie uma em seu nome). Para obter mais informações sobre como configurar a relação de confiança de sua própria função de execução do IAM com o Amazon Bedrock, consulte. [Conceda aos usuários permissões para usar o Amazon Bedrock e os atributos de IA generativa no Canvas](canvas-fine-tuning-permissions.md)

Você também deve ter um conjunto de dados formatado para ajustar modelos de linguagem grandes (). LLMs Veja a seguir uma lista de requisitos para seu conjunto de dados:
+ O conjunto de dados deve ser tabular e conter pelo menos duas colunas de dados de texto: uma coluna de entrada (que contém exemplos de prompt para o modelo) e uma coluna de saída (que contém exemplos de respostas do modelo).

  Um exemplo é o seguinte:     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/sagemaker/latest/dg/canvas-fm-chat-fine-tune.html)
+ Recomendamos que o conjunto de dados tenha pelo menos 100 pares de texto (linhas de itens de entrada e saída correspondentes). Isso garante que o modelo básico tenha dados suficientes para o ajuste fino e aumente a precisão de suas respostas.
+ Cada item de entrada e saída deve conter no máximo 512 caracteres. Qualquer coisa maior é reduzida para 512 caracteres ao ajustar o modelo básico.

Ao ajustar um modelo do Amazon Bedrock, você deve aderir às cotas do Amazon Bedrock. Para obter mais informações, consulte [Cotas de personalização de modelos](https://docs.aws.amazon.com/bedrock/latest/userguide/quotas.html#model-customization-quotas) no *Guia do usuário do Amazon Bedrock*.

Para obter mais informações sobre os requisitos e limitações gerais do conjunto de dados no Canvas, consulte [Criar um conjunto de dados](canvas-import-dataset.md).

## Ajuste um modelo de base
<a name="canvas-fm-chat-fine-tune-procedure"></a>

Você pode ajustar um modelo básico usando qualquer um dos seguintes métodos na aplicação Canvas:
+ Em um bate-papo **Gerar, extrair e resumir conteúdo** com um modelo básico, escolha o ícone **Ajuste fino do modelo** (![\[Magnifying glass icon with a plus sign, indicating a search or zoom-in function.\]](http://docs.aws.amazon.com/pt_br/sagemaker/latest/dg/images/studio/canvas/wrench-icon-small.png)).
+ Durante um bate-papo com um modelo básico, se você gerou novamente a resposta duas ou mais vezes, o Canvas oferece a opção de **ajustar o modelo**. A captura de tela a seguir mostra um exemplo de como essa tela se parece.  
![\[Captura de tela da opção de Ajuste do modelo básico mostrada em um bate-papo.\]](http://docs.aws.amazon.com/pt_br/sagemaker/latest/dg/images/studio/canvas/fine-tuning-ingress.png)
+ Na página **Meus modelos**, você pode criar um novo modelo escolhendo **Novo modelo** e, em seguida, selecionando o modelo **Ajustar o modelo básico**.
+ Na página inicial dos **Ready-to-use modelos**, você pode escolher **Criar seu próprio modelo** e, em seguida, na caixa de diálogo **Criar novo modelo**, escolher **Ajustar o modelo básico**.
+ Ao navegar pelos conjuntos de dados na guia **Data Wrangler**, você pode selecionar um conjunto de dados e escolher **Criar um modelo.** Em seguida, escolha o **Ajustar o modelo básico**.

Depois de começar a ajustar um modelo, faça o seguinte:

### Defina um conjunto de dados.
<a name="canvas-fm-chat-fine-tune-procedure-select"></a>

Na guia **Selecionar** do ajuste fino de um modelo, você escolhe os dados nos quais gostaria de treinar o modelo básico.

Selecione um conjunto de dados existente ou crie um novo que atenda aos requisitos listados na [Antes de começar](#canvas-fm-chat-fine-tune-prereqs) seção. Para obter mais informações sobre como criar um conjunto de dados, consulte [Criar um conjunto de dados](canvas-import-dataset.md).

Quando você tiver selecionado ou criado um conjunto de dados e estiver pronto para seguir em frente, escolha **Selecionar conjunto de dados**.

### Ajuste o modelo
<a name="canvas-fm-chat-fine-tune-procedure-model"></a>

Depois de selecionar seus dados, agora você está pronto para começar a treinar e ajustar o modelo.

Na guia **Ajustar**, faça o seguinte:

1. (Opcional) Escolha **Saiba mais sobre nossos modelos básicos** para acessar mais informações sobre cada modelo e ajudá-lo a decidir qual modelo ou modelos básicos implantar.

1. Para **selecionar até 3 modelos básicos**, abra o menu suspenso e verifique até 3 modelos básicos (até 2 JumpStart modelos e 1 modelo Amazon Bedrock) que você gostaria de ajustar durante o trabalho de treinamento. Ao ajustar vários modelos básicos, você pode comparar seu desempenho e, por fim, escolher o mais adequado ao seu caso de uso como modelo padrão. Para obter mais informações sobre modelos, consulte [Veja os candidatos a modelo na tabela de classificação de modelos](canvas-evaluate-model-candidates.md).

1. Em **Selecionar coluna de entrada**, selecione a coluna de dados de texto em seu conjunto de dados que contém os prompts do modelo de exemplo.

1. Em **Selecionar coluna de saída**, selecione a coluna de dados de texto em seu conjunto de dados que contém as respostas do modelo de exemplo.

1. (Opcional) Para definir configurações avançadas para o trabalho de treinamento, escolha **Configurar modelo**. Para obter mais informações sobre as configurações avançadas de modelo, consulte [Configurações avançadas de construção de modelos](canvas-advanced-settings.md).

   Na janela pop up **Configurar modelo**, faça o seguinte:

   1. Para **hiperparâmetros**, você pode ajustar a **contagem de Epoch**, o **tamanho do lote**, a **taxa de aprendizado** **e as etapas de aquecimento da taxa de aprendizado** para cada modelo selecionado. Para obter mais informações sobre esses parâmetros, consulte a [seção Hiperparâmetros na JumpStart documentação](https://docs.aws.amazon.com/sagemaker/latest/dg/jumpstart-fine-tune.html#jumpstart-hyperparameters).

   1. Para **Divisão de dados**, você pode especificar porcentagens de como dividir seus dados entre o **conjunto de treinamento** e o **conjunto de validação**.

   1. Para o **runtime do trabalho máximo**, você pode definir a quantidade máxima de tempo em que o Canvas executa o trabalho de construção. Esse recurso está disponível somente para modelos de JumpStart base.

   1. Depois de definir as configurações, escolha **Salvar**.

1. Escolha **Ajustar** para começar a treinar os modelos básicos que você selecionou.

Depois que o trabalho de ajuste fino começar, você poderá sair da página. Quando o modelo aparece como **Pronto** na página **Meus modelos**, ele está pronto para uso e agora você pode analisar o desempenho do seu modelo básico ajustado.

### Analisar o modelo básico ajustado
<a name="canvas-fm-chat-fine-tune-procedure-analyze"></a>

Na guia **Analisar** do seu modelo básico ajustado, você pode ver o desempenho do modelo.

A guia **Visão geral** desta página mostra as pontuações de perplexidade e perda, junto com análises que visualizam a melhoria do modelo ao longo do tempo durante o treinamento. A captura de tela a seguir mostra a guia **Visão geral**.

![\[A guia Analisar de um modelo de base ajustado no Canvas, mostrando as curvas de perplexidade e perda.\]](http://docs.aws.amazon.com/pt_br/sagemaker/latest/dg/images/studio/canvas/canvas-fine-tune-analyze-2.png)


Nessa página, você pode ver as seguintes visualizações:
+ A **curva de perplexidade** mede quão bem o modelo prevê a próxima palavra em uma sequência ou quão gramatical é a saída do modelo. Idealmente, à medida que o modelo melhora durante o treinamento, a pontuação diminui e resulta em uma curva que diminui e se achata com o tempo.
+ A **curva de perda** quantifica a diferença entre a saída correta e a saída prevista do modelo. Uma curva de perda que diminui e se achata com o tempo indica que o modelo está melhorando sua capacidade de fazer predições precisas.

A guia **Métricas avançadas** mostra os hiperparâmetros e métricas adicionais do seu modelo. A aparência é a seguinte:

![\[Captura de tela da guia Métricas avançadas de um modelo básico ajustado no Canvas.\]](http://docs.aws.amazon.com/pt_br/sagemaker/latest/dg/images/studio/canvas/canvas-fine-tune-metrics.png)


A guia **Métricas avançadas** contém as seguintes informações:
+ A seção **Explicabilidade** contém os **hiperparâmetros**, que são os valores definidos antes do trabalho para orientar o ajuste fino do modelo. Se você não especificou hiperparâmetros personalizados nas configurações avançadas do modelo na [Ajuste o modelo](#canvas-fm-chat-fine-tune-procedure-model) seção, o Canvas seleciona os hiperparâmetros padrão para você.

  Para JumpStart modelos, você também pode ver a métrica avançada [ROUGE (Recall-Oriented Understudy for Gisting Evaluation)](https://en.wikipedia.org/wiki/ROUGE_(metric)), que avalia a qualidade dos resumos gerados pelo modelo. Ele mede o quão bem o modelo pode resumir os pontos principais de uma passagem.
+ A seção **Artefatos** fornece links para artefatos gerados durante o trabalho de ajuste fino. Você pode acessar os dados de treinamento e validação salvos no Amazon S3, bem como o link para o relatório de avaliação do modelo (para saber mais, consulte o parágrafo a seguir).

Para obter mais informações sobre a avaliação do modelo, você pode baixar um relatório gerado usando o [SageMaker Clarify](https://docs.aws.amazon.com/sagemaker/latest/dg/clarify-configure-processing-jobs.html), que é um recurso que pode ajudá-lo a detectar vieses em seu modelo e dados. Primeiro, gere o relatório escolhendo **Gerar relatório de avaliação** na parte inferior da página. Depois que o relatório for gerado, você poderá baixar o relatório completo escolhendo **Baixar relatório** ou retornando à seção **Artefatos**.

Você também pode acessar um caderno Jupyter que mostra como replicar seu trabalho de ajuste fino no código Python. Você pode usar isso para replicar ou fazer alterações programáticas em seu trabalho de ajuste fino ou obter uma compreensão mais profunda de como o Canvas ajusta seu modelo. Para saber mais sobre modelos de cadernos e como acessá-los, consulte[Baixe um modelo de caderno](canvas-notebook.md).

Para obter mais informações sobre como interpretar as informações na guia **Analisar** do seu modelo de base ajustado, consulte o tópico. [Avaliação de modelos](canvas-evaluate-model.md)

Depois de analisar as guias **Visão geral** e **Métricas avançadas**, você também pode optar por abrir a tabela de **classificação do modelo**, que mostra a lista dos modelos básicos treinados durante a criação. O modelo com a pontuação de perda mais baixa é considerado o modelo de melhor desempenho e é selecionado como o **Modelo padrão**, que é o modelo cuja análise você vê na guia **Analisar**. Você só pode testar e implantar o modelo padrão. Para obter mais informações sobre a tabela de classificação dos modelos e como alterar o modelo padrão, consulte. [Veja os candidatos a modelo na tabela de classificação de modelos](canvas-evaluate-model-candidates.md)

### Teste um modelo básico ajustado em um bate-papo
<a name="canvas-fm-chat-fine-tune-procedure-test"></a>

Depois de analisar o desempenho de um modelo básico ajustado, talvez você queira testá-lo ou comparar suas respostas com o modelo básico. Você pode testar um modelo básico ajustado em um bate-papo no atributo **Gerar, extrair e resumir conteúdo**.

Inicie um bate-papo com um modelo ajustado escolhendo um dos seguintes métodos:
+ Na guia **Analisar** do modelo ajustado, escolha **Testar em Ready-to-use** modelos básicos.
+ Na página de **Ready-to-use modelos** do Canvas, escolha **Gerar, extrair e resumir conteúdo**. Em seguida, escolha **Novo bate-papo** e selecione a versão do modelo que você deseja testar.

O modelo é iniciado em um bate-papo e você pode interagir com ele como qualquer outro modelo básico. Você pode adicionar mais modelos ao chat e comparar suas saídas. Para obter mais informações sobre a funcionalidade dos chats, consulte [Modelos básicos de IA generativa no Canvas SageMaker](canvas-fm-chat.md).

## Operacionalize modelos básicos ajustados
<a name="canvas-fm-chat-fine-tune-mlops"></a>

Depois de ajustar seu modelo no Canvas, faça o seguinte:
+ Registre o SageMaker modelo no Registro de Modelos para integração com MLOps os processos de sua organização. Para obter mais informações, consulte [Registre uma versão do modelo no registro de modelos de SageMaker IA](canvas-register-model.md).
+ Implante o modelo em um endpoint de SageMaker IA e envie solicitações para o modelo a partir do seu aplicativo ou site para obter previsões (ou *inferências*). Para obter mais informações, consulte [Implantar seus modelos em um endpoint](canvas-deploy-model.md).

**Importante**  
Você só pode registrar e implantar modelos JumpStart básicos baseados e ajustados, não modelos baseados no Amazon Bedrock.