

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Utiliser Jupyter AI dans JupyterLab ou Studio Classic
<a name="sagemaker-jupyterai-use"></a>

Vous pouvez utiliser Jupyter AI dans JupyterLab ou Studio Classic en invoquant des modèles linguistiques depuis l'interface utilisateur du chat ou depuis des cellules du bloc-notes. Les sections suivantes fournissent des informations sur les étapes requises pour effectuer cette opération.

## Utiliser des modèles de langage depuis l’interface utilisateur de chat
<a name="sagemaker-jupyterai-use-chatui"></a>

Rédigez votre message dans la zone de texte de l’interface de chat pour commencer à interagir avec votre modèle. Pour effacer l’historique des messages, utilisez la commande `/clear`.

**Note**  
L’effacement de l’historique des messages n’efface pas le contexte de discussion avec le fournisseur de modèles.

## Utilisation des modèles de langage à partir de cellules de bloc-notes
<a name="sagemaker-jupyterai-use-magic-commands"></a>

Avant d'utiliser les `%ai` commandes `%%ai` et pour invoquer un modèle de langage, chargez l' IPython extension en exécutant la commande suivante dans une JupyterLab cellule de bloc-notes Studio Classic.

```
%load_ext jupyter_ai_magics
```
+ **Pour les modèles hébergés par AWS :**
  + Pour invoquer un modèle déployé dans l' SageMaker IA, passez la chaîne `sagemaker-endpoint:endpoint-name` à la commande `%%ai` magique avec les paramètres requis ci-dessous, puis ajoutez votre invite dans les lignes suivantes.

    Le tableau suivant répertorie les paramètres obligatoires et facultatifs lors de l'appel de modèles hébergés par SageMaker AI ou Amazon Bedrock.<a name="sagemaker-jupyterai-jumpstart-inference-params"></a>    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/sagemaker-jupyterai-use.html)

    La commande suivante invoque un modèle [Llama2-7b](https://sagemaker.readthedocs.io/en/stable/doc_utils/pretrainedmodels.html) hébergé par AI. SageMaker 

    ```
    %%ai sagemaker-endpoint:jumpstart-dft-meta-textgeneration-llama-2-7b -q {"inputs":"<prompt>","parameters":{"max_new_tokens":64,"top_p":0.9,"temperature":0.6,"return_full_text":false}} -n us-east-2 -p [0].generation -m {"endpoint_kwargs":{"CustomAttributes":"accept_eula=true"}} -f text
    Translate English to French:
    sea otter => loutre de mer
    peppermint => menthe poivrée
    plush girafe => girafe peluche
    cheese =>
    ```

    L'exemple suivant invoque un modèle Flan-T5-small hébergé par AI. SageMaker 

    ```
    %%ai sagemaker-endpoint:hf-text2text-flan-t5-small --request-schema={"inputs":"<prompt>","parameters":{"num_return_sequences":4}} --region-name=us-west-2 --response-path=[0]["generated_text"] -f text
    What is the atomic number of Hydrogen?
    ```
  + Pour appeler un modèle déployé dans Amazon Bedrock, transmettez la chaîne `bedrock:model-name` à la commande `%%ai` magique avec tout paramètre facultatif défini dans la liste des [paramètres d'appel des modèles hébergés par JumpStart Amazon Bedrock ou Amazon Bedrock](#sagemaker-jupyterai-jumpstart-inference-params), puis ajoutez votre invite dans les lignes suivantes.

    L'exemple suivant invoque un modèle [AI21 Labs Jurassic-2 hébergé](https://docs.aws.amazon.com/bedrock/latest/userguide/model-parameters-jurassic2.html) par Amazon Bedrock.

    ```
    %%ai bedrock:ai21.j2-mid-v1 -m {"model_kwargs":{"maxTokens":256}} -f code
    Write a function in python implementing a bubbble sort.
    ```
+ **Pour les modèles hébergés par des fournisseurs tiers**

  Pour invoquer un modèle hébergé par des fournisseurs tiers, transmettez la chaîne `provider-id:model-name` à la commande magique `%%ai` avec un [`Output format`](#sagemaker-jupyterai-output-format-params) en option, puis ajoutez votre invite dans les lignes suivantes. Vous trouverez les détails de chaque fournisseur, y compris son identifiant, dans la [liste des fournisseurs de modèles](https://jupyter-ai.readthedocs.io/en/latest/users/index.html#model-providers) de Jupyter AI.

  La commande suivante demande à un modèle Anthropic Claude de générer un fichier HTML contenant l’image d’un carré blanc avec des bordures noires.

  ```
  %%ai anthropic:claude-v1.2 -f html
  Create a square using SVG with a black border and white fill.
  ```