

# Domaine du contenu 4 : directives pour une IA responsable
<a name="ai-practitioner-01-domain4"></a>

Le domaine 4 couvre les directives pour une IA responsable et représente 14 % du contenu noté à l’examen.

**Topics**
+ [Énoncé de la tâche 4.1 : expliquer le développement de systèmes d’IA responsable.](#ai-practitioner-01-task4.1)
+ [Énoncé de la tâche 4.2 : reconnaître l’importance de modèles transparents et explicables.](#ai-practitioner-01-task4.2)

## Énoncé de la tâche 4.1 : expliquer le développement de systèmes d’IA responsable.
<a name="ai-practitioner-01-task4.1"></a>

Objectifs :
+ Identifier les caractéristiques d’une IA responsable (par exemple, partialité, équité, inclusivité, robustesse, sécurité, véracité)
+ Expliquer comment utiliser des outils pour identifier les fonctionnalités d’une IA responsable (par exemple, les barrières de protection d’Amazon Bedrock)
+ Définir des pratiques responsables pour sélectionner un modèle (par exemple, considérations environnementales, durabilité)
+ Identifier les risques juridiques liés à la collaboration avec l’IA générative (par exemple, les plaintes pour violation de propriété intellectuelle, les résultats biaisés des modèles, la perte de confiance des clients, les risques liés à l’utilisateur final, les hallucinations)
+ Identifier les caractéristiques des jeux de données (par exemple, inclusivité, diversité, sources de données sélectionnées, jeux de données équilibrés)
+ Décrire les effets du biais et de la variance (par exemple, effets sur les groupes démographiques, imprécision, surajustement, sous-ajustement)
+ Décrire les outils permettant de détecter et de contrôler les biais, la fiabilité et la véracité (par exemple, analyse de la qualité des étiquettes, audits humains, analyse de sous-groupes, Amazon SageMaker Clarify, SageMaker Model Monitor, IA augmentée d’Amazon [Amazon A2I])

## Énoncé de la tâche 4.2 : reconnaître l’importance de modèles transparents et explicables.
<a name="ai-practitioner-01-task4.2"></a>

Objectifs :
+ Décrire les différences entre les modèles transparents et explicables, et ceux qui ne le sont pas
+ Décrire les outils permettant d’identifier des modèles transparents et explicables (par exemple, les cartes de modèle SageMaker, les modèles open source, les données, les licences)
+ Identifier les compromis entre la sécurité et la transparence du modèle (par exemple, mesurer l’interprétabilité et les performances)
+ Décrire les principes de la conception centrée sur l’humain pour une IA explicable