

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# 基盤モデル評価とは
<a name="clarify-foundation-model-evaluate-whatis"></a>

FMEval は、不正確、有害、またはバイアスのあるコンテンツなどのモデルリスクを定量化するうえで役立ちます。LLM を評価すると、[ISO 42001](https://aistandardshub.org/ai-standards/information-technology-artificial-intelligence-management-system/) AI に関するマネジメントシステム規格や NIST AI リスクマネジメントフレームワークなど、責任ある生成 AI に関する国際ガイドラインに準拠するうえで役立ちます。

以降のセクションでは、モデル評価の作成、モデル評価ジョブの結果の表示、結果の分析でサポートされている方法の概要を説明します。

## モデル評価タスク
<a name="whatis-clarify-evaluation-tasks"></a>

モデル評価ジョブの評価タスクは、プロンプトの情報に基づいてモデルに実行させるタスクです。モデル評価ジョブごとに単一のタスクタイプを選択できます。

**モデル評価ジョブでサポートされているタスクタイプ**
+ **オープンエンド生成** – 構造が事前に定義されていないテキストに対して、自然な人間らしい応答を生成する。
+ **テキスト要約** – 長いテキストの意図を汲み、要点を簡潔にまとめた概要を生成する。
+ **質問への回答** – プロンプトに対して関連性のある正確な応答を生成する。
+ **分類**: テキストの内容に基づいて、適切に割り当てる。
+ **カスタム** – モデル評価ジョブのカスタム評価ディメンションを定義できます。

各タスクタイプには、自動モデル評価ジョブで使用できる特定のメトリクスが関連付けられています。自動モデル評価ジョブとヒューマンワーカーを使用するモデル評価ジョブに関連するメトリクスについては、「[モデル評価ジョブでのプロンプトデータセットと利用可能な評価ディメンションの使用](clarify-foundation-model-evaluate-overview.md)」を参照してください。

## 推論パラメータの更新
<a name="whatis-clarify-inference-parameters"></a>

推論パラメータは、モデルを再トレーニングしたりファインチューニングしたりする必要なく、モデルの出力に影響を与える方法です。

自動モデル評価ジョブでは、モデルの温度、トップ P、新しいトークンの最大数を変更できます。

**温度**  
モデルの応答のランダム性の量を変更します。デフォルトの温度を下げるとランダム性の量が低減し、上げるとランダム性が増大します。

**トップ P**  
推論中、モデルはテキストを生成し、単語のリストから選択して次の単語を配置します。トップ P を更新すると、パーセンテージに基づいてリスト内の単語の数が変更されます。トップ P を下げると、より確定的なサンプルが生成され、値を上げると、生成されるテキストの多様性と創造性が向上します。

**新しいトークンの最大数**  
モデルが提供できる応答の長さを変更します。

モデルをモデル評価ジョブに追加した後、Studio で推論パラメータを更新できます。

## 自動モデル評価ジョブ
<a name="clarify-automatic-jobs-summary"></a>

自動モデル評価ジョブは、ベンチマークに基づくメトリクスを使用して、顧客に対する悪影響をもたらしたり、有害であったり、その他の不適切である応答を測定します。モデルの応答は、タスクに固有の組み込みデータセットを使用してスコアリングすることも、独自のカスタムプロンプトデータセットを指定することもできます。

自動モデル評価ジョブを作成するには、Studio または [https://github.com/aws/fmeval?tab=readme-ov-file#foundation-model-evaluations-library](https://github.com/aws/fmeval?tab=readme-ov-file#foundation-model-evaluations-library) ライブラリを使用できます。自動モデル評価ジョブは、単一のモデルの使用をサポートします。Studio では、JumpStart モデルを使用するか、以前にエンドポイントにデプロイした JumpStart モデルを使用できます。

別の方法として、`fmeval` ライブラリを独自のコードベースにデプロイし、独自のユースケースに合わせてモデル評価ジョブをカスタマイズすることもできます。

結果の把握を向上するには、生成されたレポートを使用します。このレポートには、可視化と例が含まれています。ジョブの作成時に指定した Amazon S3 バケットには、保存された結果も表示されます。結果の構造をの詳細については、「[自動評価ジョブの結果を理解する](clarify-foundation-model-evaluate-auto-ui-results.md)」を参照してください。

JumpStart で公開されていないモデルを使用するには、`fmeval` ライブラリを使用して自動モデル評価ジョブを実行する必要があります。JumpStart モデルのリストについては、「[利用可能な基盤モデル](jumpstart-foundation-models-latest.md)」を参照してください。

### プロンプトテンプレート
<a name="clarify-automatic-jobs-summary-prompt-templates"></a>

選択した JumpStart モデルがすべてのプロンプトに対して適切に機能するように、SageMaker Clarify は入力プロンプトを選択したモデルと**評価ディメンション**に最適な形式に自動的に拡張します。Clarify が提供するデフォルトのプロンプトテンプレートを表示するには、評価ディメンションのカードで **[プロンプトテンプレート]** をクリックします。例えば、UI でタスクタイプの **[テキスト要約]** を選択すると、Clarify はデフォルトで、関連する評価ディメンションごとにカードを表示します。この場合の関連する評価ディメンションは、**[精度]**、**[毒性]**、**[セマンティックの頑健性]**です。このようなカードでは、Clarify が評価ディメンションを評価するために使用するデータセットとプロンプトテンプレートを設定できます。不要なディメンションを削除することもできます。

#### デフォルトのプロンプトテンプレート
<a name="clarify-automatic-jobs-summary-prompt-templates-default"></a>

Clarify は、各評価ディメンションの評価に使用できるデータセットの選択肢を提供しています。このようなデータセットを単一または複数使用することも、独自のカスタムデータセットを指定することもできます。Clarify が提供するデータセットを使用する場合、Clarify が挿入したプロンプトテンプレートをデフォルトとして使用することもできます。このようなデフォルトのプロンプトは、各データセットのレスポンス形式を分析し、同じ応答形式を得るために必要となるクエリ拡張を決定することで導き出されました。

Clarify が提供するプロンプトテンプレートも、選択したモデルによって異なります。プロンプトの特定の場所の指示を期待するようにファインチューニングされたモデルを選択できます。例えば、モデル **[meta-textgenerationneuron-llama-2-7b]**、タスクタイプ **[テキスト要約]**、Gigaword データセットを選択すると、以下のデフォルトのプロンプトテンプレートが表示されます。

```
Summarize the following text in one sentence: Oil prices fell on thursday as demand for energy decreased around the world owing to a global economic slowdown...
```

一方、llama チャットモデルの **[meta-textgenerationneuron-llama-2-7b-f]** を選択すると、以下のデフォルトのプロンプトテンプレートが表示されます。

```
[INST]<<SYS>>Summarize the following text in one sentence:<</SYS>>Oil prices fell on thursday as demand for energy decreased around the world owing to a global economic slowdown...[/INST]
```

#### カスタムプロンプトテンプレート
<a name="clarify-automatic-jobs-summary-prompt-templates-custom"></a>

プロンプトテンプレートダイアログボックスでは、SageMaker Clarify が提供する自動プロンプトテンプレートサポートをオンまたはオフに切り替えることができます。自動プロンプトテンプレートをオフにすると、Clarify はデフォルトのプロンプトを (同じ評価ディメンション内のすべてのデータセットのベースラインとして) 提供します。ユーザーは、これを変更できます。例えば、デフォルトのプロンプトテンプレートに「*以下を 1 文に要約する*」という指示が含まれている場合、これを「*以下を 100 語で要約する*」などの任意の指示に変更できます。

評価ディメンションのプロンプトを変更すると、同じディメンションを使用するすべてのデータセットに同じプロンプトが適用されます。つまり、「*以下のテキストを 17 文で要約する*」というプロンプトをデータセット Gigaword に適用する場合、データセット Government report にもこのような同じ指示が使用されます。別のデータセットに別のプロンプトを使用する場合は (同じタスクタイプと評価ディメンションを使用)、FMEval が提供する Python パッケージを使用できます。詳細については、「[`fmeval` ライブラリを使用してワークフローをカスタマイズする](clarify-foundation-model-evaluate-auto-lib-custom.md)」を参照してください。

**Example **[プロンプトテンプレート]** を使用した、更新されたプロンプトテンプレート例**  <a name="clarify-prompt-template"></a>
2 つのプロンプトのみで構成されるシンプルなデータセットがあり、これらを ****meta-textgenerationneuron-llama-2-7b-f**** を使用して評価するというシンプルなシナリオを想定してみます。  

```
{
	"model_input": "Is himalaya the highest mountain in the world?",
    "target_output": "False, Mt. Everest is the highest mountain in the world",
    "category": "Geography"
},
{
    "model_input": "Is Olympia the capital of Washington?",
    "target_output": "True",
    "category": "Capitals"
}
```
プロンプトは質問と回答のペアであるため、**[質問への回答 (Q&A)]** タスクタイプを選択します。  
Studio で **[プロンプトテンプレート]** を選択すると、SageMaker Clarify が ****meta-textgenerationneuron-llama-2-7b-f**** JumpStart モデルの要件に合わせてプロンプトをフォーマットする方法を確認できます。  

```
[INST]<<SYS>>Respond to the following question. Valid answers are "True" or "False".<<SYS>>Is himalaya the highest mountain in the world?[/INST]
```
このモデルでは、適切なプロンプト形式が含まれるように、SageMaker Clarify が、`[INST]` タグと `<<SYS>>` タグを追加してプロンプトを補足します。また、モデルの応答を向上するために、`Respond to the following question. Valid answers are "True" or "False".` を追加して、最初のリクエストを拡張します。  
ユースケースによっては、SageMaker Clarify が提供するテキストが適していない場合もあります。デフォルトのプロンプトテンプレートをオフにするには、**[データセットのデフォルトプロンプトテンプレート]** を **[オフ]** に切り替えます。  
プロンプトテンプレートは、ユースケースに応じて編集できます。例えば、次の行に示されるとおり、True/False の回答形式ではなく、短い応答を求めることができます。  

```
[INST]<<SYS>>Respond to the following question with a short response.<<SYS>>Is himalaya the highest mountain in the world?[/INST]
```
これで、指定した **[評価ディメンション]** の下にあるすべての組み込みプロンプトデータセットとカスタムプロンプトデータセットで、指定したプロンプトテンプレートを使用されるようになります。

## ヒューマンワーカーを使用したモデル評価ジョブ
<a name="clarify-human-jobs"></a>

**ヒューマンワーカー**を使用して、有用性やスタイルなど、より主観的な側面について、モデルの応答を手動で評価することもできます。ヒューマンワーカーを使用するモデル評価ジョブを作成するには、Studio を使用する必要があります。

ヒューマンワーカーを使用するモデル評価ジョブでは、最大 2 つの JumpStart モデルの応答を比較できます。必要に応じて、 外のモデルからのレスポンスを指定することもできます AWS。ヒューマンワーカーを使用するすべてのモデル評価ジョブでは、カスタムプロンプトデータセットを作成して、Amazon S3 に保存する必要があります。カスタムプロンプトデータの作成方法の詳細については、「[ヒューマンワーカーによるモデル評価ジョブの作成](clarify-foundation-model-evaluate-human.md#clarify-foundation-model-evaluate-human-run)」を参照してください。

Studio では、ヒューマンワークフォースがモデルからの応答を評価するために使用する基準を定義できます。Studio で利用可能なテンプレートを使用して、評価手順を文書化することもできます。さらに、Studio で作業チームを作成することもできます。作業チームとは、モデル評価ジョブに参加する必要がある人々を指します。