

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# AnthropicClaudeAPI Penyelesaian Teks
<a name="model-parameters-anthropic-claude-text-completion"></a>

Bagian ini menyediakan parameter inferensi dan contoh kode untuk menggunakan Anthropic Claude model dengan Text Completions API.

**Topics**
+ [AnthropicClaudeIkhtisar API Penyelesaian Teks](#model-parameters-anthropic-claude-text-completion-overview)
+ [Model yang didukung](#claude-messages-supported-models)
+ [Permintaan dan Tanggapan](#model-parameters-anthropic-claude-text-completion-request-response)
+ [Contoh kode](#api-inference-examples-claude-text-completion)

## AnthropicClaudeIkhtisar API Penyelesaian Teks
<a name="model-parameters-anthropic-claude-text-completion-overview"></a>

Gunakan API Penyelesaian Teks untuk pembuatan teks satu putaran dari prompt yang disediakan pengguna. Misalnya, Anda dapat menggunakan Text Completion API untuk menghasilkan teks untuk posting blog atau untuk meringkas input teks dari pengguna.

Untuk informasi tentang membuat prompt untuk Anthropic Claude model, lihat [Pendahuluan untuk desain prompt](https://docs.anthropic.com/claude/docs/introduction-to-prompt-design). Jika Anda ingin menggunakan prompt Penyelesaian Teks yang ada dengan[AnthropicClaudePesan API](model-parameters-anthropic-claude-messages.md), lihat [Memigrasi dari](https://docs.anthropic.com/claude/reference/migrating-from-text-completions-to-messages) Penyelesaian Teks.

## Model yang didukung
<a name="claude-messages-supported-models"></a>

Anda dapat menggunakan API Penyelesaian Teks dengan Anthropic Claude model berikut.
+ AnthropicClaudeInstantv1.2
+ AnthropicClaudev2
+ AnthropicClaudev2.1 

## Permintaan dan Tanggapan
<a name="model-parameters-anthropic-claude-text-completion-request-response"></a>

Badan permintaan diteruskan di `body` bidang permintaan ke [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html)atau [InvokeModelWithResponseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithResponseStream.html). 

Untuk informasi selengkapnya, lihat [https://docs.anthropic.com/claude/referensi/complete\$1post](https://docs.anthropic.com/claude/reference/complete_post) di dokumentasi. Anthropic Claude

------
#### [ Request ]

AnthropicClaudememiliki parameter inferensi berikut untuk panggilan inferensi Penyelesaian Teks. 

```
{
    "prompt": "\n\nHuman:<prompt>\n\nAssistant:",
    "temperature": float,
    "top_p": float,
    "top_k": int,
    "max_tokens_to_sample": int,
    "stop_sequences": [string]
}
```

Berikut ini adalah parameter yang diperlukan.
+  **prompt** - (Wajib) Prompt yang Anda ingin Claude selesaikan. Untuk menghasilkan respons yang tepat, Anda perlu memformat prompt Anda menggunakan giliran bolak-balik `\n\nHuman:` dan `\n\nAssistant:` percakapan. Misalnya:

  ```
  "\n\nHuman: {userQuestion}\n\nAssistant:"
  ```

  Untuk informasi selengkapnya, lihat [Validasi cepat](https://docs.anthropic.com/claude/reference/prompt-validation) dalam Anthropic Claude dokumentasi. 
+  **max\$1tokens\$1to\$1sample** — (Wajib) Jumlah maksimum token yang akan dihasilkan sebelum berhenti. Kami merekomendasikan batas 4.000 token untuk kinerja optimal.

  Perhatikan bahwa Anthropic Claude model mungkin berhenti menghasilkan token sebelum mencapai nilai`max_tokens_to_sample`. AnthropicClaudeModel yang berbeda memiliki nilai maksimum yang berbeda untuk parameter ini. Untuk informasi selengkapnya, lihat [Perbandingan model](https://docs.anthropic.com/claude/docs/models-overview#model-comparison) dalam Anthropic Claude dokumentasi.     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/id_id/bedrock/latest/userguide/model-parameters-anthropic-claude-text-completion.html)

Berikut ini adalah parameter opsional.
+  **stop\$1sequences** — (Opsional) Urutan yang akan menyebabkan model berhenti menghasilkan.

  AnthropicClaudemodel berhenti aktif`"\n\nHuman:"`, dan mungkin termasuk urutan berhenti bawaan tambahan di masa mendatang. Gunakan parameter `stop_sequences` inferensi untuk menyertakan string tambahan yang akan memberi sinyal model untuk berhenti menghasilkan teks.
+  **suhu** — (Opsional) Jumlah keacakan yang disuntikkan ke dalam respons. Gunakan nilai yang mendekati 0 untuk pilihan analitik/ganda, dan nilai lebih dekat ke 1 untuk tugas kreatif dan generatif.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/id_id/bedrock/latest/userguide/model-parameters-anthropic-claude-text-completion.html)
+  **top\$1p** — (Opsional) Gunakan pengambilan sampel nukleus.

  Dalam pengambilan sampel nukleus, Anthropic Claude menghitung distribusi kumulatif atas semua opsi untuk setiap token berikutnya dalam urutan probabilitas yang menurun dan memotongnya setelah mencapai probabilitas tertentu yang ditentukan oleh. `top_p` Anda harus mengubah salah satu `temperature` atau`top_p`, tetapi tidak keduanya.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/id_id/bedrock/latest/userguide/model-parameters-anthropic-claude-text-completion.html)
+  **top\$1k** — (Opsional) Hanya sampel dari opsi K teratas untuk setiap token berikutnya.

  Gunakan `top_k` untuk menghapus respons probabilitas rendah ekor panjang.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/id_id/bedrock/latest/userguide/model-parameters-anthropic-claude-text-completion.html)

------
#### [ Response ]

AnthropicClaudeModel mengembalikan bidang berikut untuk panggilan inferensi Penyelesaian Teks. 

```
{
    "completion": string,
    "stop_reason": string,
    "stop": string
}
```
+ **penyelesaian** — Penyelesaian yang dihasilkan hingga dan tidak termasuk urutan berhenti.
+ **stop\$1reason** — Alasan mengapa model berhenti menghasilkan respons.
  + **“stop\$1sequence”** — Model mencapai urutan berhenti — baik disediakan oleh Anda dengan parameter `stop_sequences` inferensi, atau urutan berhenti yang dibangun ke dalam model.
  + **“max\$1tokens”** — Model terlampaui `max_tokens_to_sample` atau jumlah token maksimum model. 
+ **stop** - Jika Anda menentukan parameter `stop_sequences` inferensi, `stop` berisi urutan berhenti yang memberi sinyal model untuk berhenti menghasilkan teks. Misalnya, `holes` dalam tanggapan berikut.

  ```
  {
      "completion": " Here is a simple explanation of black ",
      "stop_reason": "stop_sequence",
      "stop": "holes"
  }
  ```

  Jika Anda tidak menentukan`stop_sequences`, nilai `stop` untuk kosong.

------

## Contoh kode
<a name="api-inference-examples-claude-text-completion"></a>

Contoh-contoh ini menunjukkan cara memanggil model *AnthropicClaudeV2* dengan throughput sesuai permintaan. Untuk menggunakan Anthropic Claude versi 2.1, ubah nilai `modelId` ke`anthropic.claude-v2:1`.

```
import boto3
import json
brt = boto3.client(service_name='bedrock-runtime')

body = json.dumps({
    "prompt": "\n\nHuman: explain black holes to 8th graders\n\nAssistant:",
    "max_tokens_to_sample": 300,
    "temperature": 0.1,
    "top_p": 0.9,
})

modelId = 'anthropic.claude-v2'
accept = 'application/json'
contentType = 'application/json'

response = brt.invoke_model(body=body, modelId=modelId, accept=accept, contentType=contentType)

response_body = json.loads(response.get('body').read())

# text
print(response_body.get('completion'))
```

Contoh berikut menunjukkan cara menghasilkan teks streaming dengan Python menggunakan prompt *write an essay for living on mars in 1000 words* dan model Anthropic Claude V2:

```
import boto3
import json

brt = boto3.client(service_name='bedrock-runtime')

body = json.dumps({
    'prompt': '\n\nHuman: write an essay for living on mars in 1000 words\n\nAssistant:',
    'max_tokens_to_sample': 4000
})
                   
response = brt.invoke_model_with_response_stream(
    modelId='anthropic.claude-v2', 
    body=body
)
    
stream = response.get('body')
if stream:
    for event in stream:
        chunk = event.get('chunk')
        if chunk:
            print(json.loads(chunk.get('bytes').decode()))
```