

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Pantau penggunaan token Anda dengan menghitung token sebelum menjalankan inferensi
<a name="count-tokens"></a>

Saat Anda menjalankan inferensi model, jumlah token yang Anda kirim dalam input berkontribusi pada biaya permintaan dan terhadap kuota token yang dapat Anda gunakan per menit dan per hari. [CountTokens](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_CountTokens.html)API membantu Anda memperkirakan penggunaan token sebelum mengirim permintaan ke model foundation dengan mengembalikan jumlah token yang akan digunakan jika input yang sama dikirim ke model dalam permintaan inferensi.

**catatan**  
Menggunakan [CountTokens](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_CountTokens.html)API tidak dikenakan biaya.

Penghitungan token adalah model khusus karena model yang berbeda menggunakan strategi tokenisasi yang berbeda. Jumlah token yang dikembalikan oleh operasi ini akan cocok dengan jumlah token yang akan dibebankan jika input yang sama dikirim ke model untuk menjalankan inferensi.

Anda dapat menggunakan `CountTokens` API untuk melakukan hal berikut:
+ Perkirakan biaya sebelum mengirim permintaan inferensi.
+ Optimalkan prompt agar sesuai dengan batas token.
+ Rencanakan penggunaan token dalam aplikasi Anda.

**Topics**
+ [Model dan Wilayah yang didukung untuk penghitungan token](#count-tokens-supported)
+ [Hitung token dalam permintaan](#count-tokens-use)
+ [Coba contoh](#count-tokens-example)

## Model dan Wilayah yang didukung untuk penghitungan token
<a name="count-tokens-supported"></a>

Tabel berikut menunjukkan dukungan model dasar untuk penghitungan token:


| Penyedia | Model | ID Model | Dukungan model wilayah tunggal | 
| --- | --- | --- | --- | 
| Antropik | Claude 3.5 Haiku | anthropic.claude-3-5-haiku-20241022-v 1:0 |  us-west-2  | 
| Antropik | Claude 3.5 Soneta | anthropic.claude-3-5-sonnet-20240620-v 1:0 |  ap-northeast-1 ap-southeast-1 eu-central-1 eu-central-2 us-east-1 us-west-2  | 
| Antropik | Claude 3.5 Soneta v2 | anthropic.claude-3-5-sonnet-20241022-v 2:0 |  ap-southeast-2 us-west-2  | 
| Antropik | Claude 3.7 Soneta | anthropic.claude-3-7-sonnet-20250219-v 1:0 |  eu-west-2  | 
| Antropik | Claude Opus 4 | anthropic.claude-opus-4-20250514-v 1:0 |  | 
| Antropik | Claude Soneta 4 | anthropic.claude-sonnet-4-20250514-v 1:0 |  | 

## Hitung token dalam permintaan
<a name="count-tokens-use"></a>

Untuk menghitung jumlah token input dalam permintaan inferensi, kirim [CountTokens](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_CountTokens.html)permintaan dengan [titik akhir runtime Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-rt), Tentukan model di header dan input untuk menghitung token di bidang. `body` Nilai `body` bidang tergantung pada apakah Anda menghitung token input untuk permintaan [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html)atau [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html):
+ Untuk `InvokeModel` permintaan, format `body` adalah string yang mewakili objek JSON yang formatnya bergantung pada model yang Anda tentukan.
+ Untuk `Converse` permintaan, format `body` adalah objek JSON yang menentukan `messages` dan `system` prompt yang disertakan dalam percakapan.

## Coba contoh
<a name="count-tokens-example"></a>

Contoh di bagian ini memungkinkan Anda menghitung token untuk `Converse` permintaan `InvokeModel` dan permintaan AnthropicClaude 3 Haiku.

**Prasyarat**
+ Anda telah mengunduh AWS SDK untuk Python (Boto3) dan konfigurasi Anda diatur sedemikian rupa sehingga kredensi dan AWS Wilayah default Anda dikenali secara otomatis.
+ Identitas IAM Anda memiliki izin untuk tindakan berikut (untuk informasi selengkapnya, lihat [Kunci tindakan, sumber daya, dan kondisi untuk Amazon Bedrock](https://docs.aws.amazon.com/service-authorization/latest/reference/list_amazonbedrock.html)):
  + batuan dasar: CountTokens — Memungkinkan penggunaan. `CountTokens`
  + batuan dasar: InvokeModel — Memungkinkan penggunaan `InvokeModel` dan`Converse`. Harus dicakup*arn:\$1\$1Partition\$1:bedrock:\$1\$1Region\$1::foundation-model/anthropic.claude-3-haiku-20240307-v1:0*, minimal.

Untuk mencoba menghitung token untuk [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html)permintaan, jalankan kode Python berikut:

```
import boto3
import json

bedrock_runtime = boto3.client("bedrock-runtime")

input_to_count = json.dumps({
    "anthropic_version": "bedrock-2023-05-31",
    "max_tokens": 500,
    "messages": [
        {
            "role": "user",
            "content": "What is the capital of France?"
        }
    ]
})

response = bedrock_runtime.count_tokens(
    modelId="anthropic.claude-3-5-haiku-20241022-v1:0",
    input={
        "invokeModel": {
            "body": input_to_count
        }
    }
)

print(response["inputTokens"])
```

Untuk mencoba menghitung token untuk permintaan [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html), jalankan kode Python berikut:

```
import boto3
import json 

bedrock_runtime = boto3.client("bedrock-runtime")

input_to_count = {
    "messages": [
        {
            "role": "user",
            "content": [
                {
                    "text": "What is the capital of France?"
                }
            ]
        },
        {
            "role": "assistant",
            "content": [
                {
                    "text": "The capital of France is Paris."
                }
            ]
        },
        {
            "role": "user",
            "content": [
                {
                    "text": "What is its population?"
                }
            ]
        }
    ],
    "system": [
        {
            "text": "You're an expert in geography."
        }
    ]
}

response = bedrock_runtime.count_tokens(
    modelId="anthropic.claude-3-5-haiku-20241022-v1:0",
    input={
        "converse": input_to_count
    }
)

print(response["inputTokens"])
```