Tham số (Parameters)
Chi tiết về tất cả các tham số có thể dùng trong Chat Completion request.
Tham số chính
ID model (format: provider/model-name). Xem danh sách đầy đủ.
Mảng messages. Mỗi message: { "role": "...", "content": "..." }
Sampling Parameters
0 → 2. Giá trị cao = sáng tạo hơn. Default: 1. Đặt 0 cho câu trả lời deterministic.
Nucleus sampling. 0.1 → chỉ xét top 10% probability mass. Dùng temperature HOẶC top_p.
Giới hạn chỉ xét top K tokens. Không phải tất cả models đều hỗ trợ (phụ thuộc provider).
-2.0 → 2.0. Giảm xác suất lặp lại token đã xuất hiện. Default: 0.
-2.0 → 2.0. Tăng xác suất nói về chủ đề mới. Default: 0.
Penalty nhân trên log-probs của token đã lặp. 1.0 = không penalty. >1 giảm lặp.
Output Parameters
Giới hạn tokens output. Mặc định tùy model (thường 4096). Nên set rõ để kiểm soát chi phí.
1–4 chuỗi stop. Model dừng khi generate ra một trong các chuỗi này.
Kích hoạt SSE streaming. Default: false.
Số lượng choices trả về. Default: 1. Lưu ý: n > 1 tính phí gấp bội.
Advanced Parameters
Danh sách function/tool definitions. Model sẽ trả tool_calls khi cần.
"auto" (mặc định), "none", "required", hoặc chỉ định tool cụ thể.
Yêu cầu output dạng JSON: { "type": "json_object" }. Cần nhắc trong system prompt.
Seed cho reproducible output. Kết hợp với temperature: 0 cho kết quả giống nhau giữa các lần gọi.
Ví dụ đầy đủ
{
"model": "anthropic/claude-sonnet-4",
"messages": [
{ "role": "system", "content": "Bạn là chuyên gia SEO." },
{ "role": "user", "content": "Phân tích SEO trang bizcity.vn" }
],
"temperature": 0.5,
"max_tokens": 2000,
"top_p": 0.9,
"frequency_penalty": 0.3,
"stop": ["###"],
"response_format": { "type": "json_object" }
}







