- llm_response_schema_v2.json: object-only, PATCH_FILE, base_sha256 - PAPAYU_PROTOCOL_VERSION=1|2 (default 1) - schema_version and schema_hash dynamic in trace/log - compiled_response_schema uses v1 or v2 by protocol - response_format sends v2 schema when protocol=2 - Tests: test_schema_v2_compiles, test_schema_hash_non_empty_v2 - trace_to_golden: schema_hash_for_version by trace schema_version Co-authored-by: Cursor <cursoragent@cursor.com>
36 lines
1.7 KiB
Plaintext
36 lines
1.7 KiB
Plaintext
# Скопируйте этот файл в .env.openai и подставьте свой ключ OpenAI.
|
||
# Команда: cp env.openai.example .env.openai
|
||
# Затем откройте .env.openai и замените your-openai-key-here на ваш ключ.
|
||
|
||
PAPAYU_LLM_API_URL=https://api.openai.com/v1/chat/completions
|
||
PAPAYU_LLM_API_KEY=your-openai-key-here
|
||
PAPAYU_LLM_MODEL=gpt-4o-mini
|
||
|
||
# Строгий JSON (OpenAI Structured Outputs): добавляет response_format с JSON Schema.
|
||
# Работает с OpenAI; Ollama и др. могут не поддерживать — не задавать или =0.
|
||
# PAPAYU_LLM_STRICT_JSON=1
|
||
|
||
# memory_patch: 0 (по умолчанию) — игнорировать; 1 — применять по whitelist.
|
||
# PAPAYU_MEMORY_AUTOPATCH=0
|
||
|
||
# EOL: keep (по умолчанию) — не менять; lf — нормализовать \r\n→\n, trailing newline.
|
||
# PAPAYU_NORMALIZE_EOL=lf
|
||
|
||
# LLM: температура 0 (детерминизм), max_tokens 16384 (авто-кэп при input>80k → 4096).
|
||
# PAPAYU_LLM_TEMPERATURE=0
|
||
# PAPAYU_LLM_MAX_TOKENS=16384
|
||
|
||
# Таймаут запроса к LLM (сек).
|
||
# PAPAYU_LLM_TIMEOUT_SEC=90
|
||
|
||
# Трассировка: PAPAYU_TRACE=1 → пишет в .papa-yu/traces/<trace_id>.json (без raw_content по умолчанию).
|
||
# PAPAYU_TRACE=1
|
||
# PAPAYU_TRACE_RAW=1 — сохранять raw_content (с маскировкой sk-/Bearer)
|
||
|
||
# PAPAYU_PROTOCOL_VERSION=1|2 — версия схемы (default 1; v2 — PATCH_FILE, object-only)
|
||
|
||
# Контекст-диета: max 8 файлов, 20k на файл, 120k total.
|
||
# PAPAYU_CONTEXT_MAX_FILES=8
|
||
# PAPAYU_CONTEXT_MAX_FILE_CHARS=20000
|
||
# PAPAYU_CONTEXT_MAX_TOTAL_CHARS=120000
|