# AI Novel Writer Configuration Example # 复制此文件为 config.yaml 并根据需要修改 # 项目目录配置 - 指定包含梗概大纲.md和章节目录.yaml的文件夹 project_dir: "novel1" # 将在此目录下查找梗概大纲.md和章节目录.yaml # 提示词配置 prompt_config: previous_chapters_count: 2 # 提示词中包含前n章节的完整内容,默认为2 writing_style: "现代科幻小说风格,语言简洁明快,注重科技细节描写和人物心理刻画,营造紧张悬疑的氛围。文字要有画面感,对话自然流畅,情节推进节奏紧凑。" # 文风描述 # 小说家LLM配置 - 用于生成小说内容 novelist_llm: type: "openai" # 支持: "openai", "openai_compatible", "ollama" model: "gpt-4" # 推荐使用GPT-4以获得更好的创作质量 temperature: 0.7 # 创造性参数,0.7-0.8适合创作 max_tokens: 3000 # 每个小节的最大token数 # api_key: "your-api-key-here" # 或设置环境变量 OPENAI_API_KEY # base_url: "https://api.openai.com/v1" # 默认OpenAI API地址 # 总结器LLM配置 - 用于生成章节总结 summarizer_llm: type: "openai" model: "gpt-3.5-turbo" # 总结任务可以使用较便宜的模型 temperature: 0.3 # 总结需要更准确,降低随机性 max_tokens: 500 # 总结较短 # api_key: "your-api-key-here" # 或设置环境变量 OPENAI_API_KEY # 注意:输出文件将自动保存在project_dir指定的目录中 # - 章节文件保存在 project_dir/chapters/ 目录下 # - 完整小说保存为 project_dir/小说标题.md # ===== 其他供应商配置示例 ===== # OpenRouter配置示例(取消注释使用) # novelist_llm: # type: "openai_compatible" # model: "anthropic/claude-3-haiku" # 或其他OpenRouter支持的模型 # temperature: 0.7 # max_tokens: 3000 # base_url: "https://openrouter.ai/api/v1" # api_key: "sk-or-..." # 或设置环境变量 OPENROUTER_API_KEY # Ollama配置示例(取消注释使用) # novelist_llm: # type: "ollama" # model: "llama3.1" # 或其他本地模型 # temperature: 0.7 # base_url: "http://localhost:11434" # 或设置环境变量 OLLAMA_BASE_URL # 混合配置示例:使用不同供应商的不同模型 # novelist_llm: # type: "openai" # model: "gpt-4" # api_key: "your-openai-key" # # summarizer_llm: # type: "ollama" # model: "llama3.1" # base_url: "http://localhost:11434"