python调用openai兼容模型qwen及tvaily实现深度思考多步骤研究报告生成deepresearch代码

代码语言:python

所属分类:其他

代码描述:python调用openai兼容模型qwen及tvaily实现深度思考多步骤研究报告生成deepresearch代码

代码标签: python openai 兼容 模型 qwen tvaily 深度 思考 多步骤 研究 报告 生成

下面为部分代码预览,完整代码请点击下载或在bfwstudio webide中打开

#!/usr/local/python3/bin/python3
# -*- coding: utf-8 -*
import os
import time
from dotenv import load_dotenv
from openai import OpenAI
import requests # 新增导入
import json     # 新增导入

# 加载环境变量
load_dotenv()

# --- 配置 ---
# 从环境变量获取API Key
API_KEY = "sk百炼申请apikey"#os.getenv("OPENAI_API_KEY")
BASE_URL = "https://dashscope.aliyuncs.com/compatible-mode/v1"#os.getenv("OPENAI_BASE_URL") # 新增:获取 Base URL
TAVILY_API_KEY ="tvly-"#os.getenv("TAVILY_API_KEY") # 新增:获取 Tavily Key申请地址:https://tavily.com/

if not API_KEY:
    raise ValueError("OPENAI_API_KEY not found. Please set it in your environment or .env file.")
if not TAVILY_API_KEY: # 新增:检查 Tavily Key
    raise ValueError("TAVILY_API_KEY not found. Please set it in your environment or .env file.")

# 初始化OpenAI客户端
# 可以替换成其他模型的客户端,如果使用其他服务提供商
# 新增:如果 BASE_URL 存在,则在初始化时传入
client_params = {"api_key": API_KEY}
if BASE_URL:
    client_params["base_url"] = BASE_URL
client = OpenAI(**client_params)

# 使用的模型,根据需求和成本选择,gpt-4o-mini 是一个经济高效的选择
# 可以改为 "gpt-4o", "gpt-4-turbo", "gpt-3.5-turbo" 等
MODEL = "qwen-max"

# --- 辅助函数:调用大模型 ---
def call_llm(prompt, model=MODEL, temperature=0.7, max_tokens=2000):
    """
    调用大型语言模型并返回响应。
    """
    print(f"\n--- 正在调用 LLM (模型: {model}),Prompt片段: ---\n{prompt[:200]}...\n---")
    try:
        response = client.chat.completions.create(
            model=model,
            messages=[
                {"role": "system", "content": "你是一个强大且乐于助人的研究助手。"},
                {"role": "user", "content": prompt}
            ],
            temperature=temperature,
            max_tokens=max_tokens,
        )
        content = response.choices[0].message.con.........完整代码请登录后点击上方下载按钮下载查看

网友评论0