python调用openai兼容模型qwen及tvaily实现深度思考多步骤研究报告生成deepresearch代码
代码语言:python
所属分类:其他
代码描述:python调用openai兼容模型qwen及tvaily实现深度思考多步骤研究报告生成deepresearch代码
代码标签: python openai 兼容 模型 qwen tvaily 深度 思考 多步骤 研究 报告 生成
下面为部分代码预览,完整代码请点击下载或在bfwstudio webide中打开
#!/usr/local/python3/bin/python3 # -*- coding: utf-8 -* import os import time from dotenv import load_dotenv from openai import OpenAI import requests # 新增导入 import json # 新增导入 # 加载环境变量 load_dotenv() # --- 配置 --- # 从环境变量获取API Key API_KEY = "sk百炼申请apikey"#os.getenv("OPENAI_API_KEY") BASE_URL = "https://dashscope.aliyuncs.com/compatible-mode/v1"#os.getenv("OPENAI_BASE_URL") # 新增:获取 Base URL TAVILY_API_KEY ="tvly-"#os.getenv("TAVILY_API_KEY") # 新增:获取 Tavily Key申请地址:https://tavily.com/ if not API_KEY: raise ValueError("OPENAI_API_KEY not found. Please set it in your environment or .env file.") if not TAVILY_API_KEY: # 新增:检查 Tavily Key raise ValueError("TAVILY_API_KEY not found. Please set it in your environment or .env file.") # 初始化OpenAI客户端 # 可以替换成其他模型的客户端,如果使用其他服务提供商 # 新增:如果 BASE_URL 存在,则在初始化时传入 client_params = {"api_key": API_KEY} if BASE_URL: client_params["base_url"] = BASE_URL client = OpenAI(**client_params) # 使用的模型,根据需求和成本选择,gpt-4o-mini 是一个经济高效的选择 # 可以改为 "gpt-4o", "gpt-4-turbo", "gpt-3.5-turbo" 等 MODEL = "qwen-max" # --- 辅助函数:调用大模型 --- def call_llm(prompt, model=MODEL, temperature=0.7, max_tokens=2000): """ 调用大型语言模型并返回响应。 """ print(f"\n--- 正在调用 LLM (模型: {model}),Prompt片段: ---\n{prompt[:200]}...\n---") try: response = client.chat.completions.create( model=model, messages=[ {"role": "system", "content": "你是一个强大且乐于助人的研究助手。"}, {"role": "user", "content": prompt} ], temperature=temperature, max_tokens=max_tokens, ) content = response.choices[0].message.con.........完整代码请登录后点击上方下载按钮下载查看
网友评论0