浏览器中js调用ollama大模型api实现兼容openai流式问答输出代码
代码语言:html
所属分类:其他
代码描述:浏览器中js调用ollama大模型api实现兼容openai流式问答输出代码,使用类似chat/completions,将stream设成true。
代码标签: 浏览器 js 调用 ollama 大模型 api 兼容 openai 流式 问答 输出 代码
下面为部分代码预览,完整代码请点击下载或在bfwstudio webide中打开
<!DOCTYPE html> <html> <head> <meta charset="UTF-8"> <meta name="viewport" content="width=device-width,initial-scale=1.0,maximum=1.0,minimum=1.0,user-scalable=0" /> <script type="module"> // 准备要发送的数据 const data = { "stream":true, "model": "gemma:2b", "messages": [ { "role": "system", "content": "You are a helpful assistant." }, { "role": "user", "content": "你是谁?!" } ] }; // 使用fetch发送请求 const response = await fetch('http://localhost:11434/v1/chat/completions', { method: 'POST', // 请求方法 headers: { 'Content-Type': 'application/json' // 设置请求头 }, body: JSON.stringify(data) // 请求体 }); // 检查响应状态码 if (!response.ok) { throw new Error(`HTTP error! status: ${response.status}${response.statusText}`); } // 将响应体设置为可读流,并逐步输出数据到可写流 const reader = response.body.getReader(); const decoder = new TextD.........完整代码请登录后点击上方下载按钮下载查看
网友评论0