浏览器中js调用ollama大模型api实现兼容openai流式问答输出代码

代码语言:html

所属分类:其他

代码描述:浏览器中js调用ollama大模型api实现兼容openai流式问答输出代码,使用类似chat/completions,将stream设成true。

代码标签: 浏览器 js 调用 ollama 大模型 api 兼容 openai 流式 问答 输出 代码

下面为部分代码预览,完整代码请点击下载或在bfwstudio webide中打开

<!DOCTYPE html>
<html>
<head>
    <meta charset="UTF-8">
    <meta name="viewport" content="width=device-width,initial-scale=1.0,maximum=1.0,minimum=1.0,user-scalable=0" />

<script type="module">
       
    // 准备要发送的数据
const data = {
    "stream":true,
    "model": "gemma:2b",
    "messages": [
        {
            "role": "system",
            "content": "You are a helpful assistant."
        },
        {
            "role": "user",
            "content": "你是谁?!"
        }
    ]
};

// 使用fetch发送请求
const response  =  await fetch('http://localhost:11434/v1/chat/completions', {
    method: 'POST', // 请求方法
    headers: {
        'Content-Type': 'application/json' // 设置请求头
    },
    body: JSON.stringify(data) // 请求体
});
 // 检查响应状态码
 if (!response.ok) {
      throw new Error(`HTTP error! status: ${response.status}${response.statusText}`);
    }
    
    // 将响应体设置为可读流,并逐步输出数据到可写流
    const reader = response.body.getReader();
    const decoder = new TextD.........完整代码请登录后点击上方下载按钮下载查看

网友评论0