跳到主要内容

LLM 模型联网搜索

🌐 实时联网支持:突破 LLM 时效限制,让输出更准确、更可靠

我们为 OpenAI 和 Gemini 系列大模型接口带来了获取最新网络信息的能力,帮助你:
获取最新资讯:无论是今日热点、最新研究还是实时数据,都能即时获取
消除知识盲区:突破大模型训练数据的时间限制,获取训练后的新信息
降低幻觉风险:基于实时网络搜索的事实回答,大幅减少 AI 已读乱回的可能性
提升决策质量:基于最新事实的分析和建议,让你的决策更有把握

支持的模型

目前支持 OpenAI 和 Gemini 大模型系列,包含两种接入方式:

1. 原生搜索能力模型

Gemini 系列 (Ground with Google search):

  • gemini-2.0-pro-exp-02-05-search
  • gemini-2.0-flash-exp-search
  • gemini-2.0-flash-search

OpenAI 系列 (Bing search):

  • gpt-4o-search-preview
  • gpt-4o-mini-search-preview

2. 参数支持方式

只需增加参数web_search_options={},即可为所有gemini、OpenAI大模型开启联网能力。Gemini 系列的搜索费率为 3.5 美元/千次;

3. 后续计划

我们计划通过参数后缀来开启 Web 搜索,让开发者调用更轻松,敬请期待。

使用方法

OpenAI SDK支持

使用前需要运行pip install -U openai升级openai包。

Python示例

from openai import OpenAI

client = OpenAI(
api_key="sk-***",
base_url="https://aihubmix.com/v1"
)

chat_completion = client.chat.completions.create(
model="gemini-2.0-flash-exp",
# 🌐 启用搜索
web_search_options={},
messages=[
{
"role": "user",
"content": [
{
"type": "text",
"text": "搜索大模型 API 平台 AIhubmix 的相关资讯,简短介绍,并提供相关链接。"
}
]
}
]
)

print(chat_completion.choices[0].message.content)

TypeScript示例

import OpenAI from 'openai';

const client = new OpenAI({
apiKey: 'sk-***',
baseURL: 'https://aihubmix.com/v1'
});

async function main() {
const chatCompletion = await client.chat.completions.create({
model: 'gemini-2.0-flash-exp',
// 🌐 启用搜索
web_search_options: {},
messages: [
{
role: 'user',
content: [
{
type: 'text',
text: '搜索大模型 API 平台 AIhubmix 的相关资讯,简短介绍,并提供相关链接。'
}
]
}
]
});

console.log(chatCompletion.choices[0].message.content);
}

main().catch(console.error);

CURL示例

curl "https://aihubmix.com/v1/chat/completions" \
-H "Content-Type: application/json" \
-H "Authorization: Bearer xxx" \
-d '{
"model": "gemini-2.0-flash-exp",
"web_search_options": {},
"messages": [
{
"role": "user",
"content": [
{
"type": "text",
"text": "提供梵高在 Google Arts & Culture 网站的相关信息,简短介绍,并提供相关链接。"
}
]
}
],
"stream": false
}'