跳到主要内容

常见问题

为什么 gpt-4 额度消耗这么快?

  • gpt-4 的消耗速度是 gpt-3.5-turbo 的 20 到 40 倍,假设购买了 9w token,我们用 30 倍作为平均倍率,也就是 90000 / 30 = 3000 字左右,加上每次要附带上历史消息,能发的消息数将会进一步减半,在最极限的情况下,一条消息就能把 9w token 消耗完,所以请谨慎使用。

使用 Next Web 时,有哪些节省 token 的小技巧?

  • 点开对话框上方的设置按钮,找到里面的设置项:
    • 携带历史消息数:数量越少,消耗 token 越少,但同时 gpt 会忘记之前的对话
    • 历史摘要:用于记录长期话题,关闭后可以减少 token 消耗
    • 注入系统级提示词:用于提升 ChatGPT 的回复质量,关闭后可减少 token 消耗
  • 点开左下角设置按钮,关闭自动生成标题,可以减少 token 消耗
  • 在对话时,点击对话框上方的机器人图标,可以快捷切换模型,可以优先使用 3.5 问答,如果回答不满意,再切换为 4.0 重新提问。

为什么GPT4不知道它自己是谁?

直接问GPT4:”你是谁?““你是什么模型?”诸如此类问题,一般情况下GPT4的API也会回答自己是GPT3,估计是官方预置的原因。GPT4和3.5用的都是2021年之前的数据,那时候还没有GPT4。
官网和某些套壳不回答是GPT3,是因为他们提前预设了提示词,让GPT认为自己是别的模型了,这个可以通过问答所消耗的总token看出来,预设提示词是会消耗token的。
如果说你对比官网和API的回答,发现有所不一,那也很正常。一是因为,GPT4对同一个问题的每次回答都是不同的;二是,官网对GPT4的参数进行了一定的优化。

可见知乎上的科普:

https://zhuanlan.zhihu.com/p/646500946

为什么GPT4会给出这么弱智的回答,我还是觉得你们是假的GPT4?

GPT4也不是万能的,训练参数并不比GPT3大多少,不用因为营销号的宣传神话GPT4。而且由于中文语料在训练中的占比很小,在回答中文问题时,不排除在某些问题上表现不佳,同样的问题用英文问可能结果完全不一样,您可以试着用英文提问试试。
GPT4强在推理能力,从目前大家的使用体验中来看,写代码方面会比gpt3.5强很多,但仍然会给出胡编的答案。

如何检验GPT3.5还是GPT4?

我们提供了一个简单的方法来验证您使用的是GPT3.5还是GPT4。以下是一些测试问题及 其不同模型的预期回答,您可以使用这些问题来测试。 测试问题:
•昨天的当天的明天是哪天?GPT-3.5应答“昨天”,而GPT-4应答“今天”。 •树上有9只鸟,猎人射杀了一只,还剩下多少只?GPT-3.5可能说“8只”,GPT-4会告诉你“0 只,其他的鸟都飞走了”。
•为什么周树人要打鲁迅?GPT-3.5可能给出一个编造的答案,而GPT-4会指出“鲁迅”和”周树人"是同一个人。

我不信,你们就是套壳3.5,骗人是gpt4

平台每个月都会在gpt接口上支付给供应商大量的成本,如果您因为自己不懂行区分不出来底层是不是gpt4,还非要坚信自己的判断,那只能说您不是平台的客户群体。您可以去用你"觉得"是"真"GPT4的其他平台的服务。

那GPT4和GPT3.5到底有什么差别?

从模型的角度讲,GPT3.5最大只支持4k,也就是大约2000个汉字左右,超过这个token数量就会报错, 无法处理。我们的gpt-4 模型支持最大8k(约4000个汉字),gpt-4-32k 模型支持最大32k(约16000个汉字),这个是接口层面最大的区别,可以传入超长上下文让GPT4学习和处理,这个是GPT3.5做不到的。
从实际效果上讲,GPT4对于需要复杂逻辑推理的问题会体现出明显的优势,OpenAI推出GPT4时,给出过一个例子,就是列出好几个人可以参会的时间,让GPT找出一个大家都有空的时间,GPT3给出的答案是错误的废话,GPT4给出的答案就是对。不过经过实际测试,只有在英文提问时才能表现出这种准确性,同样的问题翻译为中文答案就是错误的,可见GPT4目前并不是银弹,只是一个GPT3.5的进化版,还有很多不尽人意的地方。这方面网上有很多测评博主都测评过,您可以学习下他们怎么测试的。

为什么后台创建key没有显示已用额度

当设置成无限额度后,不会更新已用额度,修改无限额度为有限额度即可

用户协议
付款即视为同意本协议!否则请不要付款!

  1. 本服务不会以任何形式持久化存储任何用户的任何聊天信息;
  2. 本服务不知晓也无从知晓用户在本服务上传输的任何文本内容,用户使用本服务引发的任何违法犯罪后果,由使用者承担,本服务将全力配合由此可能引起的相关调查;