kero990
2024-09-02 11:56 deepin
另外推荐deepseek作为收费的主力推荐,推荐原因是性能非常不错,而且api价格非常便宜,基本冲个10块一年都用不完那种。
而且官网使用是免费的,只有调用api才是需要付费。日常直接使用网页版即可。
Reply Like 0 View the author
另外推荐deepseek作为收费的主力推荐,推荐原因是性能非常不错,而且api价格非常便宜,基本冲个10块一年都用不完那种。
而且官网使用是免费的,只有调用api才是需要付费。日常直接使用网页版即可。
挺好
还是阿里云这个真善人好,cf神经抽风网速太感人。
就是deepin上代码块不单独显示这就很烦
庆祝UOS版UOS AI开放自定义API,分享下目前可免费使用的api列表
两个论坛都发吧,虽然deepin的UOS AI早就支持了自定义,不过UOS本体反而一直没动静。今天看到了新版本的更新,作为祝贺,分享下我所知道的一些市面上可以免费使用(白嫖)的api提供商。
百度千帆、讯飞星火,智谱等自家api且程序自带接口的,这里就不提了
不过智谱最近免费了旗下的glm-4-flash,建议通过自定义添加而不是自带的智谱接口,不然不是这个模型。
一、字节扣子coze.cn
控制台地址: https://www.coze.cn/open/api
文档地址: https://www.coze.cn/docs/developer_guides/coze_api_overview
模型列表: 豆包·Function call模型(32K)、通义千问-Max(8K)、MiniMax 6.5s(245K)、Moonshot(8K)、Moonshot(32K)、Moonshot(128K)
限制: QPS (每秒发送的请求数):2,QPM (每分钟发送的请求数):60,QPD (每天发送的请求数):3000
说明:主要字节系自家模型,我没怎么用过所以不作评价,也不知道免费模型的性能和参数量,喜欢的可以用。
另外同样字节旗下的火山引擎,之前提供不少免费接口,现在都改为了付费,所以就不单独列出了。但它仍提供了开源的Llama3-70B的免费限量测试,能用多久不知道了,70b的免费确实不多见。
二、硅基流动(siliconCloud)
文档地址: https://docs.siliconflow.cn/reference/chat-completions-1
免费模型列表:
三、Llama Family
这个限时免费,不知道什么时候结束,主要是提供了更大的Atom-13B-Chat和看名字应该经过中文优化的Llama3-Chinese-8B-Instruct可以用。
控制台地址: https://llama.family/docs/secret
文档地址: https://llama.family/docs/chat-completion-v1
免费模型列表: Atom-13B-Chat,Atom-7B-Chat,Llama3-8B,Llama3-Chinese-8B-Instruct
限制: 1.每天 8-22 点:接口限速每分钟 20 次并发;2.每天 22-次日 8 点:接口限速每分钟 50 次并发
四、阿里灵积
阿里云旗下,模型茫茫多,市面上你能见到的模型阿里几乎都提供了,不过多的问题就在于很多模型是限时免费的,很可能不知不觉改收费你不知道,有被反薅的风险。模型里有特色的的是提供了零一万物的yi-34b-chat,这可能是免费的最大的模型了。
阿里的模型需要一个一个去开通。
控制台地址: https://dashscope.console.aliyun.com/overview
文档地址: https://help.aliyun.com/zh/dashscope/developer-reference/text-to-text/?spm=a2c4g.11186623.0.0.6577193e9BWThk
免费模型列表: "chatglm3-6b","baichuan-7b-v1","yi-6b-chat","yi-34b-chat","aquilachat-7b","deepseek-7b-chat","internlm-7b-chat","qwen2-1.5b-instruct","qwen2-0.5b-instruct","qwen1.5-1.8b-chat","qwen1.5-0.5b-chat","qwen-1.8b-chat"
限制: 限时免费。以下条件任何一个超出都会触发限流:
流量 ≤ 120 QPM,每分钟处理不超过120个完整的请求;
Token消耗 ≤ 200,000 TPM,每分钟消耗的Token数目不超过200,000。
五、cloudflare
赛博大善人cloudflare的大名懂得都懂
除了提供了网页版的ai体验站
https://playground.ai.cloudflare.com/
之外,所有模型也都支持api调用。推荐熟悉cloudflare的用户使用,另外国内访问响应速度比较感人。
控制台地址: https://dash.cloudflare.com/
文档地址: https://developers.cloudflare.com/workers-ai/configuration/open-ai-compatibility/
免费模型列表: 太多了不列了,可以自己去网页版先看。
限制: 免费模型可以每天使用总计1万次,一个月可以30万次;测试版本的模型无任何限制
放上一张我自己刚刚配置好的图。
最后说下对UOS AI的期望吧,一个自然是抓紧非通用模型的接入。虽然文生图、图生图国内外很少有免费的,但UOS AI作为一个客户端而不是ai提供商,本身也不是只推免费的。虽然我这个文章写免费api,但实际上免费模型的性能也就那样,完全没法和gpt4o这种抗衡。
另一个是,现有的api提供商,往往一个地址和api key提供多种模型可选,UOS AI目前的配置逻辑还是面向模型而不是面向api提供商,这个思路要转变,包括默认提供接口和自定义接口都是如此。