Ollama云版来了:仅一个邮箱可免费使用多个AI大模型
搭建过本地模型的童鞋可能知道这个平台,Ollama.com 是一个让你在本地电脑运行大模型的“AI运行平台”!仅需一行代码就可本地化部署AI模型!
26年3月中旬 Ollama 与 NVIDIA 云提供商 (NCP) 合作托管开放模型。并且不记录日志、不用于训练,也不制定任何数据保留政策。
不过官方把免费计划描述为 Light usage,适合聊天、体验大模型、较轻量的编码和助手场景。
它不是按固定 token 数或固定请求次数写死,而是按 实际云资源使用量 计量,主要取决于模型大小和请求持续时间。
免费限制
- 并发数限制:免费只能同时跑 1 个云模型
- 请求上限:5 小时 session 限额 + 7 天 weekly 限额
- 超限会报 429 超过速率或额度限制时会返回 HTTP 429 Too Many Requests。
由于官方并未明确限额 token数量限制,博主实测了一次请求,推算额度如下:
每 5 小时 session 限额:50W token
每 7 天 weekly 限额:100W token
简要操作
1,访问官网:https://ollama.com/,可使用任意邮箱注册。或直接使用Google,Github授权登录
2,访问 ollama.com/settings/keys ,添加 API keys
3,支持模型列表:Gemma4、Qwen3.5、Kimi K2.5、GLM-5、GPT-OSS、MiniMax M2.7 等等
访问:ollama.com/search?c=cloud 可查看所有可用模型
4,OpenAI兼容API地址:https://ollama.com/v1
5,在线测试 API
模型选择
调用API指定模型名称需要注意下!如果模型列表中名称包含-cloud结尾的模型才可用。
最后总结
1,注册账号比较简单,无需验证信誉卡,无需电话号码等信息,仅需一个邮箱
2,由于免费额度限制比较严重,不太使用直接给小龙虾
3,目前国内可直接请求API,响应速度还行
4,限制太多?Tokens不够?可多注册几个账号交替使用
版权声明:
作者:我是小马甲~
链接:https://fandai.gezi.workers.dev/19302.html
来源:如有乐享
文章版权归作者所有,未经允许请勿转载。



共有 0 条评论