+
DevOps研发效能
媒体矩阵
开源中国APP
授权协议 MIT
操作系统 跨平台
软件类型 开源软件
开源组织
地区 不详
投 递 者 白开水不加糖
适用人群 未知
收录时间 2023-10-25

软件简介

Ollama 是一款命令行工具,可在 macOS 和 Linux 上本地运行 Llama 2、Code Llama 和其他模型。目前适用于 macOS 和 Linux,并计划支持 Windows。

Ollama 目前支持近二十多个语言模型系列,每个模型系列都有许多可用的"tags"。Tags 是模型的变体,这些模型使用不同的微调方法以不同的规模进行训练,并以不同的级别进行量化,以便在本地良好运行。量化级别越高,模型越精确,但运行速度越慢,所需的内存也越大。

以下是一些可以下载的开源模型示例:

Model Parameters Size Download
Mistral 7B 4.1GB ollama run mistral
Llama 2 7B 3.8GB ollama run llama2
Code Llama 7B 3.8GB ollama run codellama
Llama 2 Uncensored 7B 3.8GB ollama run llama2-uncensored
Llama 2 13B 13B 7.3GB ollama run llama2:13b
Llama 2 70B 70B 39GB ollama run llama2:70b
Orca Mini 3B 1.9GB ollama run orca-mini
Vicuna 7B 3.8GB ollama run vicuna

注意:需要至少有 8 GB 的 RAM 来运行 3B 模型,16 GB 的 RAM 来运行 7B 模型,32 GB 的 RAM 来运行 13B 模型。

展开阅读全文

代码

的 Gitee 指数为
超过 的项目

评论

点击加入讨论🔥(4) 发布并加入讨论🔥
发表了资讯
2025/11/04 18:39

Ollama v0.12.8 发布,开源跨平台大模型工具

开源本地大模型运行工具 Ollama 发布了 v0.12.8 版本。 新功能 针对模型 qwen3‑vl(“qwen3-vl”)做了性能提升,包括默认支持 Flash Attention。 在 “thinking” 过程(即模型输出前推理)中,qwen3-vl 现在会 减少前导空白字符(leading whitespace)输出。 Bug 修复 修复了一个 bug:当通过 DeepSeek‑v3.1 思考(thinking)功能禁用时,Ollama 新的应用中不能正确关闭该思考功能的问题。 修复了 qwen3-vl 在 带透明背景图...

0
0
发表了资讯
2025/09/26 11:34

Ollama 上线 “Web search” API,为 LLM 集成实时网络搜索能力

Ollama 宣布推出 “Web search” API,让大语言模型能够实时访问互联网信息,提升回答的准确性并减少幻觉。 该功能支持 REST API,并已集成到 Ollama 的 Python 与 JavaScript 库中,开发者可以在应用中快速调用。同时,Ollama 还提供 web fetch 接口,用于获取指定网页的完整内容(标题、正文和链接)。 开发者可以基于 web search 与 web fetch 构建智能搜索代理,让模型在对话中自动调用外部信息。此外还支持在 MCP(Model C...

0
0
发表了资讯
2025/09/03 11:35

开源跨平台大模型工具 Ollama 发布 0.11.9-rc0 测试版

ollama 团队近日发布了 0.11.9-rc0 测试版,重点提升了 CPU/GPU 并行性能。此次更新引入了新的执行机制,让 GPU 在处理当前批次任务的同时,CPU 可以并行准备下一批计算,从而减少 GPU 空闲等待时间,旨在提升其在多平台运行 AI 大语言模型时的整体性能。 在实测中,macOS Metal 环境下 token 处理速度提升约 2–3%,而在 GeForce RTX 4090 上提升幅度约 7%。 此外,新版本还修复了 AMD GPU 无法识别的问题,并解决了 macOS 与 ...

0
0
发表了资讯
2025/08/06 17:06

Ollama 推出付费服务“Turbo”

Ollama 推出了名为“Turbo”的付费服务,旨在解决本地运行超大模型的性能瓶颈,让用户在数据中心级的硬件上运行大型开源模型,服务月费为 20 美元。 Ollama “Turbo”适用场景: 本地显卡显存不足,无法加载 120B 级别模型 需要快速原型验证、批量推理或高并发调用 希望保持本地环境简洁,同时获得接近数据中心的性能 据介绍,Ollama “Turbo”服务主要解决新模型体积过大、在普通 GPU 上难以运行或运行缓慢的问题。通过将模型运...

0
0
发表了资讯
2025/07/31 10:23

Ollama 面向 macOS 和 Windows 发布全新桌面端应用

开源本地大模型运行工具 Ollama 宣布面向 macOS 和 Windows 推出全新的桌面应用。 功能介绍 便捷聊天:提供了一个直观的界面,让用户可以轻松下载并与各种本地模型进行聊天 文件处理:支持通过拖放方式处理文件,可以对文本或 PDF 文件内容进行推理。用户可以在设置中增加上下文长度以处理大型文档,但这会需要更多内存 多模态支持:基于 Ollama 新的多模态引擎,应用支持向 Gemma 3 等模型发送图像进行分析 代码理解:可以处理...

0
1
发表了资讯
2025/07/04 10:55

Ollama v0.9.5 发布:支持跨平台网络共享、性能优化升级

开源本地大模型运行工具 Ollama 发布了 v0.9.5 版本,带来了跨平台网络共享功能、灵活的模型目录管理以及 macOS 端的原生化改进和性能优化,极大提升了用户体验和应用价值。 功能改进 跨平台网络共享功能 :首次引入 “Expose Ollama on the network”,允许用户将运行在一台设备上的 Ollama 实例,通过 LAN 局域网甚至互联网暴露给其他设备使用。比如在性能强大的 Mac、PC 或 Linux 服务器上运行 Ollama,让配置较弱的笔记本、...

0
0
发表了资讯
2025/05/29 19:21

Ollama v0.8.0 发布,支持通过工具调用进行流式响应

Ollama v0.8.0 已发布,新版本带来了通过工具调用进行流式响应 (Streaming responses with tool calling) 功能,让开发者构建的聊天应用从此能够像流式输出普通文本一样,实时地调用工具并展示结果。 这一更新使得所有聊天应用都能够在模型生成内容的同时,实时地调用外部工具,并将整个过程(包括模型的思考、工具的调用指令、以及最终的文本回复)流畅地展示给用户。 该功能已在 Ollama 的 Python 和 JavaScript 库以及 cURL...

1
1
发表了资讯
2025/05/16 11:12

Ollama 发布 v0.7.0,增强多模态能力并引入多项优化

Ollama v0.7.0 已发布,带来了显著的功能增强和性能优化,引入了新引擎支持多模态模型,并支持 WebP 图像作为输入。 Meta Llama 4 Google Gemma 3 Qwen 2.5 VL Mistral Small 3.1 以及更多视觉模型 其他更新内容包括: 修复 Windows 上运行模型出现的空白终端窗口 修复 NVIDIA GPU 运行 Llama 4 的错误 优化 ollama run 发送图片时去除引号 提升 ollama create 导入 safetensors 模型性能 提升 Qwen3 MoE 在 macOS 上的提示处理...

0
0
发表了资讯
2025/03/19 17:37

开源跨平台大模型工具 Ollama 0.6.2 发布,新增对 AMD Strix Halo 的支持

Ollama 是开源跨平台大模型工具,让运行 Llama 3、DeepSeek-R1、Gemma 3 以及其他大语言模型变得更容易,现已发布最新版本 0.6.2。 Ollama 是一个开源的本地大语言模型运行框架,简化了利用 llama.cpp 后端运行各种 LLM 以及与其他桌面软件方便集成的过程,为普通用户提供简单易用的大语言模型(LLM)的本地部署和管理。 它支持多种先进的模型,如 LLaMA、DeepSeek、Mistral 等,并提供简单易用的界面和 API。Ollama 的特点包括...

2
1
发表了资讯
2025/03/04 12:04

开源跨平台大模型工具 Ollama 存在安全风险

据清华大学网络空间测绘联合研究中心分析,开源跨平台大模型工具Ollama默认配置存在未授权访问与模型窃取等安全隐患。 一、风险隐患详情 使用Ollma在本地部署DeepSeek等大模型时,会在本地启动一个Web服务,并默认开放11434端口且无任何鉴权机制。该服务直接暴露在公网环境,存在以下风险: 1、未授权访问:未授权用户能够随意访问模型,并利用特定工具直接对模型及其数据进行操作,攻击者无需认证即可调用模型服务、获取模型信...

6
1
发表了资讯
2024/02/18 11:07

Ollama 在 Windows 上推出预览版

Ollama 宣布在 Windows 上推出预览版,从而使得用户可以在全新的本机 Windows 体验中提取、运行和创建大型语言模型。Windows 上的 Ollama 包括内置 GPU 加速、访问完整的模型库以及包括 OpenAI 兼容性在内的 Ollama API。 硬件加速 Ollama 使用 NVIDIA GPU 以及现代 CPU 指令集(例如 AVX 和 AVX2(如果可用))加速运行模型。无需配置或虚拟化。 完全访问模型库 完整的 Ollama 模型库可在 Windows 上运行,包括视觉模型。运行 ...

0
9
发表了资讯
2024/01/25 10:53

Ollama 发布 Python 和 JavaScript 库

Ollama Python 和 JavaScript 库的初始版本现已推出: Ollama Python Library Ollama JavaScript Library 这两个库都可以通过几行代码将新的和现有的应用程序与 Ollama 集成,并共享 Ollama REST API 的 features 和 feel。 Ollama 是一款命令行工具,可在 macOS 和 Linux 上本地运行 Llama 2、Code Llama 和其他模型。目前适用于 macOS 和 Linux,并计划支持 Windows。 Ollama 目前支持近二十多个语言模型系列,每个模型系列都...

0
7
没有更多内容
加载失败,请刷新页面
点击加载更多
加载中
下一页
发表了博客
{{o.pubDate | formatDate}}

{{formatAllHtml(o.title)}}

{{parseInt(o.replyCount) | bigNumberTransform}}
{{parseInt(o.viewCount) | bigNumberTransform}}
没有更多内容
暂无内容
发表了问答
{{o.pubDate | formatDate}}

{{formatAllHtml(o.title)}}

{{parseInt(o.replyCount) | bigNumberTransform}}
{{parseInt(o.viewCount) | bigNumberTransform}}
没有更多内容
暂无内容
暂无内容
4 评论
24 收藏
分享
OSCHINA
登录后可查看更多优质内容
返回顶部
顶部