Opera 支持本地 LLM,本地下载大模型即可自建服务

来源: 投稿
2024-04-15 14:31:29

Opera 近日宣布,其将在开发者频道的 Opera One 浏览器中添加对 150 个本地 LLM 模型的实验性支持。支持模型包括:

  • Meta 的 Llama

  • Vicuna

  • Google 的 Gemma

  • Mistral AI 的 Mixtral

使用本地大型语言模型意味着用户的数据保存在本地设备上,无需将信息发送到服务器。Opera 正在 Opera One 的开发者频道中测试这套新的本地 LLM。本地 LLM 通常需要每个模型 2-10 GB 的本地存储空间,然后将使用本地 LLM 代替 Opera 的 AI Aria。

 

展开阅读全文
点击加入讨论🔥(2) 发布并加入讨论🔥
2 评论
4 收藏
分享
返回顶部
顶部