🎉Xinference 迎来里程碑!v1.0.0 携手多重新功能更新等你体验!

来源: 投稿
作者: lipiisme
2024-11-20 14:14:00
AI总结

Xorbits Inference(Xinference)是一个 性能强大且功能全面的 分布式 推理框架。可用于大语言模型(LLM),语音识别模型,多模态模型等各种模型的推理。通过 Xorbits Inference,你可以轻松地 一键部署你自己的模型或内置的前沿开源模型 - https://github.com/xorbitsai/inference。无论你是研究者,开发者,或是数据科学家,都可以通过 Xorbits Inference 与最前沿的 AI 模型,发掘更多可能。
 
Xinference 的功能和亮点有:

  • 🌟 模型推理,轻而易举:大语言模型,语音识别模型,多模态模型的部署流程被大大简化。一个命令即可完成模型的部署工作。
  • ⚡️ 前沿模型,应有尽有:框架内置众多中英文的前沿大语言模型,包括 baichuan,chatglm2 等,一键即可体验!内置模型列表还在快速更新中!
  • 🖥 异构硬件,快如闪电:通过 ggml,同时使用你的 GPU 与 CPU 进行推理,降低延迟,提高吞吐!
  • ⚙️ 接口调用,灵活多样:提供多种使用模型的接口,包括 OpenAI 兼容的 RESTful API(包括 Function Calling),RPC,命令行,web UI 等等。方便模型的管理与交互。
  • 🌐 集群计算,分布协同:支持分布式部署,通过内置的资源调度器,让不同大小的模型按需调度到不同机器,充分使用集群资源。
  • 🔌 开放生态,无缝对接:与流行的三方库无缝对接,包括 LangChain, LlamaIndex, Dify,以及 Chatbox。

🚀 Xinference v1.0.0 发布!这是 Xinference 的重要里程碑🎉。从下周开始,Xinference 将改为双周发布周期,下下周发布新版本,与企业版和云上版本隔周交替发布⏰。

🌐 社区版

📋 更新指南

* 🏷️ pip:pip install 'xinference==1.0.0’
* 🐳 Docker:拉取最新版本即可,也可以直接在镜像内用 pip 更新

🆕 更新日志

* 新模型
    * 新增支持 Qwen 2.5 coder 32B 及更多尺寸
* 新功能
    * ✨ 支持图像生成任务的取消功能
    * 🍎 苹果设备 MLX 后端支持多轮对话的 kvcache 缓存,显著减少多轮对话的首 token 返回延迟
    * 📊 Rerank 模型增加 normalize 选项
    * 📄 README 增加 Xinference 论文引用
* 🐞 BUG修复
    * 修复 Fish audio 文本过长导致的失败问题
    * 修复 FLUX.1 文生图 variant=fp16 报错问题

🏢 企业版

* 企业版将在下周中发布,更新特性包括:
    * StableDiffusion Web UI 无服务支持,SD WebUI 可以多租户使用,相关介绍文章将在下周发布
    * GLM4-voice 支持
    * 通过 langfuse 集成提供对话可观测性

☁️ 云上版本

* 云上版本将在下周中同步上线 SD WebUI 的无服务版本,敬请期待👀。


我们感谢每一位参与的社区伙伴对 Xinference 的帮助和支持,也欢迎更多使用者和开发者参与体验和使用 Xinference。
 
欢迎您在 https://github.com/xorbitsai/inference 给我们一个 星标,这样你就可以在 GitHub 上及时收到每个新版本的通知。

展开阅读全文
点击引领话题📣 发布并加入讨论🔥
0 评论
0 收藏
分享
AI总结
返回顶部
顶部