InterpretML 正在参加 2021 年度 OSC 中国开源项目评选,请投票支持!
InterpretML 在 2021 年度 OSC 中国开源项目评选 中已获得 {{ projectVoteCount }} 票,请投票支持!
2021 年度 OSC 中国开源项目评选 正在火热进行中,快来投票支持你喜欢的开源项目!
2021 年度 OSC 中国开源项目评选 >>> 中场回顾
InterpretML 获得 2021 年度 OSC 中国开源项目评选「最佳人气项目」 !

软件简介

InterpretML 是一个开源软件包,整合了最先进的机器学习可解释性技术。使用此包,你可以训练可解释的 glassbox 模型并解释黑盒系统。InterpretML 可帮助你了解模型的全局行为,或了解个别预测背后的原因。

优点:

  • 模型可解释性:模型可解释性可帮助组织中的开发人员、数据科学家和业务利益相关者全面了解他们的机器学习模型。它还可以用于调试模型、解释预测并启用审计以满足法规要求。
  • 便于使用:通过开放的统一 API 集和丰富的可视化访问最先进的可解释性技术。

  • 灵活和可定制:使用各种解释器和使用交互式视觉效果的技术来理解模型。选择您的算法并轻松尝试算法组合。

  • 综合能力探索模型属性,例如性能、全局和局部特征,并同时比较多个模型。在操作数据并查看对模型的影响时运行假设分析。

展开阅读全文

代码

的 Gitee 指数为
超过 的项目

评论 (0)

加载中
更多评论
暂无内容
发表了博客
2019/11/26 19:46

InterpretML 微软可解释性机器学习包

InterpretML InterpretML: A Unified Framework for Machine Learning Interpretability https://github.com/microsoft/interpret InterpretML 是一个为实践者和研究者提供机器学习可解释性算法的开源 Python 软件包。InterpretML 能提供以下两种类型的可解释性:(1)明箱(glassbox),这是针对可解释性设计的机器学习模型(比如线性模型、规则列表、广义相加模型);(2)黑箱(blackbox)可解释技术,用于解释已有的系统(比...

0
0
2020/03/25 11:29

推荐|近期热点机器学习git项目

No1: InterpretML by Microsoft——Machine Learning Interpretability github地址:https://github.com/microsoft/interpret 可解释性是目前机器学习中的一个重要问题。能够理解模型如何产生它所输出的内容,这是每个机器学习项目的关键。 Interpretml是微软的一个开源软件包,用于训练可解释模型和解释黑盒系统。微软在解释解为什么解释性是必要的时候说得非常好: 模型调试:为什么我的模型犯了这个错误? 检测偏差:我的模型...

0
0
发表于开发技能专区
2020/05/20 22:10

「转」Build 2020: 微软打造超级计算机和负责任的机器学习

转自「微软中国MSDN」 2020年5月19日,美国华盛顿州雷德蒙德——微软年度开发者大会Build 2020首次以完全数字化的形式在线上开幕。在48小时内,微软通过一系列在线直播和互动环节,向来自全球的软件及移动应用开发者、数据科学家、IT专家社区展示其围绕开发者、智能云、生产力、协作工具等推出的一系列最新举措和成果。 当整个世界共同面对前所未有的巨大挑战时,“Build”之名恰如其分地体现了开发者对于这个世界的特殊意义。今...

0
0
没有更多内容
加载失败,请刷新页面
点击加载更多
加载中
下一页
暂无内容
0 评论
1 收藏
分享
OSCHINA
登录后可查看更多优质内容
返回顶部
顶部