Transformers TF-PT 正在参加 2021 年度 OSC 中国开源项目评选,请投票支持!
Transformers TF-PT 在 2021 年度 OSC 中国开源项目评选 中已获得 {{ projectVoteCount }} 票,请投票支持!
2021 年度 OSC 中国开源项目评选 正在火热进行中,快来投票支持你喜欢的开源项目!
2021 年度 OSC 中国开源项目评选 >>> 中场回顾
Transformers TF-PT 获得 2021 年度 OSC 中国开源项目评选「最佳人气项目」 !
授权协议 Apache-2.0
开发语言 Python 查看源码 »
操作系统 跨平台
软件类型 开源软件
开源组织
地区 不详
投 递 者 h4cd
适用人群 未知
收录时间 2019-10-09

软件简介

Transformers(以往称为 pytorch-transformers 和 pytorch-pretrained-bert)是用于 TensorFlow 2.0 和 PyTorch 的自然语言处理框架。它提供了用于自然语言理解(NLU,Natural Language Understanding)和自然语言生成(NLG,Natural Language Generation)的最先进的通用架构,包括 BERT、GPT-2、RoBERTa、XLM、DistilBert 与 XLNet 等,具有超过 100 种语言的 32 种以上经过预训练的模型,以及 TensorFlow 2.0 和 PyTorch 之间的深度互操作性。

特性:

  • 与 pytorch-transformers 一样易用
  • 像 Keras 一样强大与简洁
  • 处理 NLU 和 NLG 任务时性能高
  • 教育者和从业者的进入门槛低
  • 低计算成本,研究人员可以共享训练模型,不必再训练,内置 8 种架构,包含 30 多种预训练的模型,其中一些采用 100 多种语言
  • 3 行代码即可训练最先进的模型
  • TensorFlow 2.0 和 PyTorch 模型之间的深层互操作性,可以随意在两个框架之间移动单个模型
展开阅读全文

代码

的 Gitee 指数为
超过 的项目

评论

点击引领话题📣 发布并加入讨论🔥
暂无内容
发表了博客
{{o.pubDate | formatDate}}

{{formatAllHtml(o.title)}}

{{parseInt(o.replyCount) | bigNumberTransform}}
{{parseInt(o.viewCount) | bigNumberTransform}}
没有更多内容
暂无内容
发表了问答
{{o.pubDate | formatDate}}

{{formatAllHtml(o.title)}}

{{parseInt(o.replyCount) | bigNumberTransform}}
{{parseInt(o.viewCount) | bigNumberTransform}}
没有更多内容
暂无内容
NumPy 安全漏洞
空指针解引用
** 有争议 ** 由于缺少返回值验证,NumPy < 中的 numpy.sort 和 PyArray_DescrNew 函数中的 1.19 中存在空指针取消引用漏洞,这使得攻击者可以通过重复创建排序数组来进行 DoS 攻击。注意:虽然正确的是缺少验证,但只有内存耗尽才会发生错误。如果用户可以耗尽内存,则他们已经拥有特权。此外,实际上不可能构建一个可以针对恰好在此位置发生的内存耗尽的攻击。
CVE-2021-41495 MPS-2021-32278
2022-08-08 18:43
gitpython 存在ReDoS漏洞
ReDoS
GitPython 是一个用于与 Git 存储库交互的 Python 库。当用户控制传递给模式匹配函数的输入时,此软件包的受影响版本容易受到正则表达式拒绝服务 (ReDoS) 的攻击。
MPS-2022-14928
2022-08-08 18:43
没有更多内容
加载失败,请刷新页面
点击加载更多
加载中
下一页
0 评论
33 收藏
分享
OSCHINA
登录后可查看更多优质内容
返回顶部
顶部