Hugging Face Transformers 正在参加 2021 年度 OSC 中国开源项目评选,请投票支持!
Hugging Face Transformers 在 2021 年度 OSC 中国开源项目评选 中已获得 {{ projectVoteCount }} 票,请投票支持!
2021 年度 OSC 中国开源项目评选 正在火热进行中,快来投票支持你喜欢的开源项目!
2021 年度 OSC 中国开源项目评选 >>> 中场回顾
Hugging Face Transformers 获得 2021 年度 OSC 中国开源项目评选「最佳人气项目」 !
授权协议 Apache-2.0
开发语言 Python
操作系统 跨平台
软件类型 开源软件
开源组织
地区 不详
投 递 者 白开水不加糖
适用人群 未知
收录时间 2021-10-19

软件简介

Transformers 是为 Jax、PyTorch 和 TensorFlow 打造的先进的自然语言处理。Transformers 提供了数以千计的预训练模型,支持 100 多种语言的文本分类、信息抽取、问答、摘要、翻译、文本生成。它的宗旨让最先进的 NLP 技术人人易用。

Transformers 提供了便于快速下载和使用的API,让你可以把预训练模型用在给定文本、在你的数据集上微调然后通过 model hub 与社区共享。同时,每个定义的 Python 模块均完全独立,方便修改和快速研究实验。

Transformers 支持三个最热门的深度学习库: Jax, PyTorch and TensorFlow — 并与之无缝整合。你可以直接使用一个框架训练你的模型然后用另一个加载和推理。

你可以直接在模型页面上测试大多数 model hub 上的模型。官方也提供了 私有模型托管、模型版本管理以及推理API

一些例子:

展开阅读全文

代码

的 Gitee 指数为
超过 的项目

评论 (0)

加载中
更多评论
暂无内容
2020/03/25 11:29

Transformers 简介(上)

作者|huggingface 编译|VK 来源|Github Transformers是TensorFlow 2.0和PyTorch的最新自然语言处理库 Transformers(以前称为pytorch-transformers和pytorch-pretrained-bert)提供用于自然语言理解(NLU)和自然语言生成(NLG)的最先进的模型(BERT,GPT-2,RoBERTa,XLM,DistilBert,XLNet,CTRL ...) ,拥有超过32种预训练模型,支持100多种语言,并且在TensorFlow 2.0和PyTorch之间具有深厚的互操作性。 特性 与pytorch-transfo...

0
0
2020/03/25 11:45

Transformers 简介(下)

作者|huggingface 编译|VK 来源|Github Transformers是TensorFlow 2.0和PyTorch的最新自然语言处理库 Transformers(以前称为pytorch-transformers和pytorch-pretrained-bert)提供用于自然语言理解(NLU)和自然语言生成(NLG)的最先进的模型(BERT,GPT-2,RoBERTa,XLM,DistilBert,XLNet,CTRL …) ,拥有超过32种预训练模型,支持100多种语言,并且在TensorFlow 2.0和PyTorch之间具有深厚的互操作性。 微调和使用脚本 在运行微调...

0
0
2020/03/25 11:48

Transformers 词汇表

作者|huggingface 编译|VK 来源|Github 词汇表每种模型都不同,但与其他模型相似。因此,大多数模型使用相同的输入,此处将在用法示例中进行详细说明。 输入ID 输入id通常是传递给模型作为输入的唯一必需参数。它们是标记索引,标记的数字表示构建将被模型用作输入的序列。 每个tokenizer的工作方式不同,但基本机制保持不变。这是一个使用BERTtokenizer(WordPiecetokenizer)的示例: from transformers import BertTokenizer...

0
0
2020/02/07 15:56

Transformers Assemble(PART I)

写在前面 最近特别时期积极响应国家号召,宅在家没事干就捣鼓捣鼓公众号玩 ,刚好比较空就把之前的一些论文笔记搬运上来吧。之后也会佛系更新人工智能&自然语言处理方面相关内容,欢迎上车关注一波~ 经过之前一段时间的 NLP Big Bang,现在相对比较平静了,Transformer 派已经占据了绝对的主导地位,在各类应用中表现出色。看标题大家也可以猜个差不多,整理了一系列自《Attention is all you need》之后的对 Vanilla Transfor...

0
0
2020/03/18 11:59

Huggingface出品!NLP论文研讨会

写在前面 提起Huggingface大家肯定非常熟悉了,开源的transformer库备受好评,目前star已经有23.7K了,可以在All Models and checkpoints[1]页面搜索所有“开箱即用”的NLP模型。 但是可能很多人没有注意到,前几天他们又开源了每周内部论文研讨会放在gayhub上,Awesome NLP Paper Discussions[2]。有的同学可能陷于茫茫论文海找不到高质量的论文,有的同学可能忙于业务无法实时跟进社区发展,有的同学可能孤身奋战找不到讨论的...

0
0
2020/02/24 10:59

Transformers Assemble(PART IV)

写在前面 上一篇重点在transformer位置信息的改进,这一集挑选了几篇都带有「Sparse」的标签,主要关注点在于transformer结构的复杂度问题。先来看看都有哪些: 「Sparse Transformer from OpenAI,NAACL 2019」 「Adaptively Sparse Transformers,EMNLP2019」 「Explcit Sparse Transformer from PKU」 Generating Long Sequences with Sparse Transformers[1] 来自 OpenAI 的工作,关注于原始 Transformer 的计算复杂度问题,...

0
0
2020/03/30 18:17

Transformers 示例 | 六

作者|huggingface 编译|VK 来源|Github 在本节中,将结合一些示例。所有这些示例都适用于多种模型,并利用 了不同模型之间非常相似的API。 **重要** :要运行示例的最新版本,你必须从源代码安装并为示例安装一些特定要求。在新的虚拟环境中执行以下步骤: ```bash git clone https://github.com/huggingface/transformers cd transformers pip install . pip install -r ./examples/requirements.txt ``` | Section | Descrip...

0
0
没有更多内容
加载失败,请刷新页面
点击加载更多
加载中
下一页
暂无内容
0 评论
0 收藏
分享
OSCHINA
登录后可查看更多优质内容
返回顶部
顶部