seq2seq 正在参加 2020 年度 OSC 中国开源项目评选,请投票支持!
seq2seq 在 2020 年度 OSC 中国开源项目评选 中已获得 {{ projectVoteCount }} 票,请投票支持!
投票让它出道
已投票
seq2seq 获得 2020 年度 OSC 中国开源项目评选「最佳人气项目」 !
seq2seq 获得 2020 年度 OSC 中国开源项目评选「最佳人气项目」「最积极运营项目」 !
seq2seq 获得 2020 年度 OSC 中国开源项目评选「最积极运营项目」 !
授权协议 Apache
开发语言 Python
操作系统 跨平台
软件类型 开源软件
开源组织 Google
地区 不详
投 递 者 王练
适用人群 未知
收录时间 2017-03-16

软件简介

seq2seq 是 Google 开源的一款用于 TensorFlow 的通用编码器&解码器框架(encoder-decoder framework),可用于机器翻译、文本摘要、会话建模、图像描述等。

设计目标/特性

  • 通用性:Google 最初为机器翻译开发了这个框架,但是后来用于各种其他任务,包括摘要、会话建模和图像描述。只要你的问题可以以一种格式编码输入数据,并解码为另一种格式,你应该能够使用或扩展这个框架。

  • 可用性:你可以使用单行命令训练模型。支持多种类型的输入数据,包括标准的原始文本。

  • 再现性:使用 YAML 文件配置训练流程和模型。这也允许其他人运行和你完全相同的模型配置。

  • 可扩展性:代码以模块化的方式构建,并且易于拓展。例如,添加新类型的注意机制或编码器架构仅需要最少量的代码即可修改。

  • 文档:所有代码都使用标准的 Python docstrings 记录,有书面指南帮助开始执行常见任务。

  • 良好的性能:为了使代码足够简洁,没有试图榨干所有性能,但是实现速度已足以涵盖几乎所有的生产和研究用例。tf-seq2seq 还支持分布式训练,从而折中计算能力和训练时间。

展开阅读全文

代码

的 Gitee 指数为
超过 的项目

评论 (0)

加载中
更多评论
发表了资讯
2017/03/16 07:48

Google 开源 seq2seq,通用编码器&解码器框架

谷歌又开源了,这次是开源了一款用于 TensorFlow 的通用编码器&解码器框架(encoder-decoder framework),可用于机器翻译、文本摘要、会话建模、图像描述等。 设计目标/特性 通用性:Google 最初为机器翻译开发了这个框架,但是后来用于各种其他任务,包括摘要、会话建模和图像描述。只要你的问题可以以一种格式编码输入数据,并解码为另一种格式,你应该能够使用或扩展这个框架。 可用性:你可以使用单行命令训练模型。支持多...

8
30
没有更多内容
加载失败,请刷新页面
点击加载更多
加载中
下一页
2020/02/16 20:59

seq2seq 模型

顾名思义,seq2seq 模型就像一个翻译模型,输入是一个序列(比如一个英文句子),输出也是一个序列(比如该英文句子所对应的法文翻译)。这种结构最重要的地方在于输入序列和输出序列的长度是可变的。 举个例子 在机器翻译:输入(hello) -> 输出 (你好)。输入是1个英文单词,输出为2个汉字。 在对话机器中:我们提(输入)一个问题,机器会自动生成(输出)回答。这里的输入和输出显然是长度没有确定的序列(sequences). 要...

0
0
2020/05/26 12:05

seq2seq聊天机器人

## seq2seq聊天机器人 作者:魏祖昌 ## 一、背景介绍 人工智能技术的进步,语音识别技术、自然语言处理等技术的成熟,智能客服的发展很好的承接当下传统人工客服所面临的挑战。智能客服能够24小时在线为不同用户同时解决问题,工作效率高等特点,这是传统人工客服不能替代的,它能为公司节省大量的人工客服成本。在这次疫情当中,由于总总原因,大家肯定多多少少都见识过各种各样的智能客服。本文就基于seq2seq来介绍一个聊天机...

0
1
发表了博客
2018/03/01 09:47

seq2seq里的数学

seq2seq模型详解 原创 2017年12月25日 09:41:04 标签: seq2seq / 自然语言 / 机器人 在李纪为博士的毕业论文中提到,基于生成的闲聊机器人中,seq2seq是一种很常见的技术。例如,在法语-英语翻译中,预测的当前英语单词不仅取决于所有前面的已翻译的英语单词,还取决于原始的法语输入;另一个例子,对话中当前的response不仅取决于以往的response,还取决于消息的输入。其实,seq2seq最早被用于机器翻译,后来成功扩展到多种自然...

0
0
发表了博客
2019/05/30 14:38

Seq2Seq 到 Attention的演变

https://zhuanlan.zhihu.com/p/28054589 1、Encoder-Decoder is also called Seq2Seq It's been used to generator sentence based on differenct input length and output length 我们知道将S2S就是将序列信息压缩到一个向量c,这个c具体是如何形成?其实有多种方式 如果RNN使用GRU,则可以是: 而我常用的LSTM增加了记忆状态state_c, 所以变成[state_h,state_c] 2、得到了c之后如何解码也是一个问题,常见的解码方式有: 我们...

0
0
发表了博客
2019/01/01 23:23

对seq2seq的粗浅认识

本文从三个方面进行展开: 第一部分,介绍seq2seq在整个RNN体系中的情况。 第二部分,介绍seq2seq结构的基本原理。 第三部分,介绍seq2seq的缺点,和由此引出的Attention机制。 第一部分: RNNs:Recurrent neural network 翻译成循环神经网络 Bidirectional RNNs: 双向RNNs Deep Bidirectional RNNs:深度双向RNNs LSTM:Long short term memory GRU:Gated Recurrent Unit 解释: 传统的神经网络很难解决基于先前事件推断后续事...

0
0
发表了博客
2019/04/11 10:04

deeplearning.ai学习seq2seq模型

一、seq2seq架构图 seq2seq模型左边绿色的部分我们称之为encoder,左边的循环输入最终生成一个固定向量作为右侧的输入,右边紫色的部分我们称之为decoder。单看右侧这个结构跟我们之前学习的语言模型非常相似,如下: 唯一不同的是,语言模型的输入a<0>是一个零向量,而seq2seq模型decoder部分的输入是由encoder编码得到的一个固定向量。所以可以称seq2seq模型为条件语言模型p(y|x)。 语言模型生成的序列y是可以随机生成的,而s...

0
0
没有更多内容
加载失败,请刷新页面
点击加载更多
加载中
下一页
暂无内容
0 评论
22 收藏
分享
OSCHINA
登录后可查看更多优质内容
返回顶部
顶部