BERT 正在参加 2020 年度 OSC 中国开源项目评选,请投票支持!
BERT 在 2020 年度 OSC 中国开源项目评选 中已获得 {{ projectVoteCount }} 票,请投票支持!
投票让它出道
已投票
授权协议 MIT
开发语言 C/C++ Ruby
操作系统 Linux
软件类型 开源软件
所属分类 程序开发常用工具包
开发厂商
地区 不详
提 交 者 叶秀兰
适用人群 未知
收录时间 2015-03-28

软件简介

BERT 是 Ruby 的 BERT (Binary ERlang Term) 序列化库,可以编码 Ruby 对象到 BERT 格式,或者解码 BERT 二进制到 Ruby 对象。

BERT 规范请看 bert-rpc.org

以下的 Ruby 类实例会被自动转化为简单的 BERT 类型:

  • Fixnum

  • Float

  • Symbol

  • Array

  • String

以下的 Ruby 类实例会被自动转换为复杂的 BERT 类型:

  • NilClass

  • TrueClass

  • FalseClass

  • Hash

  • Time

  • Regexp

展开阅读全文

代码

的 Gitee 指数为
超过 的项目

评论 (0)

加载中
更多评论
暂无内容
发表于AI & 大数据专区
09/21 11:49

bert图文

bert: Bidirectional Encoder Representations from Transformers 双向transformer encoder表示,参照了李宏毅老师的ppt, 如图。 重点汇总如下: 1. 包含Pre-training, fine-tuning 2种任务。 2. 根据参数的量差,......

0
0
发表了博客
09/23 13:08

BERT 实战

上一篇我们学习了 BERT 的原理,这里我们将它应用在 NER 实战上,我们在前面课程中也学习过 NER,这里我们用同样的数据集来看如何应用 BERT,大家可以与前面的模型进行比较。 另外推荐大家使用 Google 的云端 Jupyter Notebook 开发环境 Colab,自带 TensorFlow、Matplotlib、NumPy、Pandas 等深度学习基础库,还可以免费...

0
0
发表了博客
09/23 13:11

BERT 基础

BERT,Bidirectional Encoder Representations from Transformers,来自 Google AI Language 的论文: [BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding](https://arxiv.org/pdf/ 1810.04805.pdf) 是在和 BooksCorpus 集上预训练模型,然后应用于其他具体任务上时再进行微调。 BERT...

0
0
发表了博客
09/04 09:48

bert介绍

bert是transformer的encoder的部分,但又如下区别 bert base使用了12层trm结构,而transformer只有6层; bert的输入除了词嵌入以及positional-encoder以外还增加了segment encoder,用于区别上下两个句子。 bert...

0
0
发表了博客
10/06 13:53

bert前世今生之一: bert进行embedding

bert可以干啥 我们理解bert为一个transformer集合,输入是一句话,输出是经过transform的结果。我们了解,深度学习的本质就是抽取核心特征, 这也是bert的核心功能,而且以transformer为主要模块,具有更优秀的attention功能,捕获的特征更为精确和全面。 一句话概括, bert就是一个抽取器。输入一句话(词序列),输出抽...

0
0
发表了博客
09/12 19:48

VD-BERT:用BERT搭建统一的视觉对话模型

论文标题: VD-BERT: A Unified Vision and Dialog Transformer with BERT 论文作者: Yue Wang, Shafiq Joty, Michael R. Lyu, Irwin King, Caiming Xiong, Steven C.H. Hoi 论文链接: https://arxiv.org/abs/2004.13278 视觉对话(Visual Dialog)指的是给定一张图、它的标题和问题,我们需要给出这个问题的答案,在V...

0
0
发表于开发技能专区
11/16 15:57

BERT安装与使用

环境: 1 2 3 4 python 3.5 tensorflow 1.12.1 bert-serving-server 1.9.1 bert-serving-cline 1.9.1 官网上说要保证Python >= 3.5 with Tensorflow >= 1.10 1.安装BERT服务端和客户端 1 2 pip install bert-ser......

0
0
发表了博客
2019/08/19 19:08

改进Bert----spanBERT

SpanBert:对 Bert 预训练的一次深度探索 SpanBERT: Improving Pre-training by Representing and Predicting Spans 解读SpanBERT:《Improving Pre-training by Representing and Predicting Spans》 改进版BERT——SpanBERT,通过表示和预测分词提升预训练效果! 中文预训练BERT-wwm(Pre-Trained Chinese BERT with W...

0
0
发表了博客
2019/10/07 21:39

BERT学习理解

在看了好多大牛们的博客之后,关于BERT有了一个大概的理解,将一些知识点整理到这里。 BERT概述 BERT的全称是Bidirectional Encoder Representation from Transformers,利用了Transformer的Encoder部分,重点是预处理/训练pre-training,创新点是将双向 Transformer 用于语言模型 模型介绍 BERT采用了Transformer Encod...

0
0
发表于开发技能专区
02/10 11:59

BERT源码分析(PART I)

写在前面 update@2020.02.10 最近在看paddle相关,于是就打算仔细过一遍百度ERNIE的源码。之前粗看的时候还没有ERNIE2.0、ERNIE-tiny,整体感觉跟BERT也挺类似的,不知道更新了之后会是啥样~看完也会整理跟下面类似...

0
0
没有更多内容
加载失败,请刷新页面
点击加载更多
加载中
下一页
暂无内容
0 评论
1 收藏
分享
返回顶部
顶部