BERT 正在参加 2020 年度 OSC 中国开源项目评选,请投票支持!
BERT 在 2020 年度 OSC 中国开源项目评选 中已获得 {{ projectVoteCount }} 票,请投票支持!
投票让它出道
已投票
BERT 获得 2020 年度 OSC 中国开源项目评选「最佳人气项目」 !
BERT 获得 2020 年度 OSC 中国开源项目评选「最佳人气项目」「最积极运营项目」 !
BERT 获得 2020 年度 OSC 中国开源项目评选「最积极运营项目」 !
授权协议 MIT
开发语言 C/C++ Ruby
操作系统 Linux
软件类型 开源软件
所属分类 程序开发常用工具包
开源组织
地区 不详
投 递 者 叶秀兰
适用人群 未知
收录时间 2015-03-28

软件简介

BERT 是 Ruby 的 BERT (Binary ERlang Term) 序列化库,可以编码 Ruby 对象到 BERT 格式,或者解码 BERT 二进制到 Ruby 对象。

BERT 规范请看 bert-rpc.org

以下的 Ruby 类实例会被自动转化为简单的 BERT 类型:

  • Fixnum

  • Float

  • Symbol

  • Array

  • String

以下的 Ruby 类实例会被自动转换为复杂的 BERT 类型:

  • NilClass

  • TrueClass

  • FalseClass

  • Hash

  • Time

  • Regexp

展开阅读全文

代码

的 Gitee 指数为
超过 的项目

评论 (0)

加载中
更多评论
暂无内容
发表于AI & 大数据专区
2020/09/21 11:49

bert图文

bert: Bidirectional Encoder Representations from Transformers 双向transformer encoder表示,参照了李宏毅老师的ppt, 如图。 重点汇总如下: 1. 包含Pre-training, fine-tuning 2种任务。 2. 根据参数的量差,有bert(base), bert(large) 3. bert的位置编码是训练的,transformer是经过三角函数计算的。 4. 预训练时包含有mask language model和next sentence prediction两种任务,即预测mask中的词,判断2个句子是否有相同含...

0
0
发表了博客
2020/10/06 13:53

bert前世今生之一: bert进行embedding

bert可以干啥 我们理解bert为一个transformer集合,输入是一句话,输出是经过transform的结果。我们了解,深度学习的本质就是抽取核心特征, 这也是bert的核心功能,而且以transformer为主要模块,具有更优秀的attention功能,捕获的特征更为精确和全面。 一句话概括, bert就是一个抽取器。输入一句话(词序列),输出抽取后的embedding序列。 输入输出 输入会加入特殊的[CLS]代表整句话的含义,可以用于分类。 input的词help,...

0
0
发表了博客
2020/09/23 13:11

BERT 基础

BERT,Bidirectional Encoder Representations from Transformers,来自 Google AI Language 的论文: [BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding](https://arxiv.org/pdf/ 1810.04805.pdf) 是在和 BooksCorpus 集上预训练模型,然后应用于其他具体任务上时再进行微调。 BERT 模型可以用于问答系统,情感分析,垃圾邮件过滤,命名实体识别,文档聚类等多种任务中,当时 BERT 模型在 ...

0
0
发表了博客
2020/09/04 09:48

bert介绍

bert是transformer的encoder的部分,但又如下区别 bert base使用了12层trm结构,而transformer只有6层; bert的输入除了词嵌入以及positional-encoder以外还增加了segment encoder,用于区别上下两个句子。 bert的激活函数修改成了Gaussian Linear Error Units Pre-training Task #1: Masked Language Model 随机mask语料中15%的token,然后将masked token 位置输出的最终隐层向量送入softmax,来预测masked token。 有80%的概率...

0
0
发表了博客
2020/09/12 19:48

VD-BERT:用BERT搭建统一的视觉对话模型

论文标题: VD-BERT: A Unified Vision and Dialog Transformer with BERT 论文作者: Yue Wang, Shafiq Joty, Michael R. Lyu, Irwin King, Caiming Xiong, Steven C.H. Hoi 论文链接: https://arxiv.org/abs/2004.13278 视觉对话(Visual Dialog)指的是给定一张图、它的标题和问题,我们需要给出这个问题的答案,在VD中,对话往往有多轮,而后面的问题会和前面的对话相关。 本文提出统一的视觉对话VD-BERT模型,联合编码视觉...

0
0
发表了博客
2019/11/27 10:30

BERT安装与使用

环境: python 3.5 tensorflow 1.12.1 bert-serving-server 1.9.1 bert-serving-cline 1.9.1 官网上说要保证Python >= 3.5 with Tensorflow >= 1.10 1.安装BERT服务端和客户端 pip install bert-serving-server # server pip install bert-serving-client # client, independent of `bert-serving-server` 2.下载预训练的中文BERT模型 根据 NLP 任务的类型和规模不同,Google 提供了多种预训练模型供选择: BERT-Base, Chine...

0
0
发表了博客
2019/07/31 10:55

Bert-util安装

转载:https://blog.csdn.net/u013109501/article/details/91987180 https://blog.csdn.net/Vancl_Wang/article/details/90349047 bert_utils: https://github.com/terrifyzhao/bert-utils bert-Chinese-classification-task bert-as-service google-research/bert 一、环境依赖:   安装Python、tensorflow python 3.6.8 tensorflow 1.13.1 bert-serving-server 1.9.1 bert-serving-cline 1.9.1 二、安装package pip in...

0
0
发表了博客
2019/02/13 16:04

【NLP】使用bert

# 参考 https://blog.csdn.net/luoyexuge/article/details/84939755 小做改动 需要:   github上下载bert的代码:https://github.com/google-research/bert   下载google训练好的中文语料模型:https://storage.googleapis.com/bert_models/2018_11_03/chinese_L-12_H-768_A-12.zip 使用:   使用bert,其实是使用几个checkpoint(ckpt)文件。上面下载的zip是google训练好的bert,我们可以在那个zip内的ckpt文件基础上继...

0
0
没有更多内容
加载失败,请刷新页面
点击加载更多
加载中
下一页
暂无内容
0 评论
1 收藏
分享
OSCHINA
登录后可查看更多优质内容
返回顶部
顶部