Falcon-40B 正在参加 2021 年度 OSC 中国开源项目评选,请投票支持!
Falcon-40B 在 2021 年度 OSC 中国开源项目评选 中已获得 {{ projectVoteCount }} 票,请投票支持!
2021 年度 OSC 中国开源项目评选 正在火热进行中,快来投票支持你喜欢的开源项目!
2021 年度 OSC 中国开源项目评选 >>> 中场回顾
Falcon-40B 获得 2021 年度 OSC 中国开源项目评选「最佳人气项目」 !
授权协议 Apache
开发语言 Python 查看源码 »
操作系统 跨平台
软件类型 开源软件
开源组织
地区 不详
投 递 者
适用人群 未知
收录时间 2023-06-01

软件简介

Falcon-40B 是 400 亿参数的因果解码器模型,它在 RefinedWeb 的 1000B token 上进行训练,并使用精选数据集增强。它在 Huggingface 的 OpenLLM 排行榜上排首位,其性能优于 LLaMA、MPT、RedPajama 和 StableLM 等。

Falcon-40B 使用自定义工具构建,包含一个独特的数据管道,该管道从公开网络中提取训练数据。

Falcon 从公网上抓取内容构建好 Falcon 的初始预训练数据集后,再使用 CommonCrawl 转储,进行大量过滤(包括删除机器生成的文本和成人内容),并消除重复数据,最终得到一个由近 5 万亿个 token 组成的庞大预训练数据集。

Falcon 一共包含 4 个版本:

  • Falcon-40B:在1万亿token上进行训练,并使用精选语料库进行了增强;主要接受英语、德语、西班牙语、法语的训练,不会中文。
  • Falcon-40B-Instruct:在Baize上进行了微调,使用FlashAttention和多查询对推理架构进行了优化,是一个即用型聊天模型。
  • Falcon-7B:参数70亿,在1.5万亿token上进行了训练,作为一个原始的预训练模型,还需要用户针对大多数用例进一步微调。
  • Falcon-RW-7B:参数70亿,在3500亿token上进行训练,该模型旨在用作“研究神器”,单独研究各种在网络数据进行训练的影响。
展开阅读全文

评论

点击引领话题📣 发布并加入讨论🔥
发表了资讯
05/31 09:18

号称击败 LLaMA 的大模型开源了,却因为许可证被骂

2023.6.1 更新:Falcon-40B 已将 License 修改为 Apache 2.0,意味着现在它可以免费用于包括商业用途在内的任何用途。 TII(阿联酋阿布扎比技术创新研究所)近日推出了号称是“史上最强的开源大语言模型”——Falcon(猎鹰)。虽然 Falcon 的参数比 LLaMA 小,但性能却更加强大。 据介绍,Falcon-40B 是400 亿参数的因果解码器模型,它在 RefinedWeb 的 1000B token 上进行训练,并使用精选数据集增强。它在 Huggingface 的 Op...

5
2
没有更多内容
加载失败,请刷新页面
点击加载更多
加载中
下一页
发表了博客
{{o.pubDate | formatDate}}

{{formatAllHtml(o.title)}}

{{parseInt(o.replyCount) | bigNumberTransform}}
{{parseInt(o.viewCount) | bigNumberTransform}}
没有更多内容
暂无内容
发表了问答
{{o.pubDate | formatDate}}

{{formatAllHtml(o.title)}}

{{parseInt(o.replyCount) | bigNumberTransform}}
{{parseInt(o.viewCount) | bigNumberTransform}}
没有更多内容
暂无内容
暂无内容
0 评论
3 收藏
分享
OSCHINA
登录后可查看更多优质内容
返回顶部
顶部