开源日报 | 有关LLAMA-3、大模型开源与闭源;智能体四大设计模式;AI行业活菩萨Meta太不给面子了;李彦宏不寒碜

来源: OSCHINA
编辑:
2024-04-19 17:59:54

欢迎阅读 OSCHINA 编辑部出品的开源日报,每天更新一期。

# 2024.4.19

今日要点

最强开源大模型 Llama 3 上架 Gitee AI

4 月 18 日,Meta 发布两款开源 Llama 3 8B 与 Llama 3 70B 模型,供外部开发者免费使用。此次发布不仅是技术革新的展示,也是开放源代码精神的体现,预示着 AI 应用的新篇章即将开启。此次,Meta 共开源了 Llama 3 8B 和 Llama 3 70B 两款模型,分别有预训练和指令微调两个版本。

访问下方链接,进入 Gitee AI 平台即可体验(邀请码:llama3):

https://ai.gitee.com/hf-models/meta-llama/Meta-Llama-3-8B-Instruct

小红书开源跨平台播放器REDPlayer,支持多平台、多格式、多协议

小红书自主研发了一款跨平台播放器 —— REDPlayer。不同于行业其他播放器,REDPlayer 具有结构简单、耦合度低、功能边界清晰等特点,提供了多种接入方式,技术人员可根据需要灵活选择,既可快速集成 SDK 使用,也可基于源码进行定制开发。

划重点:Android、iOS、HarmonyOS 等平台统统支持!如 HLS、MP4、FLV 等多种协议和格式也都支持~

REDPlayer 开源地址:
https://gitee.com/rte-dev/RedPlayer

蚂蚁集团、浙江大学联合发布开源大模型知识抽取框架OneKE

近日,由蚂蚁集团和浙江大学联合研发的大模型知识抽取框架OneKE宣布开源,并且捐赠给OpenKG开放知识图谱社区。

蚂蚁集团和浙江大学联合构建和升级了蚂蚁百灵大模型在知识抽取领域的能力,并发布中英双语大模型知识抽取框架OneKE,同时开源基于LLaMA2全参数微调的版本。测评指标显示,OneKE在多个全监督及零样本实体/关系/事件抽取任务上取得了相对较好的效果。

OneKE官方主页:http://oneke.openkg.cn/

阿里开源代码模型

阿里最新发布了 CodeQwen1.5-7B 和 CodeQwen1.5-7B-Chat。它们是基于 Qwen1.5 语言模型开发的专用代码 LLMs 。新模型使用了 3T 令牌的代码数据进行训练,在代码生成、长上下文建模(64K)、代码编辑和 SQL 等方面表现出色。

项目主页介绍:https://github.com/QwenLM/CodeQwen1.5
GitHub:https://qwenlm.github.io/zh/blog/codeqwen1.5/


今日观察

社交观察

AI行业活菩萨Meta太不给面子了

太不给面子了,在李彦宏公开表示「开源模型只会越来越落后」3天之后,AI行业的活菩萨Meta今天发布了开源大模型Llama 3,70B版本的综合能力已经和Claude 3中配版不相上下,正在训练还有一个400B版本内测时超过了Claude 3顶配版…… ​​​

- 微博 阑夕

谈下有关LLAMA-3、大模型开源与闭源以及合成数据的一些个人看法

二.开源与闭源

-Meta是目前大模型开源届的中流砥柱,目前判断LLAMA-3系列都会开源,包括400B的模型也会在几个月后开源出来,这意味着我们会拥有效果与GPT 4基本持平的开源大语言模型,这对于很多复杂应用来说是个很好的消息(当然400B规模的模型太大,这是个实际问题)。

-如果Meta 的LLAMA-3系列全面开源,甚至之后的LLAMA-4也持续开源(目前看这个可能性是较大的,Meta的开源决心比较大,相比而言,谷歌还是决心不太够,商业利益考虑更多些),那么国内应该重视研究如何将LLAMA系列更好中文化的相关技术(因为一些原因,LLAMA专门把中文能力弱化了,但是这其实不是大问题。做好的中文模型并不一定需要特别大量的中文数据,比如GPT 4),包括扩充中文Token词典、用中文训练数据低成本地进行继续预训练、有害信息的去除以通过审查等。这样随着Meta未来不断发布能力更强的新版本模型,国内有可能出现如此局面:通过LLAMA中文化得到的超强大模型(包括语言模型及多模态模型),出现的时间节点甚至快于绝大多数国内发布的最强大模型,包括闭源及开源大模型。

-如果几个月后市面上出现GPT 4级别(“中文化改造得较好+模型压缩比较成功”的LLAMA-3 400B模型)的开源文本及多模态模型,那么压力会给到国内大模型开发厂商,无论是开源还是闭源。 不排除国内之后会出现要求封杀LLAMA的声音,封杀原因其实很好找,还是希望不要走到这种局面。

-目前从模型能力而言,整体来说开源阵营确实是弱于闭源阵营的,这是事实,但是从最近一年半的技术发展来看,开源模型(包括国外和国内的模型)和最好闭源模型的差距是在逐步缩小的,而不是越来越拉大的,这也是事实,很多数据可以说明这一点。

- 那么什么因素会严重影响开源和闭源模型的能力差异呢?我觉得模型能力增长曲线的平滑或陡峭程度比较重要。如果模型能力增长曲线越陡峭(单位时间内,模型各方面能力的增长数量,越快就类似物体运动的“加速度”越大),则意味着短时间内需要投入越大的计算资源,这种情况下闭源模型相对开源模型是有优势的,主要是资源优势导致的模型效果优势。反过来,如果模型能力增长曲线越平缓,则意味着开源和闭源模型的差异会越小,追赶速度也越快。这种由模型能力增长曲线陡峭程度决定的开源闭源模型的能力差异,我们可以称之为模型能力的“加速度差”。

-让我们往后多看几年,之后开源和闭源模型的能力是逐步缩小还是逐步增大?这取决于我们在“合成数据”方面的技术进展。如果“合成数据”技术在未来两年能获得突破,则两者差距是有可能拉大的,如果不能突破,则开源和闭源模型能力会相当。所以,“合成数据”是未来两年大语言模型最关键的决定性的技术,很可能没有之一。

- 微博 张俊林say

本地运行Llama3新方法

国外有网友火速分享了在本地(Windows、Linux、Mac)一键运行 Llama 3 的新方法~

1.安装开源 OpenWebUI
2.在 OpenWebUI 的 “拉取模型” 菜单中输入 llama3:instruct,然后单击下载按钮
3.一键开启运行

网友强调了, llama 3 70B 模型占用大约 40G 内存,尝试前需确保磁盘空间。

- 微博 量子位

参加了一个中国博士生知识分享会,感觉收获颇多

比较印象深刻的是,其中一位分享人介绍了自己做的人工智能识别肺部CT来判断某病的研究,其中强调了现在中国AI发展上的一些障碍。
人工智能,最主要的就是三个方面,数据,模型,算力。
数据方面,中国是不缺的,可能会有一些垃圾数据,但是筛选过也是足够;
模型上,在之前ChatGPT等都有公开过自己的代码,虽然在4以后不开源了,但是国内的程序员和算法工程师还是很多的,所以在模型上,只是稍有不同;
而算力,其实是抑制中国AI发展的最大阻力。

分享人表达了对算力方面,中国被压制这件事是不太乐观的。

- 微博 Simeng__

媒体观察

扎克伯格“开源”上分,但Meta还没到庆功时刻

Meta是开源大模型的执旗者,在过去一段时间内,随着谷歌、xAI等陆续加入开源阵营,「开源or闭源」这一老生常谈的话题又再度回到舞台之中。不过对Meta来说,放出Llama 3 不是重点,对手的竞争、人才的流失,Meta还远没到「开香槟」的时刻。

在这场生成式AI浪潮中,之所以说在Meta迅速变革,原因有二:一个是区别于OpenAI等巨头的闭源路线,Meta加入战场的姿态是「开源」,这无疑为其争夺了更多的好感。

另一个原因则是扎克伯格本人对AI的态度,从过去混乱的AI策略转变为整合。关注无论是与微软合作,还是此次发布Meta AI加速与自家的产品生态融合,这都不难看出Meta在积极改变。

一位业内人士此前曾形容,今年的AGI竞赛不是「短跑」,更像是一场「马拉松」。对扎克伯格和他的Meta也是如此,据其采访透露,扎克伯格已经在考虑Llama 4、Llama 5,这会是一场更持久的竞争。

硅基实验室

AI时代新风口,吴恩达亲授智能体四大设计模式

最近在工作之余,吴恩达连续分享了很多关于智能体的见解,并定义了AI Agent的四大设计模式,Reflection(反思)、Tool use(工具使用)、Planning(规划)和Multi-agent collaboration(多智能体协同):

-反思:LLM检查自己的工作,并提出改进的方法。

-工具使用:LLM利用Web搜索、代码执行或任何其他功能的工具,来帮助自己收集信息、采取行动或处理数据。

-规划:LLM提出并执行实现目标的多步骤计划(比如一篇论文,首先写大纲,然后搜索和研究各部分内容,再写草稿)。

-多智能体协作:多个AI agent协同工作,分工任务,讨论和辩论想法,提出比单个智能体更好的解决方案。

新智元

北京软件业全面拥抱大模型,2027年营收将达4.8万亿

2023年,北京信息软件业全行业营收规模已接近3万亿元,并持续多年保持2位数增长,成为推动全国信息软件业发展的重要引擎。当前,人工智能大模型和数据新型生产要素等“新动能”正在改变信息软件业的生产方式和发展模式,数字人等互联网“新业态”快速发展,具身智能、XR设备、AIPC(智能计算机)等新硬件不断对软件提出“新需求”,北京信息软件业正处于技术迭代升级、产业结构调整优化的关键变革期。

北京日报

开源模型越来越落后?Meta甩出全新Llama 3应战

近期,开源和闭源之争再次引发行业内的激烈讨论。开源模型会越来越落后?Meta用Llama 3给出了回应。

Meta的这次表态,也显得意味深长:“我们致力于开放式人工智能生态系统的持续增长和发展,以负责任的方式发布我们的模型。我们一直坚信,开放会带来更好、更安全的产品、更快的创新和更健康的整体市场。这对Meta和社会都有好处。”

Llama这只羊驼,仍在狂奔中睥睨对手。

- 甲子光年


今日推荐

开源项目

bigskysoftware/htmx

https://github.com/bigskysoftware/htmx

htmx 是增强 HTML 的工具包,支持使用属性 (attributes) 直接在 HTML 中访问 AJAX、CSS Transitions、WebSockets 和 Server Sent Events,因此开发者能够使用超文本的简单性和强大功能构建现代用户界面。

htmx 体积很小(压缩后大小为~10k ),无依赖项,可扩展,且和 IE11 兼容。

每日一博

基于 LLM 大模型 Agent 的适用范围和困境

本文提到大模型通常的工作方式,即通过提示词进行问答,并指出了两个主要问题:历史对话信息的管理和令牌数量的限制。文章讨论了知识库问答和个人助手两个应用场景,并分析了各自面临的困境,如知识库无法有效处理多模态信息和大型文档,个人助手则受限于工具参数的复杂性和令牌长度。文章还提到了微调(FINE-TUNING)作为改善模型性能的方法,以及在不同领域的应用潜力。最后,分享了对微调成为标准操作流程的预期,以及对现有平台和基础设施的改进意见。


事件点评

谷歌宣布进行大规模重组

谷歌及其母公司 Alphabet 的首席执行官桑达尔・皮查伊 (Sundar Pichai) 发文宣布了该公司的一些结构性变革,旨在 “提高整个公司的速度和执行力”。具体涵盖四个部分:模型和研究、负责任的人工智能、平台和设备以及使命第一。

皮查伊表示,他们正在将其研究部门和 DeepMind 部门专注于构建 AI 模型的团队整合为一个组织。通过此举,谷歌专注于 AI 安全的 Responsible AI 团队将从其研究组织转移到 DeepMind 部门,这样这些专家就可以与负责设计、构建和训练 Gemini 生成式 AI 模型的团队更有效地合作。

点评

此次重组的核心是强化谷歌在AI领域的地位。反映了谷歌对于AI未来的重视,旨在通过整合硬件、软件和AI来推动计算技术的前进。这一举措可能会对谷歌的合作伙伴、竞争对手以及整个科技行业产生深远影响。由于Android系统在智能手机市场的主导地位,谷歌的任何重大变革都可能影响整个行业。

对于用户而言,短期内可能不会看到显著的变化,但长期来看,谷歌的这一策略可能会在AI驱动的产品和服务领域带来新的创新和体验。

北京:提前谋划、组织攻关 RISC-V 芯片的操作系统内核、编译器等底层软件

北京市经济和信息化局印发《北京市加快建设信息软件产业创新发展高地行动方案》。

其中明确,到 2027 年,北京市信息软件产业营业收入达到 4.8 万亿元。千亿级信息软件企业不少于 4 家,百亿级信息软件企业不少于 35 家。培育世界一流的信息软件企业,打造具有国际竞争力的信息软件产业集群。

点评

这一系列举措表明北京市正积极推动信息软件产业的发展,特别是在AI和软硬件协同方面。这些措施不仅有助于提升北京市在全球信息软件产业的竞争力,也为其他城市和地区在信息软件产业的创新发展提供了宝贵的经验。同时,这也表明了中国在信息软件产业领域的长远规划和坚定决心。

特斯拉裁员事件记录

4/15 周一

4:30am:
一早打开笔记本,发现账号被封了。原以为是 IT 部门的常规问题,没太放在心上。

5:00am:
我通常会在自动驾驶的路上查看邮件(通勤总时长 1 小时 30 分钟)。
邮件里写道:“遗憾的通知您,因本次公司重组,您的职位已经取消。”

5:05am:
给经理发了个短信,经理回复说:“大家都收到这消息了,稍后会有进一步的说明。”

5:50am:
试图刷卡进门时,保安却收走了我的工牌,并告知我已被解雇。

6:00am:
坐回车里,完全不敢相信这是真的。

点评

特斯拉的裁员事件是一个复杂的现象,它涉及企业战略、行业动态以及社会责任等多个方面。凸显了科技行业中快速变化和不确定性的一面。在这个行业中,公司经常需要迅速适应新技术和市场趋势,这有时会导致人员调整。这种快速变化对员工来说可能是压力巨大的,同时也要求他们具备灵活性和适应能力。

特斯拉的裁员事件也引发了关于企业社会责任和员工福利的讨论。在追求商业成功的同时,如何平衡对员工的关怀和责任,是一个值得深思的问题。


开源之声

媒体观点

周鸿祎谈中美AI竞争:用动态、发展的眼光看待 差距没有大家想象的大

关于有一种观点认为“大模型的发展,即所谓的第四次工业革命,中国和国外的差距会越来越大,甚至几代人都无法超越和追赶”,周鸿祎表示,非常反对这个观点,就像仗还没开打,就先举手投降了。没有做过企业的人往往容易用静态的推理,看到对方多两个军马炮,就认为棋必然会输。企业家的思路应该是,用动态、发展的眼光来看,即使现在你多车马炮,但是随着时间的推演,我是不是能吃掉你的一个车,或者是能不能补个马和炮上来。

格隆汇APP

一个让所有人必须考虑的事实就是:开源模型追上闭源模型的历史时刻可能就在眼前了。

这对开发者可能意味着,AI应用可以更加快速的涌现和迭代出来。

而对创业公司们来说,则意味着更彻底的思路上的冲击。

它直接影响到所有以闭源模型 API 为核心的商业模式——既然免费的足够好用,为什么还要花钱呢?

更重要的是,如果连OpenAI、Google和Anthropic神秘的工具箱都不再高不可攀,那做一个比不上开源最强水平的闭源模型的意义何在呢。

最后还是不得不问一句:GPT-5,你到底在哪里呢?

硅星GenAI

傅盛:Llama 3性能炸裂,开源社区终将打败闭源

猎豹移动董事长兼CEO傅盛称,Llama 3性能相当炸裂,远超前一代,不仅是同等参数远超,小参数都比上一代大参数要好。

同时,傅盛还不忘DISS一波友商,称国内某大厂基于自己的利益,公开发表闭源会把开源社区的距离越拉越远的言论。然而事实正好相反,开源社区的攻势越来越猛烈。

- 鞭牛士

李彦宏不寒碜:不赚钱,做大模型干吗?

在商言商,只要未被利益蒙蔽双眼,因商业利益而为自家产品、技术路线强硬站台,无可厚非。对李彦宏和他的百度来说显然也是如此,其既不是发布会上鼓吹的“让人人都是开发者”的那样高尚,也不是周鸿祎反驳中的“胡说八道和忽悠”。

- 极点商业

用户观点

全球第一“开源”名门望族

  • 观点 1:计算机普及要从娃娃抓起。说不如做,身先士卒做表率
  • 观点 2:我在坡县的一个scala meetup上见到过李浩毅和他老婆[呲牙]😁
  • 观点 3:没想到我们IT届还有这样的人物
  • 观点 4:好感直接骤增
  • 观点 5:各位,我先去学 Scala 了,以后不能在这里骚了,再见的时候我可能已经是上流了,有缘再见。

特斯拉裁员事件记录

  • 观点 1:挺暴力
  • 观点 2:凌晨4点半就起床干活了?这么拼又有什么用呢?上面要你毕业,还不是得毕业

Java 是最容易出现第三方漏洞的语言

  • 观点 1:往往第三方库只用很少的一部分功能,没到触发漏洞的地步,这时候应该不用更新。
  • 观点 2:没办法,其他编程语言都没啥第三方库
  • 观点 3:windows:老子也是漏洞最多的操作系统呢
  • 观点 4:ActionScript估计是漏洞最少的语言之一,因为没人用了,也没谁还去开发flash
  • 观点 5:java生态太丰富了

程序员梗图

  • MacBook最佳扩容方案:成本低、人人都能操作

via宝玉xp https://weibo.com/1727858283/OaoqlwKb8

---END---

最后,欢迎扫码下载「开源中国 APP」,阅读海量技术报告、程序员极客分享!

展开阅读全文
点击引领话题📣 发布并加入讨论🔥
0 评论
9 收藏
分享
返回顶部
顶部