本专区由 AI & 大数据 团队提供资讯和技术支持,欢迎社区成员申请加入管理小组。
Artificial Intelligence 人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。大数据(big data),是指无法在一定时间范围内用常规软件工具进行捕捉、管理和处理的数据集合,是需要新处理模式才能具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。AI 研究通常需要大量数据支撑。
本专区由 AI & 大数据 团队提供资讯和技术支持,欢迎社区成员申请加入管理小组。
CodeFuse 开源火热进行中!本次开源的是 ModelCache 大模型语义缓存,可大幅降低大模型应用的推理成本,提升用户体验。 CodeFuse-ModelCache 项目地址: https://github.com/codefuse-ai/CodeFuse-ModelCache 0 背景 在LLM技术浪潮席卷全球的背景下,大型模型快速增长的参数规模,对部署所需的推理资源带来了极大的挑战。为了提高大型模型的推理性能和效率,我们尝试从缓存角度解决当前大模型规模化服务部署的困境。类似传统应用... 展开更多
1、应用大模型 AIGC 是基于大模型的,而大模型的基础是深度学习。上一篇文章对深度学习进行了初步介绍,首先是深度学习的神经元起源,引发了基于线性函数的模拟,又因为线性函数无法习得逻辑异或,因此引入了非线性的激活函数,再通过三层神经网络给出了MNIST手写数字识别的模型,接着又介绍了神经网络是如何通过数据与反向传播来学习与调整参数的,最后给出了神经网络的分层结构。 大模型的直观应用当然首先体现在包括ChatGPT... 展开更多
Google Brain的Jeff Dean在2021年提出了Pathways的设想,这是一个为未来深度学习模型而设计的系统。在前不久,Google终于放出了关于Pathways的第一篇论文《Pathways: Asynchronous Distributed Dataflow for ML》 以及使用TPU Pod在Pathways上训练的第一个模型PaLM (Pathways Language Model)。相比传统Transformers结构,PaLM做了一些大胆的创新,相信很多小伙伴已经迫不及待想尝鲜一下PaML的效果,但是又苦于无法实现复杂的并... 展开更多
摘要:本文将带你了解深度神经网络的后门知识,作者提出了一种可靠且可推广的DNN后门攻击检测和缓解系统,这是了解对抗样本和神经网络后门攻击的深度解读。 本文分享自华为云社区《[论文阅读] (02) SP2019-Neural Cleanse 神经网络中的后门攻击识别与缓解》,作者: eastmount。 神经清洁:神经网络中的后门攻击识别与缓解 Neural Cleanse: Identifying and Mitigating Backdoor Attacks in Neural Networks Bolun Wang∗†, Y... 展开更多
摘要:本篇文章主要通过Tensorflow+Opencv实现CNN自定义图像分类案例,它能解决我们现实论文或实践中的图像分类问题,并与机器学习的图像分类算法进行对比实验。 本文分享自华为云社区《Tensorflow+Opencv实现CNN自定义图像分类及与KNN图像分类对比》,作者:eastmount 。 一.图像分类 图像分类(Image Classification)是对图像内容进行分类的问题,它利用计算机对图像进行定量分析,把图像或图像中的区域划分为若干个类别,以... 展开更多
摘要:Matplotlib 是 Python 的绘图库。 它可与 NumPy 一起使用 ,Matplotlib也是深度学习的常用绘图库,主要是将训练的成果进行图形化,因为这样更直观,更方便发现训练中的问题。 本文分享自华为云社区《深度学习基础之matplotlib,一文搞定各个示例,建议收藏以后参考丨【百变AI秀】》,作者:香菜聊游戏。 Matplotlib 是 Python 的绘图库。 它可与 NumPy 一起使用 ,Matplotlib也是深度学习的常用绘图库,主要是将训练的成果... 展开更多
BERT 、GPT 等大规模预训练模型(PTM)近年来取得了巨大成功,成为人工智能领域的一个里程碑。由于复杂的预训练目标和巨大的模型参数,大规模 PTM 可以有效地从大量标记和未标记的数据中获取知识。通过将知识存储到巨大的参数中并对特定任务进行微调,巨大参数中隐式编码的丰富知识可以使各种下游任务受益。现在 AI 社区的共识是采用 PTM 作为下游任务的主干,而不是从头开始学习模型。 本文中,来自清华大学计算机科学与技术系... 展开更多
01 导读 OCR 方向的工程师,之前一定听说过 PaddleOCR 这个项目,其主要推荐的 PP-OCR 算法更是被国内外企业开发者广泛应用。短短半年时间,累计 Star 数量已超过15k,频频登上 Github Trending 和 Paperswithcode 日榜月榜第一。 在《Github 2020数字洞察报告》中被评为中国 Github Top 20活跃项目, 称它为 OCR 方向目前最火的 repo 绝对不为过。 最近,由 PaddleOCR 原创团队,针对 PP-OCR 进行了一些经验性改进,构建了一种... 展开更多
摘要:本篇文章的重点在于改进信息瓶颈的优化机制,并且围绕着高纬空间中互信息难以估计,以及信息瓶颈优化机制中的权衡难题这两个点进行讲解。 本文分享自华为云社区《【云驻共创】美文赏析:大佬对变分蒸馏的跨模态行人重识别的工作》,作者:启明。 论文讲解:《Farewell to Mutual Information: Variational Distillation for CrossModal Person Re-identification》 论文概述 本篇文章的重点在于改进信息瓶颈的优化机制,并... 展开更多
摘要:本文介绍了语音情感识别领域的发展现状,挑战,重点介绍了处理标注数据缺乏的问题。 本文分享自华为云社区《语音情感识别的应用和挑战》,作者:SSIL_SZT_ZS。 情感在人与人的交流中扮演者重要的角色。情感识别具有极大的应用价值,成功的检测人的情感状态对于社交机器人、医疗、教育质量评估和一些其他的人机交互系统都有着重要意义。本文的要点有: 1、情感识别的基础知识和应用场景。 2、语音情感识别技术的介绍以及面... 展开更多
摘要:LaneNet是一种端到端的车道线检测方法,包含 LanNet + H-Net 两个网络模型。 本文分享自华为云社区《【论文解读】LaneNet基于实体分割的端到端车道线检测》,作者:一颗小树x。 前言 这是一种端到端的车道线检测方法,包含LanNet+H-Net两个网络模型。 LanNet是一种多任务模型,它将实例分割任务拆解成“语义分割”和“对像素进行向量表示”,然后将两个分支的结果进行聚类,得到实例分割的结果。 H-Net是个小网络,负责预... 展开更多
最近全球各大新势力造车公司简直不能再火!小编看着蹭蹭飙升的股价实在是眼红的不要不要的。而懂行的人都知道,以特斯拉为首,各大公司都采用计算机视觉作为自动驾驶的技术底座,而其中正是通过图像分割技术,汽车才能分清楚哪里是路,哪里是人。 那图像分割重不重要还需要我强调么?而今天我要给大家介绍的这个开源套件,就涵盖业界最前沿的图像分割算法,并效果超群,这就是 PaddleSeg!!OMG,还在等什么?!盘他!盘他!盘他... 展开更多
摘要:语义分割的数据集是比较大的,因此训练的时候需要非常强大的硬件支持。 本文分享自华为云社区《【云驻共创】基于迁移学习的语义分割算法分享》,原文作者:启明。 此篇文章是分享两篇基于迁移学习的语义分割算法论文。第一篇:《Learning to adapt structured output space for semantic segmentation》,第二篇《ADVENT: Adversarial Entropy Minimization for Domain Adaptation in Semantic Segmentation》。 Part 1:... 展开更多
本文分享自百度开发者中心NEJM:全球首例,AI+脑机接口技术让“失语”瘫痪患者实现沟通自由 每年,全球有成千上万的人因中风、事故或疾病而丧失说话的能力。这让他们像一座座孤岛,默默承受着生命带来的沉重。如何帮助这些无法言语的瘫痪患者提高生活质量,是脑机接口领域一直希望攻克的课题。 近日,美国加州大学旧金山分校 Chang Lab 的研究人员发表论文称,他们首次用脑机接口帮助一位瘫痪超过 15 年的失语男子 BRAVO1 恢复了... 展开更多
本文分享自百度开发者中心Beyond 预训练语言模型,NLP还需要什么样的知识? 近年来,深度学习技术已广泛应用于NLP领域,但实际应用效果往往受限于缺乏大规模高质量监督样本。2018年底,预训练语言模型横空出世,极大缓解了这个问题,通过“超大规模无监督语料上的预训练语言模型+相对少量的监督样本进行任务精调(fine-tuning)”,可以大幅提升各类NLP任务的效果。 由于效果显著和应用机制简单,预训练语言模型以前所未有的速度... 展开更多
撰文 | 袁进辉 上周写了一篇《浅谈GPU虚拟化与分布式深度学习框架的异同》,想不到引起很多关注和讨论。和朋友们讨论之后,觉得这个话题值得再发散一下: 首先,文章只讨论了GPU“一分多”这种“狭义”的虚拟化,还存在另外的虚拟化,“多虚一”也是存在的。在此,我想特别强调的是:上一篇文章后半部分对深度学习框架“多合一”的讨论恰恰是想说明“多虚一”是不可能靠仅仅一层包打天下的API就能实现,反而要靠”去虚拟化“的思... 展开更多
撰文 | 袁进辉 经常有人来问我:GPU虚拟化和分布式深度学习框架的异同,以及是不是用GPU虚拟化技术也可以解决现在超大规模深度学习模型的分布式训练难题。 这次不妨把我的观点简要总结并分享出来,只想知道结论的朋友只需看简短的答案:两者不是一回事,二者的思想是对立的,GPU虚拟化对解决分布式训练深度学习模型的难题没有任何作用(不谈负作用的话)。 想知道原因的读者请继续阅读下文。 1 GPU虚拟化 GPU虚拟化的主要出发点... 展开更多
摘要:本文带大家从另一个角度来理解和认识图卷积网络的概念。 本文分享自华为云社区《技术综述十二:图网络的基本概念》,原文作者:一笑倾城。 基础概念 笔者认为,图的核心思想是学习一个函数映射f(.)f(.),借助该映射,图中的节点可以聚合自己的特征与邻居节点的特征,从而生成该节点的新特征表示。 Figure 1. 图的一般推理过程[1] 图神经网络 Vs. 卷积神经网络 如图2所示,卷积神经网络的输入数据一般是规则的矩阵类型数据... 展开更多