C3D 正在参加 2020 年度 OSC 中国开源项目评选,请投票支持!
C3D 在 2020 年度 OSC 中国开源项目评选 中已获得 {{ projectVoteCount }} 票,请投票支持!
投票让它出道
已投票
C3D 获得 2020 年度 OSC 中国开源项目评选「最佳人气项目」 !
C3D 获得 2020 年度 OSC 中国开源项目评选「最佳人气项目」「最积极运营项目」 !
C3D 获得 2020 年度 OSC 中国开源项目评选「最积极运营项目」 !

软件简介

C3D 是 BVLC Caffe 的修改版本,以支持 3D 卷积和池化,它主要包括以下两个特点:

  • 培训或微调 3D ConvNets。

  • 预先训练 C3D 模型以提取视频功能。

展开阅读全文

代码

的 Gitee 指数为
超过 的项目

评论 (0)

加载中
更多评论
暂无内容
发表了博客
2019/03/22 17:39

C3D视频特征提取

一.部署 1. 先把项目Clone下来 git clone https://github.com/jfzhang95/pytorch-video-recognition.git 2. 安装环境: PyTorch 的安装可以参考这里https://pytorch.org/ pip install opencv-python tqdm scikit-learn tensorboardX 3.下载C3D预训练模型: 在项目目录下新建一个models目录,用来存放预训练模型 百度云地址:https://pan.baidu.com/s/1saNqGBkzZHwZpG-A5RDLVw GoogleDrive:https://drive.google.com/file/d...

0
0
2019/07/19 19:09

R-C3D 视频活动检测

点击我爱计算机视觉标星,更快获取CVML新技术 本文为52CV群友RoseVam投稿,介绍了视频活动检测经典模型 R-C3D: Region Convolutional 3D Network for Temporal Activity Detect,该文出自ICCV 2017,谷歌学术显示已有127次引用,是该领域近两年较有影响力的工作,代码已开源。 论文作者信息: 算法基本思想: 受目标检测方法Faster R-CNN的启发,论文中提出了一种区域卷积3D网络(Region Convolutional 3D Network,R-C3D)如上图...

0
0
发表了博客
2019/07/16 22:37

Temporal Action Detection(时序动作检测)之R-C3D论文详解

  本篇文章是基于《R-C3D:Region Convolutional 3D Network for Temporal Activity Detection》的详解,欢迎批评指正。     动作检测(Action Detection)主要用于给分割好的视频片段分类,但在实际中视频多是未分割的长视频,对于长视频的分割并且分类任务叫做时序动作检测(Temporal Action Detection)。给定一段未分割的长视频,算法需要检测视频中的动作片段,包括开始时间、结束时间和动作类别。一段视频可以包含一...

0
0
2020/04/12 23:01

【项目实践】基于PyTorch实现C3D模型的视频行为识别实践

点击上方AI人工智能初学者,订阅我!此刻开始我们一起学习进步! 目录 1、3D卷积t简介 2、C3D模型原理与PyTorch实现 2.1、C3D模型结构 2.2、C3D视频动作识别(附PyTorch代码) 2.3、测试结果 参考 1、3D卷积的简介 在图像处理领域,被卷积的都是静态图像,所以使用2D卷积网络就足以。而在视频理解领域,为了同时保留时序信息,就需要同时学习时空特征,如果用2DCNN来处理视频,那么将不能考虑编码在连续多帧之间的运动信息,而C...

0
0
发表了博客
2019/08/07 09:11

Collaborative Spatioitemporal Feature Learning for Video Action Recognition

Collaborative Spatioitemporal Feature Learning for Video Action Recognition 摘要 时空特征提取在视频动作识别中是一个非常重要的部分。现有的神经网络模型要么是分别学习时间和空间特征(C2D),要么是不加控制地联合学习时间和空间特征(C3D)。 作者提出了一个新颖的neural操作,它通过在可学习的参数上添加权重共享约束来将时空特征encode collaboratively。 特别地,作者沿着体积视频数据的三个正交视图进行二维卷积,...

0
0
2020/07/31 23:57

国防科大提出基于可变形三维卷积(D3Dnet)的视频超分辨,代码已开源

视频是具有时间连续性的图像集合,其中每帧图像的上下文信息(空域信息)与不同帧之间的互补信息(时域信息)都有助于提升视频超分辨的性能。 近日,来自国防科技大学的学者提出基于可变形三维卷积的视频超分辨网络(D3Dnet),通过将可变形卷积(Deformable Convolution)和三维卷积(3D Convolution)有机结合,同时实现高效时空信息建模与灵活帧间运动补偿。 实验表明,该网络生成视频的清晰度、流畅度与网络的运行效率均处于...

0
0
没有更多内容
加载失败,请刷新页面
点击加载更多
加载中
下一页
没有更多内容
加载失败,请刷新页面
点击加载更多
加载中
下一页
0 评论
4 收藏
分享
OSCHINA
登录后可查看更多优质内容
返回顶部
顶部