点击上方“”,选择加"
重磅干货,第一时间送达
本文转自:AI算法和图像处理
本文包括以下四个部分,您可以跳到相应的小节中仔细阅读。
方法简介 下载和使用代码 下载和介绍数据库 总结
如上图所示,网络结构可以使用netscope(http://ethereon.github.io/netscope/#/editor)在源码中查看网络结构中的每个网络结构layer的参数。这是一个end-to-end网络输入为测试图,输出3个head:bbox、label、mask,整个网络也属于one-stage实例分割网络。有的结果如下:
caffe: caffe代码
model: 模型相关文件
script: 与数据相关的脚本准备训练模型
python: 数据显示相关程序
-
anno_func.py: 功能函数简单
data_show.ipynb: 图像显示方法
deployer.ipynb:
模型测试过程 eval_check.ipynb: 模型评估
数据下载后,解压到和TrafficSign同目录下的文件。
cd TrafficSign/script
1,
2,
./1_convert_lmdb.sh
./2_calc_img_mean.sh
3,
../caffe/build/tools/caffe train --solver../model/solver.prototxt --gpu 0
数据来自一家公司的街景数据,场景相当丰富。数据库有1万张图片,来自中国五个不同城市的10个不同场景,包括不同的照明和季节的照片。数据标注包括:bbox(bounding box)、label和mask,如上图。数据分为四类:warnings 、prohibitions、mandatory、Other,如下图所示,除此四大类外,还根据信息内容进行了细分。
train:所有训练图
test: 所有测试图
other: 从训练集和测试集排除的图
marks: 用于数据增强的标准图
annotations.json: 图片标注文件
关于mask标记使用两种模型来拟合目标边界:三角形和椭圆形,其中三角形在校准时使用三个角点。如果图像畸变严重,将增加标记点。椭圆标记五个点来拟合椭圆方程,json字段含义如下:
path: 图像相对路径
objects:[], 图像中的所有目标
category: 目标类别.
bbox: {xmin,ymin,xmax,ymax:float}, 目标框
ellipse_org: [[x1,y1],[x2,y2],...], 非必须, 椭圆标记点
ellipse: [[x_o,y_o],[r_l,r_s],angle], 非必须, 根据椭圆标记点拟合的椭圆,[x_o,y_o] 是椭圆圆心, [r_l,r_s]是椭圆长短轴, angle椭圆旋转角.
polygon: [[x1,y1],[x2,y2],...], 非必须, 三角形标记点
链接:https://pan.baidu.com/s/1B0Rz2HBLIoVTAIFXxfxnPA提取码:xam3
对于原创作者来说,你的关注和分享是我们分享的动力!
代码是以caffe在此基础上,环境配置可能需要一些时间。小编最近整理了与代码和环境编译相关的问题。我希望你能google/baidu来解决。也欢迎实现。pytorch和tensorflow版本代码。
在「
在「
在「
交流群
欢迎加入微信官方账号读者群与同行交流。SLAM、三维视觉、传感器、自动驾驶、摄影计算、检测、分割、识别、医学图像、GAN、算法竞赛等微信群(以后会逐渐细分),请扫描以下微信号加群,备注:昵称 学校/公+研究方向“,例如:”张三 + 上海交大 + 视觉SLAM“。请按照格式备注,否则不予通过。添加成功后会根据研究方向邀请进入相关微信群。