作者 |ljc_coder@CSDN
链接 |
https://blog.csdn.net/m0_52785249/article/details/124505848
编辑 |新机器视觉
本文是我观看视频的学习笔记,仅供学术交流
kinect2相机简介
1.三种主要相机类型
2、常见的RGB-D相机
3、kinect2 相机
从左到右依次是:彩色摄像头;红外摄像头(深度摄像头),但这必须与右侧相匹配IR Project(红外投射器)一起工作;下面的长条是麦克风,能感受到说话人的方向
3.1使用RGB-D相机的好处
物体的空间位置可以通过拍摄的深度图直接获得
3.2问题
keinect相机 彩色图像是1920x1080,但深度图为512x414,需要深度校准
3.3.实际标定获得的数据
相机坐标系 -> 物理成像平面
物理成像平面 -> 像素平面
总结一下
以下内参矩阵可以描述整个投影过程 fx,fy,cx,cy
主要通过k1,k2,k3三个参数来描述相机的径向畸变(常用k1,k2就够了)
一般用于切向畸变。p1,p2来描述
2、工具
对于 kinect 可以用 iai_kinect2 标定工具包
3.棋盘标定板
4、彩色相机校准
5.红外相机标定
6.外参标定彩色相机和红外相机
如何描述深度坐标系下的点?RGB图中
7.深度相机的深度校准
(配准后的深度图不对)
正确
本文仅进行学术分享。如有侵权行为,请联系删除。
后台回复:
后台回复:
后台回复:
1.自动驾驶领域的多传感器数据集成技术
2.自动驾驶领域3D点云目标检测全栈学习路线!(单模态 多模态/数据 代码)3.彻底了解视觉三维重建:原理分析、代码解释、优化和改进4.中国第一门面向工业级实战的点云处理课程5.激光-视觉-IMU-GPS融合SLAM算法梳理和代码解释6.彻底理解视觉-惯性-惯性SLAM:基于VINS-Fusion正式开课啦7.彻底了解基础LOAM框架的3D激光SLAM: 从源代码分析到算法优化8.室内外激光彻底分析SLAM关键算法原理、代码和实战(cartographer LOAM LIO-SAM)
9.从零开始建造一套结构光3D重建系统[理论 源码 实践]
10.单目深度估计方法:算法梳理和代码实现
11.在自动驾驶中部署深度学习模型
12.相机模型及标定(单目) 双目 鱼眼)
13.重磅!四旋翼飞机:算法与实战
14.ROS2从入门到精通:理论与实战:
15.国内首个3D缺陷检测教程:理论、源代码和实战
扫码添加小助手微信,可申请添加3D视觉研讨会-学术论文写作和提交目的是微信交流群
▲长按加微信群或投稿
▲长按关注微信官方账号
学习3D视觉核心技术,扫描查看介绍,3天内无条件退款
圈里有高质量教程资料、答疑解惑、助你高效解决问题