Microsoft Kinect SDK深度数据到现实世界坐标

前端之家收集整理的这篇文章主要介绍了Microsoft Kinect SDK深度数据到现实世界坐标前端之家小编觉得挺不错的,现在分享给大家,也给大家做个参考。
我使用Microsoft Kinect SDK从Kinect获取深度和颜色信息,然后将该信息转换为点云.我需要深度信息是以相机中心为原点的现实世界坐标.

我看到了一些转换功能,但这显然是为OpenNI和非Microsoft驱动.我已经看到,Kinect的深度信息已经是毫米,并且包含在11bits …或某事.

如何将这个位信息转换成我可以使用的真实世界坐标?

提前致谢!

在Kinect for Windows库中使用Microsoft.Research.Kinect.Nui.SkeletonEngine类,以及以下方法来满足此要求:
public Vector DepthImageToSkeleton (
    float depthX,float depthY,short depthValue
)

方法将基于真实世界的测量,将Kinect生成的深度图像映射为矢量可扩展的图像.

从那里(当我以前创建了一个网格),在枚举由Kinect深度图像创建的位图中的字节数组后,您将创建一个类似于以下内容的Vector列表:

var width = image.Image.Width;
        var height = image.Image.Height;
        var greyIndex = 0;

        var points = new List<Vector>();

        for (var y = 0; y < height; y++)
        {
            for (var x = 0; x < width; x++)
            {
                short depth;
                switch (image.Type)
                {
                    case ImageType.DepthAndPlayerIndex:
                        depth = (short)((image.Image.Bits[greyIndex] >> 3) | (image.Image.Bits[greyIndex + 1] << 5));
                        if (depth <= maximumDepth)
                        {
                            points.Add(nui.SkeletonEngine.DepthImageToSkeleton(((float)x / image.Image.Width),((float)y / image.Image.Height),(short)(depth << 3)));
                        }
                        break;
                    case ImageType.Depth: // depth comes back mirrored
                        depth = (short)((image.Image.Bits[greyIndex] | image.Image.Bits[greyIndex + 1] << 8));
                        if (depth <= maximumDepth)
                        {
                            points.Add(nui.SkeletonEngine.DepthImageToSkeleton(((float)(width - x - 1) / image.Image.Width),(short)(depth << 3)));
                        }
                        break;
                }

                greyIndex += 2;
            }
        }

通过这样做,最终的结果是以毫米为单位存储的向量列表,如果你想要厘米乘以100(等等).

猜你在找的Windows相关文章