《Kinect应用开发实战:用最自然的方式与机器对话》一导读

《Kinect应用开发实战:用最自然的方式与机器对话》一导读

前 言

为什么要写这本书
Kinect以Natal为开发代号在CES2010一亮相就光芒四射。发布会上那段视频令我印象深刻:你可以用身体自如地进行游戏,而且无需任何控制器。也许就在那一刻,全世界的很多技术爱好者都在想:“我们还可以用Kinect干点什么呢?”
我将这段视频转发给复旦大学附属中山医院的阴忆青博士。他看完后敏锐地问道:“是否可以基于Kinect开发手术室的应用?”那时Kinect还未正式发布,但这个念头着实让我兴奋不已。
我们似乎已经进入了这样一个时代:计算机已逐渐拥有与人类媲美的感知能力—它们能看到、触摸到、感觉到我们所处的地点和运动状态。科幻电影银幕中的场景,正逐步出现在我们的身边,并成为生活中的一部分。Kinect正是在这样的背景中诞生的,人机交互从二维世界扩展到三维空间,而且是非接触的交互体验(Touch-Free)。Kinect也许会成为第三次人机交互革命的原点。

目 录

第1章 自然人机交互技术漫谈
1.1 自然人机交互技术的发展
1.2 “你就是控制器”—Kinect宣言
第2章 揭开Kinect的神秘面纱—硬件设备解剖
2.1 两款Kinect传感器对比
2.2 Kinect传感器的硬件组成
2.3 Kinect相关技术规格
2.4 本章小结
第3章 Kinect工作原理大揭秘
3.1 Kinect for Xbox 360的产品设计
3.2 基于“管道”的系统架构
3.3 Kinect眼里的三维世界
3.4 深度图像成像原理
3.5 从深度图像到骨骼图
3.6 创建你的Avatar
3.7 本章小结
第三部分 基础篇
第4章 Kinect for Windows SDK导读
4.1 什么是Kinect SDK
4.1.1 Kinect SDK的发展历程
4.1.2 SDK v1.5的新特性
4.1.3 SDK v1.5尚未提供的API
4.1.4 从底层进行封装
4.2 Kinect for Windows体系架构
4.3 应用层API详解
4.3.1 Kinect的核心NUI API
4.3.2 Kinect Audio DMO
4.3.3 Windows Speech SDK
4.4 数据流概述
4.4.1 彩色图像数据
4.4.2 用户分割数据
4.4.3 深度图像数据
4.4.4 如何获取数据流
4.5 骨骼跟踪
4.5.1 骨骼信息检索
4.5.2 主动跟踪和被动跟踪
4.5.3 骨骼跟踪对象选择
4.6 NUI坐标转换
4.6.1 深度图像空间坐标
4.6.2 骨骼空间坐标
4.6.3 坐标变换
4.6.4 传感器阵列和倾斜补偿
4.6.5 地面测量
4.6.6 骨骼镜像
4.7 本章小结