借助 Microsoft Kinect 传感器, 普渡大学工程师 (欧盟) 创建了一个可以转换任何平面或其他格式的系统- 在多点触控和多用户屏幕上.

普渡大学的研究人员, 位于西拉斐特 (印第安纳州, 美国) 开发了“扩展多点触控”系统’ 它由一台计算机组成, 视频投影仪和 Kinect 摄像头 微软 这使您可以将任何表面转变为触摸屏界面, 可以同时追踪多只手.

系统将界面图像投影到桌面或墙壁等平坦表面上, 尽管表面的材质无关紧要. 深度感应 Kinect 摄像头根据该图像进行训练, 并且能够检测用户双手的距离. 为了能够将那些手识别为手, 计算机上运行的软件包含数字手模型, 这使得系统能够在“看到”时识别出诸如手之类的物体’ 一个通过相机. 该模型还可以区分手的不同部位, 以及左右手之间.

可能的应用

卡蒂克·拉玛尼, 普渡大学机械工程系教授, 已解释: “摄像头可以看到用户的手放在哪里, 哪些手指按压在表面上, 跟随您的手势并识别是否有多个人同时工作. 可以执行精确的任务, 如何用铅笔写字, 用惯用手, 以及更一般的事情, 就像颜色选择一样, 使用非惯用手。”

到目前为止, 实验室测试表明,该系统的准确率达到 98 确定手势的百分比 - 能够识别手势的关键要素 -. 新的、更精确的相机应该会进一步提高成功水平, 让扩展的多点触控系统得到实际应用.

拉玛尼补充道: “可用于任何内部表面,与计算机进行虚拟交互. 可用于家庭环境, 打开设备, 在设计工作室研究概念, 或在实验室, 老师和学生互动的地方”.

[YouTube]http://www.youtube.com/watch?v=_AbzMtwaQEk[/YouTube]

经过, 11 十月, 2012, 部分: 展示, 基础设施

其他文章有关

你喜欢这篇文章吗?

订阅我们的 通讯 你不会错过任何东西.