高精度人类数采

高精度人类数采在计算机视觉与人机交互领域具有重要意义。面向以第一视角(egocentric)为核心的真实交互场景,对人体(尤其是手部)的精准、高效数据采集与建模,能够为虚拟现实、增强现实、智能驾驶、机器人交互等应用提供更加自然、直观且贴近人类操作方式的交互基础。例如,在虚拟现实场景中,通过第一视角下对用户手部运动与形态数据的实时、准确采集与重建,系统能够实现更具沉浸感的交互体验,如精细抓取与操作虚拟物体。在机器人领域,基于第一视角采集的人类操作数据更贴近真实执行过程,可作为示教与学习的重要来源,帮助机器人理解人类动作意图,提升人机协作效率。此外,高质量的第一视角人体与手部数据还可为医学分析、动画制作等领域提供可靠的数据支撑,辅助疾病诊断、数字人建模与动作生成等任务。我们的研究主要致力于提升基于RGB与Depth模态的第一视角人体(尤其是手部)数据采集与建模的精度、效率及鲁棒性。

基于RGB图的三维手部姿态估计


Click here for details

Demo

基于深度图的三维手部姿态估计


Click here for details

自监督三维手部重建


强监督三维手部姿态估计方法在复杂真实环境下泛化能力有限,常面临时序抖动和精度下降问题。多样性高质量标注手部数据的缺失是导致现有模型泛化能力差的核心原因。自监督三维手部重建正旨在通过利用海量无标注数据自身蕴含的结构信息,构造伪标签和预测任务,使模型在无需人工标注的条件下自主学习鲁棒手部特征,从而有效缓解过拟合问题。我们的工作借助多视角自监督策略,构建跨视角共享的一致性潜在表征空间,实现知识迁移与互补优势的充分挖掘,不仅提升了对手部自遮挡、复杂姿态的识别能力,增强了系统在真实场景下的鲁棒性和精确度。我们的研究在无需任何标注数据的情况下,首次实现了10mm三维手部重建误差。

Click here for details

手物协同重建


精准重建手部与物体交互过程,赋能虚拟现实、智能制造和机器人操作等。手物交互数据包含描述手部动态姿态和物体位姿的时空信息,比如交互序列数据。我们的研究方向主要集中在手物姿态估计、细粒度手物网格重建、照片级真实的手物渲染,旨在提升交互细节的还原度和物理合理性。研究平台已在多个场景的人机交互平台中落地应用。例如,在裸手交互系统中,无需额外传感器即可实现对手部和物体的精确三维重建,提升了交互的自然度和灵活性;在VR平台中,手物交互重建技术助力高沉浸式体验;此外,研究成果在真实场景渲染中也得到了广泛应用,通过高精度的手物建模与渲染技术,实现了交互过程的照片级还原,为影视制作、数字孪生和工业仿真等领域提供了核心技术支持。

时序姿态


Click here for details