具身智能时空记忆的研究进展
1. 定义
具身智能(Embodied Intelligence, EI)是指智能体通过物理身体与环境的实时交互,实现感知、决策和行动的能力。其核心思想是“智能源于身体与环境的互动”,而非仅仅依赖于抽象的计算或符号处理[28]。具身智能强调智能体在物理世界中的主动性和适应性,通过多模态感知和动态交互,完成复杂任务[26]。
2. 核心要素
具身智能的核心要素包括以下几个方面:
2.1 感知-决策-行动循环
具身智能的关键特征是感知-决策-行动循环。智能体通过感知环境,做出决策,并采取相应的行动,形成一个闭环系统[30]。这种循环不仅涉及简单的输入输出,还包括对环境的实时反馈和调整。
2.2 身体与感知的结合
具身智能的一个关键特点是智能体拥有一个“物理的”身体,能够感知环境并通过身体与环境进行交互。感知是具身智能的基础,它使智能体能够获取环境信息并进行认知处理[30]。
2.3 复杂任务的解决
具身智能能够解决复杂的任务,这些任务通常需要多模态感知和动态交互。例如,机器人可以通过视觉、触觉等感知系统与周围环境互动,从而做出决策和反应[26]。
2.4 层次化的信息处理
具身智能的信息处理是层次化的,从低级的感官输入到高级的认知输出,形成一个多层次的信息处理系统。这种层次化处理有助于智能体更好地理解和适应环境[26]。
2.5 实体形态与虚拟形态的结合
具身智能不仅关注物理实体,还结合了虚拟形态。例如,通过大模型和神经网络,智能体可以生成动态的四维世界模型,从而更好地理解和预测环境[19]。
3. 时空记忆
具身智能的时空记忆是指智能体在感知和行动过程中形成的对时间和空间信息的记忆。这种记忆不仅包括对特定事件的记忆,还包括对时间和空间关系的记忆。例如,海马体在处理时间和空间信息方面具有独特功能,能够编码序列和位置记忆,并整合时间和路径[16]。
3.1 时间记忆
时间记忆涉及对事件顺序的记忆,这是具身智能的重要组成部分。海马体中的时间细胞能够编码时间序列,帮助智能体重建事件的时间框架[7]。
3.2 空间记忆
空间记忆涉及对环境布局和位置的记忆。海马体在空间记忆中起着关键作用,能够编码环境的空间结构,并帮助智能体进行导航[16]。
3.3 情境记忆
情境记忆是指对特定情境的记忆,包括特定的时间、地点、人物和事件。这种记忆在具身智能中非常重要,因为它帮助智能体理解和重现过去的经历[21]。
4. 应用与挑战
具身智能在机器人技术、人机交互、自动化等领域具有广泛的应用前景。然而,具身智能也面临一些挑战,如长期判断、训练集差距、泛化体系、可靠预测和感官形态等[15]。未来的研究需要进一步探索如何提高具身智能的感知、认知和行动能力,以实现更高效和可靠的智能系统。
综上所述,具身智能的时空记忆是其核心要素之一,通过感知-决策-行动循环、层次化的信息处理和对时间和空间信息的记忆,具身智能能够更好地理解和适应复杂环境。
具身智能时空记忆研究的最新文献(近3年顶会论文)
以下是近三年内关于具身智能时空记忆研究的最新文献:
- 《具身智能与人工通用智能的关系及前沿研究》(2024年08月30日)
- 该论文探讨了具身智能的发展方向,包括长期记忆能力的提升。通过开发新的记忆机制和算法,如递归神经网络(RNN)、长期短期记忆网络(LSTM)和变分自编码器(VAE),提高具身智能系统的长期任务能力[31]。
- 《医疗具身智能发展现状与未来展望》(2025年01月30日)
- 该论文详细介绍了具身智能在医疗领域的应用,特别是其记忆模块的能力。短期记忆用于即时上下文信息的处理,而长期记忆则支持系统的学习与适应[32]。
- 《具身记忆及其内在机制》(2023年03月28日)
- 该论文探讨了身体及其感觉运动过程在记忆形成中的作用,提出了具身记忆的感觉运动模拟模型,强调重新激活在具身记忆中的关键作用[33]。
- 《具身智能探索体在导航、规划与环境感知中的最新技术进展》(2024年05月13日)
- 该论文介绍了具身智能体在导航、规划与环境感知中的最新技术进展,包括Context-Aware Planning and Environment Memory for Instruction Following Embodied Agents等研究[34]。
- 《具身智能 | CCF 专家谈术语》(2024年09月20日)
- 该论文讨论了具身智能从理论到实践的进展,提到了一些关键技术和应用,如Habitat-matterport 3D dataset等[38]。
- 《穹彻智能在WAIC 2024推出穹彻具身大脑NoemeraBrain》(2024年07月06日)
- 该新闻报道了穹彻智能在世界人工智能大会上推出的新一代具身大脑NoemeraBrain,强调了其在操作物理常识和力反馈嵌入智能体行为决策上的联合训练[50]。
- 《具身认知研究进展述评》(2024年01月01日)
- 该论文综述了具身认知领域的最新研究进展,涉及认知科学、认知机器人学、心理学、计算机科学、神经科学和人工智能等多个学科[60]。
这些文献涵盖了具身智能在记忆、导航、规划、环境感知等多个方面的最新研究进展,展示了该领域的前沿技术和应用前景。
①中涉及的关键技术(如时空注意力机制、记忆编码模型等)
实现具身智能中的时空注意力机制和记忆编码模型可以通过以下几种方法:
1. 时空注意力机制:
- Transformer结构:利用Transformer模型中的多头注意力机制,可以有效捕捉序列中的关键信息和位置关系。例如,TransVOD框架通过时空Transformer解码器(STE)和时空Transformer编码器(STD)进行空间变换,结合跨注意、自注意和前馈网络等组件,实现对视频中物体的精确检测[65]。
- 时空解码器:在多目标跟踪任务中,可以使用包含四个注意力模块(Cross Attention 和 Self Attention)的时空解码器,每个模块都有输入和输出连接,并使用位置编码(PE)来处理时间信息[68]。
- 局部感知注意力:在人体姿态识别中,通过计算基于内容的相关性得分,实现局部感知对齐,并使用局部掩码提供目标at,以优化局部感知对齐损失[73]。
2. 记忆编码模型:
- 稀疏记忆机制:智元机器人团队提出的EnerVue框架采用稀疏记忆机制,通过从不同时间点提取特征并形成记忆流,支持长程任务规划。这种机制在生成长程视频任务和未来视角视频方面表现出色[63]。
- 多层Transformer策略头:在EnerVue框架中,通过由多层Transformer组成的策略头,实现高效的动作预测和稀疏记忆支持[63]。
- 时空记忆注意:在视频语义分割任务中,通过矩阵操作(P、R、T、C)计算注意力权重,并将注意力结果与原始特征融合,捕捉视频序列中的动态信息[83]。
3. 结合其他技术:
- 自回归扩散模型:在EnerVue框架中,采用自回归扩散模型进行4D生成,结合自由锚定视角(FAV)技术,实现高质量的4D机器人世界模型[63]。
- 多模态融合:通过结合CNN、LSTM和VMD等技术,提高模型的预测精度和泛化能力[71]。
- 特征融合:利用交叉注意力机制和特征融合技术,提升模型的准确率和泛化能力[64][66]。
综上所述,实现具身智能中的时空注意力机制和记忆编码模型需要综合运用Transformer结构、稀疏记忆机制、多模态融合等技术,以提高模型的性能和泛化能力。
①中在机器人领域的典型应用场景(导航/操作/交互等)
具身智能在机器人领域的典型应用场景包括:
- 导航:具身智能机器人通过多模态感知、语言理解和路径规划等技术,实现高效导航。例如,特斯拉的自动辅助驾驶系统Autopilot利用车载传感器和摄像头收集数据,实现自适应巡航控制、车道保持辅助和自动变道等功能[104]。此外,具身智能导航大模型通过深度学习和自我优化技术,构建精确的三维环境模型,使机器人能够识别物体、理解场景并做出精准决策[19]。
- 操作:具身智能机器人在工业自动化、医疗手术、精密制造等领域表现出色。例如,千寻智能的机械臂能够完成捏起糖豆、抓取鸡蛋、装订文件等复杂任务,实现了人机交互及协同作业[92]。在智能制造领域,具身智能机器人通过主动感知环境、自主学习和决策来执行拟人化任务,如在中兴通讯的5G智能制造工厂中,具身智能机器人被用于插拔工人替代插拔5G RJ45产品和光模块,成功打通了全自动化生产线的最后断点[106]。
- 交互:具身智能机器人在服务机器人、虚拟现实、增强现实和游戏设计等领域有广泛应用。例如,ChatGPT在机器人领域的应用包括机器人协作、机器人教学和机器人规划,可以提高机器人任务的成功率和鲁棒性[96]。此外,具身交互任务要求智能体在物理或模拟空间中与人类和环境进行互动,典型任务如具身问题解答(EQA),需要智能体主动探索环境并整合信息来回答问题[94]。
- 其他应用:具身智能机器人还在自动驾驶汽车、无人机、医疗保健、搜寻与救援、太空探索等领域有重要应用。例如,自动驾驶汽车利用具身智能来安全地感知环境、判断交通情况,并做出安全的驾驶和导航决策[99]。无人机则更好地感知空中环境、规避障碍物,并执行精确的飞行任务[99]。
综上所述,具身智能在机器人领域的应用场景广泛且多样,涵盖了从工业自动化到日常生活服务的多个方面。
①中研究中的主要挑战与瓶颈(数据获取/计算复杂度/泛化能力等)
具身智能研究中的主要挑战与瓶颈主要集中在数据获取、计算复杂度和泛化能力等方面。以下是具体问题的详细分析:
数据获取
- 真实数据稀缺:具身智能系统训练和验证的关键在于真实世界数据的获取,但这些数据的收集成本高、标注难、多样性不足。例如,环境的多变性和不确定性要求模型能够泛化至未见情景,这进一步加剧了对大规模多样化数据的需求,尤其是非实验室环境的数据收集[120]。
- 数据采集成本高昂:在复杂环境中进行物理交互的数据采集成本高昂且获取难度大。例如,自动驾驶汽车为捕获一小时的多模式机器人数据的成本可能非常高[104]。
- 数据类型特殊:具身智能涉及的空间维度极为复杂,数据类型特殊,不是简单的互联网文本数据,而是从“视觉感知”到“动作执行”的专用数据[137]。
计算复杂度
- 软件栈的复杂性:具身智能系统需要融合环境感知、物理交互和复杂任务执行等多方面功能,需要高度协调不同组件,如传感器数据处理、复杂算法运算及执行器控制[122]。
- 硬件与软件的深度集成:具身智能需要高效、可靠的软件系统,并实现软硬件的深度集成。这包括开发能够适应复杂环境和任务的控制算法,以及大数据、大模型和大算力的支持[104]。
- 计算资源需求高:例如,使用视觉基础模型和序列模仿技术提升具身智能体的三维操作能力时,所需的计算资源较为庞大[136]。
泛化能力
- 泛化能力不足:当前的具身智能系统在泛化能力方面存在局限性,尤其是在开放环境中面对大量数据域偏移和新类别动态出现时,已有方案难以适应新数据域、对新场景进行准确理解[128]。
- 缺乏本体认知和灵活运用能力:尽管语言任务预训练带来了组合/系统性泛化能力,但具身智能仍缺乏本体认知和灵活运用能力[121]。
- 多模态有效数据匮乏:具身智能大模型面临多模态有效数据匮乏的问题,仅依靠真实数据训练具身智能大模型面临泛化性差等难题[127]。
其他挑战
- 感知与行动之间的认知映射:具身智能尚未实现感知到行动的紧密认知映射,即感知与快速响应和环境适应性之间的关系[104]。
- 算法的泛化能力有待提高:具身智能的算法泛化能力仍有待提高,特别是在复杂环境下的感知与决策存在瓶颈[123]。
- 人机交互技术尚不成熟:高效的人机交互技术尚未成熟,影响了具身智能的实际应用[123]。
综上所述,具身智能研究中的主要挑战包括数据获取的高成本和低多样性、计算复杂度的高要求以及泛化能力的不足。这些挑战不仅制约了技术的广泛应用,还对进一步的研究方向提出了深刻的要求。
权威机构(MIT/CMU/DeepMind等)在①中领域的研究布局
MIT、CMU和DeepMind在具身智能的时空记忆领域的研究布局如下:
- MIT:
- MIT的研究团队在海马体和前额叶皮层的记忆形成机制方面取得了重要进展。他们发现海马体的不同回路对时间和空间信息的编码具有独立性,这些回路在不同点上可能合并或分离,从而支持记忆的构建和检索[148][155]。
- MIT的研究还揭示了海马体中的“位置细胞”和“网格细胞”如何协同工作,形成内部坐标系统,帮助动物记住特定位置并导航[160][175]。
- 此外,MIT的研究还涉及记忆整合机制,特别是海马体如何通过与外侧皮层区域的连接形成“大循环”,帮助整合记忆[170]。
- CMU:
- CMU的研究团队与Google DeepMind合作,开发了一种名为VLM记忆生成的方法,通过经验蒸馏法将低质量数据转化为具身思维程序,从而提升AI的自主学习和记忆能力[161]。
- DeepMind:
- DeepMind在记忆和时间旅行方面取得了显著进展。他们提出了一种名为RMA(Reconstructing Memory Agent)的模型,使AI能够“回忆”过去的行为并做出未来决策[158][168]。
- DeepMind还开发了长程记忆模型和数据集,通过强化学习和重播缓冲区技术,模拟人类神经重现记忆的现象[164][173]。
- 此外,DeepMind的研究还涉及AI在虚拟现实环境中的记忆存储与强化学习,提出了MERLIN架构,用于在部分观察的环境中存储和检索记忆[166]。
综上所述,MIT、CMU和DeepMind在具身智能的时空记忆领域各有侧重,但都致力于通过神经科学的启发来提升AI的记忆和认知能力。
具身智能时空记忆与传统记忆模型的对比分析
具身智能时空记忆与传统记忆模型的对比分析可以从以下几个方面进行:
1. 记忆类型和功能:
- 具身智能:具身智能体通过感知智能和行为智能在物理空间中进行交互,其记忆不仅包括短期记忆和长期记忆,还包括时空记忆。时空记忆能够帮助具身智能体在复杂环境中进行导航、定位和时间同步,支持其在不同场景下的任务执行[176][178][181]。
- 传统记忆模型:传统记忆模型主要关注工作记忆、短时记忆和长时记忆。工作记忆用于处理当前任务,短时记忆用于临时存储信息,长时记忆则用于存储广泛的知识和经验[179][13]。
2. 记忆存储和提取方式:
- 具身智能:具身智能体的记忆存储和提取方式更加动态和实时。例如,EnerVue架构通过自回归扩散模型和稀疏记忆机制,实现了高效的4D生成和动作规划性能[63]。此外,具身智能体的记忆可以隐式编码为神经网络的权重,支持其在复杂环境中的自主学习和适应[179][194]。
- 传统记忆模型:传统记忆模型通常依赖于显式的知识表示和编码。例如,递归神经网络(RNN)和基于注意力的记忆架构在捕捉长期依赖关系方面具有优势,但这些模型在处理多模态信息和时空数据时存在局限性[189][193]。
3. 应用场景和性能:
- 具身智能:具身智能体在自动驾驶、机器人导航、虚拟现实等领域表现出色。例如,智元机器人团队的EnerVue架构在视频生成性能和动作规划上超越了现有方法,特别是在长程任务视频生成方面[63]。此外,具身智能体在虚拟环境中通过头戴式显示器(HMD)进行交互时,记忆准确性和自信心均高于传统桌面显示器[191]。
- 传统记忆模型:传统记忆模型在文本处理、图像识别等任务中表现良好,但其在处理复杂的空间和时间关系时存在局限性。例如,递归神经网络在捕捉长期依赖关系方面具有优势,但在多模态信息处理和时空数据建模方面仍需改进[189][193]。
4. 自主学习和泛化能力:
- 具身智能:具身智能体具备自主学习的能力,能够在真实环境中通过与环境的交互进行学习。例如,具身智能体可以通过历史经验样本对大语言模型进行微调,将记忆嵌入到模型参数中,从而提高模型的泛化能力和适应性[194][197]。
- 传统记忆模型:传统记忆模型主要依赖于被动数据投喂,缺乏自主学习的能力。例如,CV、NLP等传统深度学习模型主要通过互联网图像、视频或文本等数据集进行训练,而不具备主动学习的能力[180]。
5. 未来发展方向:
- 具身智能:未来的研究方向包括进一步优化具身智能体的记忆机制,提高其在复杂环境中的适应性和泛化能力。例如,通过结合多模态信息和时空注意力机制,提升具身智能体在长程任务中的表现[63][186]。
- 传统记忆模型:未来的研究方向包括改进记忆模型的多模态处理能力和时空数据建模能力。例如,通过引入基于注意力的记忆架构和递归神经网络,提高模型在处理复杂空间和时间关系时的性能[189][193]。
综上所述,具身智能时空记忆与传统记忆模型在记忆类型、存储和提取方式、应用场景、自主学习能力和未来发展方向等方面存在显著差异。具身智能通过动态和实时的记忆机制,在复杂环境中表现出更强的适应性和泛化能力,而传统记忆模型则在特定任务中表现出较高的效率和准确性。
具身智能时空记忆的伦理与安全问题讨论
具身智能时空记忆的伦理与安全问题讨论涉及多个方面,包括数据隐私、责任归属、技术滥用等。以下是基于我搜索到的资料进行的综合分析:
1. 数据隐私与安全:
- 具身智能系统在与真实环境交互时,会收集和处理大量数据。如何在实时交互中确保这些数据的安全性和隐私性是关键问题[200][216]。具体措施包括数据加密、匿名化处理和透明的隐私政策[104]。
- 数据安全不仅涉及技术层面,还涉及法律和伦理规范的制定,以确保数据在存储、传输和使用过程中的安全性[208]。
2. 责任归属与伦理决策:
- 具身智能系统的应用可能引发伦理问题,如隐私保护和责任归属[202][206][207]。明确责任归属和伦理决策机制是确保具身智能系统健康发展的重要步骤[207]。
- 在具身智能发生故障或出现不可预测行为时,如何确保其行为符合伦理标准,避免对人类和社会造成伤害,是一个重要的伦理考量[204][205]。
3. 技术滥用与潜在风险:
- 具身智能技术的滥用可能导致严重的伦理和社会问题。例如,增强记忆技术可能被用于操控或监视个体,甚至影响个体的身份认同[201][209][220]。
- 技术增强可能带来新的社会不平等,如“增强型人格”与非增强型人格之间的差距[209]。此外,技术增强可能对社会公平和文化传承产生冲击[220]。
4. 伦理规范与标准:
- 目前,具身智能技术、评测和安全标准尚不完善,面临信息安全和个人隐私等伦理和社会学问题[211]。国际组织和学术界正在积极制定相关的法律框架和伦理规范,以确保机器人在各类应用场景中的行为可控、透明且符合伦理道德标准[19]。
- 具身智能技术的发展需要在技术开发和应用过程中加以重视和解决,以确保产品的安全性和可靠性[210]。
5. 未来展望:
- 尽管具身智能技术面临诸多挑战,但未来的发展方向是朝着更智能、更安全、更可靠的方向发展,并将在更多领域广泛应用,改变我们的生活方式[202][221]。
- 为了实现这一目标,需要持续投入资金进行技术研发,同时加强伦理审查和技术规范的制定[213][221]。
一、具身智能时空记忆的理论框架
1. 定义与核心要素
具身智能时空记忆是智能体通过物理身体与动态环境交互过程中形成的时空信息编码、存储与检索能力。其核心特征包括:
- 动态时空编码:基于本体感知(如视觉、触觉、本体觉)实时捕捉环境的空间结构(如物体位置、拓扑关系)与时间序列(如事件顺序、运动轨迹)[28][30]。
- 层次化记忆机制:分为短期记忆(处理即时上下文)和长期记忆(支持跨任务知识迁移),例如医疗机器人需结合手术实时数据(短期)与历史病例库(长期)进行决策[32]。
- 具身耦合性:记忆的形成与调用依赖于身体动作与环境反馈的闭环,如机器人通过抓取失败经验修正力控策略[106]。
2. 与传统记忆模型的对比
- 静态 vs 动态:传统模型(如Hopfield网络)侧重静态数据关联,而具身记忆需处理动态时空流,如MIT研究揭示海马体CA1区时间细胞通过序列激活编码事件时序[148][160]。
- 分离 vs 整合:传统记忆模块(如LSTM)常独立于感知-行动循环,而具身记忆与运动控制深度融合,如智元机器人EnerVerse模型通过时空注意力同步规划动作与更新环境表征[63]。
- 抽象 vs 具象:传统语义记忆依赖符号化表示,具身记忆则结合感觉运动模拟,如中国科学院提出的感觉运动模拟模型强调身体状态对记忆效价的影响[33]。
二、技术前沿与核心突破
1. 时空注意力与记忆编码模型
- Transformer架构的革新:跨模态时空解码器(如TransVOD)通过多头注意力融合多帧视觉特征,实现视频目标检测中的时序一致性[65];CMU与DeepMind合作的VLM记忆生成框架,利用视觉大模型(如SAM)的泛化能力构建三维操作记忆[136][161]。
- 稀疏记忆机制:EnerVerse采用自回归扩散模型,将长程任务分解为局部时空块,通过稀疏记忆索引减少计算负载,在工业抓取任务中实现10倍效率提升[63]。
- 神经符号结合:LLM-Planner将大语言模型的常识推理与时空记忆结合,例如在导航任务中通过自然语言指令解析生成路径规划[34]。
2. 学习范式的演进
- 自监督学习:如步态编码模型通过骨架序列逆序重建学习时空特征,避免标注数据依赖[73]。
- 强化记忆回放:DeepMind提出经验蒸馏法,将交互数据转化为具身思维程序(ETP),增强跨场景泛化能力[161]。
- 多模态记忆融合:MIT团队开发的Habitat-Matterport数据集(HM3D)整合视觉、深度与语义信息,支持机器人构建3D环境记忆[38]。
三、权威机构的研究布局
1. MIT:神经科学与AI的交叉探索
- 发现海马体CA2区神经元通过θ节律调控时序记忆[148],并构建网格细胞-位置细胞协同模型,解释空间记忆的几何编码机制[160]。
- 开发类脑记忆模型,模拟“记忆宫殿”技术,在存储容量与抗干扰性上超越传统Hopfield网络[175]。
2. DeepMind:记忆整合与强化学习
- 揭示海马体-外嗅皮层回路在记忆关联中的作用,提出“记忆回流”理论,为AI系统的情景记忆设计提供启示[170]。
- 推出Multi-Object Navigation Benchmark(MultiON),推动具身导航中的长期记忆评估[38]。
3. 国内机构:应用驱动创新
- 中山大学团队将多模态大模型(如GPT-4)嵌入时空记忆模块,实现家居机器人的跨房间物品检索[31]。
- 穹彻智能Noematrix Brain通过力反馈记忆优化抓取策略,在柔性物体操作任务中达到98%成功率[50]。
四、关键挑战与瓶颈
1. 数据壁垒
- 真实数据稀缺:医疗、家庭等场景的交互数据获取成本高,如自动驾驶需每小时数万元的多模态采集[104]。
- 标注复杂性:时空记忆需标注物体运动轨迹、力觉反馈等多维信息,现有标注工具效率低下[120]。
2. 计算复杂度
- 时空注意力机制的复杂度随序列长度呈平方增长,EnerVerse通过稀疏化将计算量降低至线性级[63]。
- 实时性要求苛刻,工业机器人需1ms级控制周期,传统Transformer难以满足[122]。
3. 泛化能力局限
- 跨场景迁移困难,如家庭服务机器人难以从实验室数据学习多样化的家具布局[137]。
- 解决方案包括:基于物理常识的元学习(如SAM-E模型)[136]、Sim2Real迁移框架[106]。
五、伦理与安全议题
1. 隐私风险
- 家庭机器人可能记录用户行为数据,需采用联邦学习与差分隐私技术实现本地记忆处理[104]。
2. 物理安全
- 具身系统需内置安全约束,如力控记忆模块实时监测接触力阈值,防止机械臂碰撞人类[200]。
3. 伦理决策
- 医疗机器人面临“伦理记忆”难题,如手术方案选择需平衡患者偏好与医疗规范[216]。
六、未来方向
- 神经形态计算:仿海马体架构的忆阻器芯片(如Intel Loihi)有望实现低功耗时空记忆[175]。
- 因果记忆推理:结合因果图模型提升记忆的可解释性,例如追溯机器人故障的时序原因链[161]。
- 群体记忆共享:多机器人通过区块链同步环境记忆,实现协作建图与任务分配[63]。
结论
具身智能时空记忆研究正从孤立模块向系统化架构演进,MIT、DeepMind等机构的神经机制探索为算法设计提供生物启发,而稀疏记忆、时空注意力等技术突破推动了工业级应用。未来需进一步解决数据-计算-泛化的“不可能三角”,并构建伦理约束下的安全记忆框架。该领域的进展将深刻影响机器人、自动驾驶乃至元宇宙的智能化水平。
参考资料
3.具身智能(Embodied AI)的概念、核心要素、难点及突破性进展 [2024-03-12]
- 任务和个体特征对事件性前瞻记忆后效的影响及其机制 [2023-10-09]
- What is the Human Being, and What is Our Place in the Cosmos?
- ChatGPT技术解析及通用人工智能发展展望
10.2024-2025年主机厂与供应商布局具身智能(及AI机器人)的趋势分析报告 [2025-02-01]
11.具身智能是人工智能走向AGI的基石 [2024-11-21]
16.Roles of human hippocampal subfields in retrieval of spatial and temporal context
17.具身认知视角下“智能”的概念 [2023-06-12]
18.为超越人类记忆,他们给ChatGPT配上了小抄 [2024-03-18]
20.Brain representations of space and time
22.Possible evolutionary and developmental mechanisms of mental time travel
23.探索AI新维度:WorldBrain的具身智能视角及其启示
25.具身智能:人工智能的新路径与挑战 [2000-01-01]
26.具身智能(Embodied Intelligence) [2024-04-13]
28.具身智能:原理、实例与未来展望 [2025-01-18]
31.具身智能与人工通用智能的关系及前沿研究 [2024-08-30]
32.医疗具身智能发展现状与未来展望 [2025-01-30]
37.Cerebral Cortex Communications
38.具身智能 | CCF专家谈术语 [2024-09-20]
40.Astrocytes Contribute to Remote Memory Formation by Modulating Hippocampal-Cortical Communication
42.Unsupervised, frequent and remote: A novel platform for personalised digital phenotyping
43.First-person view of one’s body in immersive virtual reality
45.文化遗产的数字化解说- 穿越时空的对话 [2025-02-19]
49.Context-dependent memory recall in HMD
50.穹彻智能在WAIC 2024推出穹彻具身大脑Noematrix Brain:加速具身智能大模型落地 [2024-07-06]
51.香港中文大学(深圳)刘桂良教授招收具身智能与强化学习方向硕士/全奖博士 [2024-09-16]
52.DeepSeek教育超脑:多模态AI重构教学智能中台 [2025-02-14]
53.分支动态丨具身智能顶会最佳论文专场顺利举办 [2024-01-07]
54.PI:通用机器人控制的VLA流模型 [2024-11-09]
56.具身智能领域| CCF-A到C的主流期刊与会议汇总(近60个) [2025-02-13]
58.基于多模态思维链的端到端具身智能大模型EmbodiedGPT [2024-08-05]
61.Sepp Hochreiter, J. Schmidhuber. “Long Short-Term Memory.” Neural Computation(1997).
63.智元机器人发布机器人4D世界模型 [2025-01-08]
64.模型准确率100%的深度学习新突破! [2025-02-05]
66.拿来即用!能直接集成到现有的深度学习模型中的多模态融合模块! [2024-11-20]
68.Yani Zhang, Dongming Wu et al. “Bootstrapping Referring Multi-Object Tracking.” ArXiv(2024).
69.自注意力与卷积高效融合!多SOTA、兼顾低成本与高性能 [2024-06-26]
70.迁移学习+LSTM,实现模型超短训练周期,准确率飙升至95%! [2024-12-12]
71.CNN+LSTM+VMD,一个性能强大,应用广泛,非常好发文的研究方向! [2024-11-29]
72.爆赞!麻省理工《医疗机器学习》中英25集全 [2024-06-18]
73.Self-Supervised Gait Encoding with Locality-Aware Attention
74.2025顶会热点!三小时带你吃透【具身智能】 [2024-11-08]
77.这是一本在计算机视觉领域备受推崇的教科书! [2024-09-12]
79.注意力机制&Transformer架构与具身智能 [2024-10-23]
80.时空数据挖掘:交通流预测Part.1空间结构&时空数据结构&主要挑战 [2023-02-24]
81.CNN+Transformer新突破:参数减少80%,一次看完17种融合路径 [2024-05-28]
84.Enhancing Robotic Collaborative Tasks Through Contextual
85.Linguistic based emotion analysis using softmax over time attention mechanism
86.Models of Spatial and Temporal Dimensions of Memory
88.结合时空注意力机制和自适应图卷积网络的骨架行为识别 [2021-03-16]
91.重庆市工业和信息化领域“揭榜挂帅”项目榜单(具身智能机器人方向第一批)的通知 [2025-02-12]
93.具身智能在制造行业的应用场景有哪些? [2025-02-01]
95.具身智能在制造行业的应用场景 [2025-02-08]
97.具身智能:人工智能的子领域与应用 [2025-02-06]
99.具身智能(EI)是人工智能(AI)的终极形态? [2024-02-14]
- 人形机器人行业专题研究报告
- 人形机器人行业专题
- 重庆市具身智能机器人产业发展现状及应用场景需求调研 [2024-07-10]
- 2023年机械行业中期策略报告
- 具身智能发展报告
- 具身智能机器人的原理及发展 [2023-07-29]
- 具身智能机器人技术
- 2024世界机器人大会:北京亦庄建设国际一流具身智能机器人产业领航示范新城 [2024-08-23]
- 北京亦庄实施“五先”计划,提速具身智能机器人产业 [2023-08-22]
- 具身智能(Embodied Artificial Intelligence)或将引领人工智能下一波浪潮 [2024-06-19]
- 工信部:聚焦智能网联汽车、人形机器人等领域精准发力 [2024-07-31]
- 广东省发展改革委主办“具身智能领域”应用场景供需对接活动在松山湖举行 [2024-08-29]
- 具身智能:机器人赛道集大成者,开启千亿蓝海 [2024-03-07]
- 广东以应用场景创新促进新赛道企业培育 [2024-08-30]
- 北京经济技术开发区建设全球一流具身智能机器人产业新城行动计划(2024-2026年) [2024-12-17]
- 聪明“脑”指挥灵巧“手” [2024-05-10]
- AI已应用于工业机器人,已有实际案例。 [2025-01-01]
- 为拥抱智能机器人做准备 [2024-08-16]
- 具身智能 [2024-08-13]
- AI 成为工业机器人“大脑”,场景落地已有实例 [2024-12-31]
- 基于大模型的具身智能系统综述 [2025-02-13]
- 一文读懂具身智能:方法、进展及挑战 [2023-12-15]
- 探索具身智能计算系统的未来 [2024-03-23]
- 2024年具身智能产业发展研究报告 [2024-09-26]
- 具身智能企业「千寻智能」完成天使+轮融资,商业化落地驶入快车道 [2024-11-11]
- 百万真机数据只是杯水车薪,数据匮乏成为具身智能行业困境 [2025-01-20]
- 具身智能产业发展报告(2024年) [2024]
- 具身智能系列:智机融合,人工智能时代的星辰大海 [2024-12-01]
- 2024 视觉与学习青年学者研讨会
- 王兴兴等专家共探具身前沿技术,未来趋势展望! [2024-06-19]
- 具身智能是AI的终极形态,持续关注人形机器人产业链
- 十大前沿科技报告 2023
- 一文全面了解目前具身智能的核心内容和未来发展 [2025-02-03]
- 具身智能成败之战:由数据瓶颈引发的重大挑战 [2024-07-05]
- 人形机器人深度:大模型驱动算法升级,重塑生产力的未来 [2023-09-24]
- 配天观点:具身智能商业化落地之路,道阻且长,但行则必至! [2024-10-21]
- 具身智能体三维感知新链条,TeleAI & 上海AI Lab 提出多视角融合具身模型「SAM-E」 [2024-05-30]
- 具身智能:多元技术路径编织智能交互新未来(上) [2024-11-25]
- 关于具身智能的几点理解 [2023-06-29]
- 从工业到养老,一次聊透具身智能的落地应用 [2024-09-26]
- 智能体专题报告之一:智能体打开智驾与机器人的星辰大海
- 共身智能:概念及8个科学技术问题
- 人形机器人远期需求空间分析
- 卢策吾教授谈具身智能:数据魔咒、第一性与两级火箭大模型 [2024-07-22]
- 人工智能的应用前景和挑战 [2007-02-17]
- 具身智能对物流行业影响几何? [2024-11-27]
- MIT Scientists Identify Brain Circuits of Memory Formation [2017-04-06]
- Rewinding, Resetting And Redefining Artificial Intelligence [2009-12-11]
- MIT神经科学家在海马体中识别出编码事件时间的脑回路 [2021-01-11]
- The Epigenetics of Memory [2016-11-22]
- Grant to Model Human Memory and Learning for Machines [2017-04-27]
- Animals have complex dreams, MIT researcher proves [2001-01-24]
- 接力李飞飞 谷歌虚拟世界生成器上线 [2023-12-05]
- Google’s DeepMind – Mimicking Short Term Memory [2014-12-01]
- 带有记忆能力的具身导航智能体!ReMEmbR:机器人导航中长时域时空记忆的构建和推理 [2025-02-08]
- This hippocampal circuit helps us to maintain our timeline of memories [2021-01-12]
- Memory for the Future [1996-01-01]
- Study Uses Data From A Smartphone Necklace To Map Memories In The Brain [2015-08-17]
- 离人类更近一步!DeepMind最新Nature论文:AI会“回忆”,掌握调取记忆新姿势 [2019-11-30]
- MIT科学家领导的研究揭示海马体神经元专门储存社交记忆 [2016-09-30]
- 人是如何记住事儿的?MIT科学家揭开了秘密 [2025-01-25]
- VLM记忆生成:突破数据瓶颈的新策略 [2025-01-03]
- 剑桥大学:培养诺奖得主的摇篮 [2024-10-14]
- 华人领军!盘点国外21个知名具身智能实验室,及其商业布局 [2025-02-03]
- 机器如何拥有记忆?DeepMind解读,最新长程记忆模型和数据库 [2020-02-12]
- Scientists Uncover More Knowledge About How Our Brain Files Memories [2017-09-29]
- DeepMind集成AI智能体架构“MERLIN”:基于目标导向智能体中的无监督预测记忆 [2018-03-31]
- Grant to model human memory and learning for machines [2017-04-27]
- 离人类更近一步!DeepMind最新Nature论文:AI会“回忆”,掌握调取记忆新姿势 [2019-11-30]
- 医疗具身智能发展到哪了?看这一篇综述就够了! [2025-01-29]
- DeepMind's New Research on Linking Memories, and How It Applies to AI [2018-09-26]
- 前丘脑在空间记忆中的作用及其与年龄相关记忆衰退的关系 [2022-05-10]
- 人形机器人广受国内外追捧,大模型+具身智能让机器人脑力升级 [2023-11-01]
- DeepMind Creates AI That Replays Memories Like The Hippocampus [2019-10-05]
- Neuroscientists Weigh in on Spatial Cognition and the Hippocampus [2021-01-12]
- MIT揭示人类记忆的秘密:海马体与网格细胞的合作 [2025-01-25]
- 李德毅院士:论智能的困扰和释放 [2024]
- 关于发布可解释、可通用的下一代人工智能方法重大研究计划2025年度项目指南的通告 [2025-01-24]
- 李德毅:人工智能看哲学 [2024-12-06]
- 具身智能如何做到让AI真正“活”在现实世界? [2024-06-27]
- 李德毅院士:智能的困扰和释放 [2023-06-25]
- 具身智能的最新全面综述(下) [2024-10-28]
- 具身认知视角下的语言教学设计 [2022-05-21]
- CAAI名誉理事长李德毅院士:可交互、会学习、自成长是智能农机的硬核 [2023-01-03]
- 具身智能模型学习方式与儿童相似 [2025-02-05]
- 具身智能(Embodied AI)技术全面综述:感知、交互、规划、仿真、挑战、机遇 [2024-08-07]
- 人工智能看教育 [2023]
- 具身神经形态智能 [2022-02]
- 具身智能综述1:从模拟器到研究任务 [2023-10-20]
- 鸣志电器公司深度研究报告
- Virtual Memory Palaces: Immersion Aids Recall
- 李德毅院士: 迭代的智能--从薛定谔、图灵和维纳谈开去 [2022-11-24]
- 分论坛十五:大模型记忆与人脑记忆的渐近渐远 [2024-01-01]
- Understanding the planning of LLM agents: A survey [2011-11-11]
- Thinking in Space:多模态LLM如何感知记忆和回忆空间 [2024]
- 搜索文献-EPS [2019-01-01]
- 大语言模型智能体规划能力综述 [2024-04-20]
- Differentiating amodal familiarity from modality-specific memory processes
- Ethical Issues in Memory Modification Technology: A Scoping Review [2024-10-17]
- 突破边界线,或是具身智能的唯一出路? [2023-12-18]
- Memory Can be Enhanced, Manipulated, and Edited. Will the Future of Memory be Ethical? [2023-02-12]
- AI Agent: AI的下一个风口 具身智能的核心与未来 [2025-01-22]
- Neuroethics of Augmenting Human Memory Using Wearable Pervasive and Ubiquitous Technologies
- 具身智能的未来发展趋势 [2024-10-27]
- 全球具身智能的端到端AI和具身Agent技术发展到哪里了 [2024-11-26]
- AI Agent: AI的下一个风口 具身智能的核心概念 [2024-11-21]
- 具身智能未来对社会的影响:体系重构加速,更深层次社会思考 [2024-10-16]
- 具身智能标准与合规挑战 [2024-10-16]
- Artificial Intelligence and the Dawn of Cyborg Law
- 具身智能在机器人技术中的发展 [2024-10-27]
- 具身智能发展报告(2024年) [2024-08-22]
- 智能传播时代技术具身的伦理风险及其化解之道 [2023-02-11]
- AI Agent: AI的下一个风口 具身智能的定义与特点 [2024-10-07]
- The Ethical Landscape: AI, Memories, and Privacy Concerns [2023-10-18]
- Les ressorts matériels des positionnements éthiques des professionnels des souvenirs numériques
- 突破边界线,或是具身智能的唯一出路? [2023-12-19]
- 人机交互的模式变革与治理应对 [2024-05-22]
- Changing Memor
- 粤科网-YOCSEF广州举办“具身智能的AGI演进之路”技术论坛 [2024-10-25]
- 认知技术中的伦理问题 [2001-01-01]
- AI+具身智能:产业未来将走向何处 [2024-11-07]
- 具身智能的最新全面综述(下) [2024-11-22]
- 探索心灵深渊“自我催眠删除记忆教程”引发伦理与安全争议 [2024-08-05]
- 世界文学研究论坛
- Transcript of WAC 8 Digital Bioarchaeological Ethics Panel Discussion
- Preventing Bad Memories: Is It Ethical? [2008]