24小时故障咨询电话点击右边热线,在线解答故障拨打:400-889-3660
sofu智能锁报修热线《今日汇总》_大宗交易:机构账户买入招商港口201.04万元(01-09)

sofu智能锁报修热线《今日汇总》

全国报修热线:400-889-3660

更新时间:

sofu智能锁维修服务热线号码2025已更新(2025已更新)








sofu智能锁售后服务24小时电话:(1)400-889-3660(点击咨询)(2)400-889-3660(点击咨询)








sofu智能锁24小时客服热线(1)400-889-3660(点击咨询)(2)400-889-3660(点击咨询)








sofu智能锁24小时维修服务电话《今日发布》
 
sofu智能锁附近上门服务电话








7天24小时人工电话客服为您服务、sofu智能锁服务团队在调度中心的统筹调配下,线下专业网点及各地区人员服务团队等专属服务,整个报修流程规范有序,后期同步跟踪查询公开透明。








我们公司上门维修品牌:美的、海尔、格力、春兰、海信、约克、大金、麦克维尔、TCL、志高、澳柯玛、新科、奥克斯、扬子、华凌、清华同方、富士通、海信、三洋、雷诺士、迎燕、特灵、LG、商用、顿汉布什、日立、三菱、开利、台佳、澳柯玛、三星、长虹、现代、春兰、贝莱特、古桥、松下、森宝、波尔卡、澳柯玛、东宝、科龙、华宝、索华、威力、蓝波、华凌、上凌、双鹿、新科、飞歌、格兰仕、汇丰、康拜恩、乐声、内田、小鸭、长府、惠而浦、绅宝、胜风、飞鹿、凉宇、东洋、飞利浦、惠而浦、伊莱克斯、现代、樱花、华蒜、小超人、卡萨帝、三菱重工、三菱电机、盾安、国祥、立冰、科希曼、依米康等国内外各种品牌
服务内容:中央空调、柜机、天花机、吸顶机、螺杆机、挂机、水冷机、新风机、多联机、风管机、精密空调等空调维修、安装、移机、清洗、加氟、回收、二手机售卖、拆机等服务。








sofu智能锁维修网点查询








sofu智能锁24小时维修服务电话全国服务网点:
 
 北京市(东城区、西城区、朝阳区、崇文区、海淀区、宣武区、石景山区、门头沟区、丰台区、房山区、大兴区、通州区、顺义区、平谷区、昌平区、怀柔区。)








天津市(和平区、河东区、河西区、南开区、河北区、红桥区、塘沽区、东丽区、西青区、)








石家庄市(桥东区、长安区、裕华区、桥西区、新华区。)








保定市(莲池区、竞秀区)  廊坊市(安次区、广阳区,固安)








太原市(迎泽区,万柏林区,杏花岭区,小店区,尖草坪区。)








大同市(城区、南郊区、新荣区)








榆林市(榆阳区,横山区)朝阳市(双塔区、龙城区)








南京市(鼓楼区、玄武区、建邺区、秦淮区、栖霞区、雨花台区、浦口区、区、江宁区、溧水区、高淳区)  成都市(锡山区,惠山区,新区,滨湖区,北塘区,南长区,崇安区。)








常州市(天宁区、钟楼区、新北区、武进区)








苏州市(吴中区、相城区、姑苏区(原平江区、沧浪区、金阊区)、工业园区、高新区(虎丘区)、吴江区,原吴江市)








常熟市(方塔管理区、虹桥管理区、琴湖管理区、兴福管理区、谢桥管理区、大义管理区、莫城管理区。)宿迁(宿豫区、宿城区、湖滨新区、洋河新区。)








徐州(云龙区,鼓楼区,金山桥,泉山区,铜山区。)








南通市(崇川区,港闸区,开发区,海门区,海安市。)








昆山市 (玉山镇、巴城镇、周市镇、陆家镇、花桥镇(花桥经济开发区)、张浦镇、千灯镇。)








太仓市(城厢镇、金浪镇、沙溪镇、璜泾镇、浏河镇、浏家港镇;)








镇江市 (京口区、润州区、丹徒区。)








张家港市(杨舍镇,塘桥镇,金港镇,锦丰镇,乐余镇,凤凰镇,南丰镇,大新镇)

大宗交易:机构账户买入招商港口201.04万元(01-09)

记忆是认知的关键组成部分,让人类能够从充斥我们生活的无尽噪音中选择性存储和提取重要信息。相比之下,大语言模型(Large Language Model,LLM)则缺乏这种能力,只能无差别地存储和处理所有过去的输入,这在长时间任务中对它们的性能和成本产生了严重影响。

就像人类大脑会选择性地保留重要信息并逐渐淡忘不重要的细节一样,人工智能系统也需要这样的智能记忆管理机制。否则,随着模型规模的不断扩大,其训练和部署对计算资源和内存的需求也会无限上升。

长期以来,研究人员一直在探索如何让 AI 系统具备更接近人类的记忆能力。传统的解决方案主要依赖预设的规则来管理模型的记忆,比如基于时间顺序或注意力分数(Attention Score)来选择性地保留或丢弃信息。

然而,这些方法往往过于机械,无法像人类记忆那样智能地区分信息的重要性,导致在提高效率的同时往往会损害模型的性能。

在此背景下,日本初创公司 Sakana AI 的研究团队提出了一种新的解决方案——神经注意力记忆模型(Neural Attention Memory Models,NAMMs)。

这一方案借鉴了自然进化在塑造人类记忆系统中发挥的关键作用,通过进化算法训练一个专门的神经网络来,这种方法能够像人类大脑一样主动选择和保留重要信息,从而在提高效率的同时提升模型的性能。

就像人类大脑会根据信息的长期使用价值来决定是否保留一样,NAMMs 通过对注意力模式的分析来评估信息的重要性。其核心机制包括三个关键组成部分:特征提取系统、记忆管理网络和进化优化策略。

(来源:arXiv)

首先是特征提取机制。NAMMs 采用短时傅里叶变换(STFT)来处理注意力矩阵的列向量。具体来说,它使用大小为 32 的 Hann 窗口进行处理,生成 17 个复值频率的频谱图表示。

这种表示方式非常巧妙,因为它既保留了注意力值随时间变化的频率特征,又大大压缩了数据量。研究团队通过实验发现,这种频谱表示比直接使用原始注意力值或手工设计的特征更有效。

其次是向后注意力记忆(BAM)架构的设计。这是 NAMMs 的核心创新之一,它引入了一种特殊的注意力机制,允许 token 只能关注其在 KV 缓存中的“未来”相关内容。

这种设计的妙处在于,它能够建立 token 之间的竞争关系,使得模型能够学会保留最有信息量的 token。例如,当出现重复的句子或词语时,模型会倾向于保留最新的出现,因为它包含了更完整的上下文信息。

(来源:arXiv)

在优化策略上,研究团队采用了 CMA-ES(协方差矩阵自适应进化策略)算法。传统的梯度下降法难以处理记忆管理这种具有离散决策的问题,而 CMA-ES 通过模拟自然进化过程,能够直接优化非可微的目标函数。

具体来说,团队采用了增量进化的方式,从单个任务开始,逐步增加训练任务的数量,这种方式能够提供更好的正则化效果,提高模型的泛化能力。

研究团队选择 Llama 3-8b 作为基础模型训练了 NAMMs,并在 LongBench、InfiniteBench 以及 ChouBun 上进行了全面评估。结果显示,NAMM 为 Llama 3-8b Transformer 带来了明显的性能提升,在总体表现上超越了已有的 H2O 和 L2 这两种手工设计的内存管理方法。

例如,在 LongBench 基准测试中,NAMMs 不仅将 KV 缓存大小减少到原来的 25%,还实现了 11% 的性能提升。在 InfiniteBench 测试中模型性能从基线的 1.05% 提升到了 11%,同时将缓存大小减少到原来的 40%。

图丨 LongBench 基准测试结果(来源:arXiv)

NAMMs 的另一个重要特性是其出色的零样本迁移能力。研究团队发现,仅在语言任务上训练的 NAMMs 可以直接应用到其他架构和模态上。

比如,当应用到 Llava Next Video-7B 模型时,NAMMs 在 LongVideoBench 和 MLVU 基准测试中都取得了不错的表现,视觉任务的性能提升了 1%,同时将视频帧的缓存大小减少到原来的 72%。

在强化学习方面,使用决策转换器(Decision Transformer)时,NAMMs 在 D4RL 基准测试中实现了 9% 的性能提升,同时将缓存大小减少到原来的 81%。

深入分析 NAMMs 的工作机制,研究团队发现它学会了一种智能的记忆管理策略。通过观察不同层的记忆保留模式,发现模型在早期和中期层倾向于保留更多和更老的 token,这可能是因为这些层负责处理和聚合长距离信息。而在信息密度较高的代码任务中,模型则学会了保留相对更多的 token。

实际上,NAMMs 延续了 Sakana AI 此前的研究方法,即从自然界获取灵感,通过模拟自然进化的过程来优化 AI 系统。这一研究思路与该公司在模型合并和进化优化方面的技术积累具有内在的一致性。

同 Sakana AI 此前开发的自动化“进化”算法能够自主识别和合并优秀模型一样,NAMMs 也采用了进化算法来优化记忆管理系统,无需人工干预即可实现性能的持续提升。

其特殊的研发思路,已经为这家仅成立了一年的初创公司赢得了 2.1 亿美元的 A 轮融资,在这融资中,其估值已达 15 亿美元。

未来,研究团队可能会探索更复杂的记忆模型设计,比如考虑更细粒度的特征提取方法,或者研究如何将 NAMMs 与其他优化技术结合使用。

他们表示:“这项工作才刚刚开始挖掘我们新类记忆模型的潜力,我们预计这可能会为未来几代 Transformer 的发展提供许多新的机会。”

参考资料:

1.https://sakana.ai/namm/

2.https://arxiv.org/abs/2410.13166

运营/排版:何晨龙

相关推荐: