<?xml version="1.0" encoding="utf-8"?><rss xmlns:dc="http://purl.org/dc/elements/1.1/" version="2.0"><channel><title>哈哈库</title><link>http://hahaku.com/</link><description>免费分享网络赚钱副业兼职项目</description><item><title>京东发布 JoyEgoCam 超高清采集终端：用于 AI 具身智能训练、可捕捉 2160P 视频</title><link>http://hahaku.com/29636.html</link><description>
	    	    
            &lt;p &gt; 4 月 16 日消息，在今天进行的京东具身智能生态发布会上，京东正式发布旗下 JoyEgoCam 超高清采集终端，该产品主要用于 AI 具身智能训练使用，同时也是全球首个覆盖“采、存、标、训、评、仿、测”全链路的具身智能数据基础设施。&lt;/p&gt;&lt;p &gt;据介绍，JoyEgoCam 配备双目摄像头，可实现 130 度垂直 / 水平 FOV 覆盖，支持录制 2160x2160 分辨率 60 FPS 视频，能够高速捕捉动作细节，适合数据采集、仿真评测等场景。&lt;/p&gt;&lt;p  &gt;&lt;/p&gt;&lt;p &gt;京东同时表示，其从上月开始展开人类历史上规模最大数据采集行动，计划两年内真实场景视频数据突破 1000 万小时。&lt;/p&gt;    	</description><pubDate>Fri, 17 Apr 2026 15:13:35 +0800</pubDate></item><item><title>用 FSD 就能省保费，特斯拉保险推出新激励政策</title><link>http://hahaku.com/29635.html</link><description>
	    	    
            &lt;p &gt; 4 月 16 日消息，据 Teslarati 报道，特斯拉将其 FSD（监督版）功能套件与自家保险业务深度绑定，旨在为车主提供极具吸引力的激励政策。&lt;/p&gt;&lt;p  &gt;&lt;/p&gt;&lt;p &gt;特斯拉宣布，全新的安全评分 3.0（Safety Score 3.0）规定：只要开启 FSD（监督版）模式，每行驶一英里即可自动获得满分 100 分。这一调整旨在提升用户的平均安全评分，并显著降低每月保险费用。&lt;/p&gt;&lt;p &gt;此举标志着特斯拉自动驾驶技术与自有保险产品之间，建立了迄今为止最明确的关联。特斯拉保险此前已通过车辆实时数据（如加速、制动、跟车距离和车速）计算 0–100 分的安全评分，评分越高，保费就越便宜。&lt;/p&gt;&lt;p &gt;但在旧系统中，即便只是短暂的人工介入，也会拉低平均分，这让重度依赖 FSD 的车主十分不满。3.0 版本取消了对辅助自动驾驶里程的扣分，将 FSD 驾驶路段直接视作最安全的驾驶行为。&lt;/p&gt;&lt;p &gt;该激励措施直接体现为经济收益：行程中大部分时间开启 FSD 的车主，整体评分将上升，每年保费有望节省数百美元。&lt;/p&gt;&lt;p &gt;特斯拉称此次更新是直接回应客户反馈，此前许多用户抱怨，旧评分体系惩罚了其本应鼓励的行为。&lt;/p&gt;&lt;p &gt;据了解，目前该计划仅适用于美国六个州的新保单：印第安纳州、田纳西州、得克萨斯州、亚利桑那州、弗吉尼亚州和伊利诺伊州。&lt;/p&gt;&lt;p &gt;现有保单用户暂未纳入，这一点引发了特斯拉社区质疑。包括加利福尼亚州、佐治亚州在内的其他州车主纷纷希望这项福利能尽快扩展至全国。&lt;/p&gt;&lt;p &gt;该公告发布之际，特斯拉正持续推送 FSD 辅助驾驶更新，并推动更高级别自动驾驶的监管审批。通过将保险优惠与 FSD 使用直接挂钩，公司正用自身精算数据为该技术的安全性背书。&lt;/p&gt;&lt;p &gt;基于特斯拉内部驾驶数据（而非仅依赖外部碰撞统计），如今每一公里 FSD 行驶都具备明确的经济价值：更低风险、更低成本。&lt;/p&gt;&lt;p &gt;特斯拉尚未披露具体保费降幅，以及六个首发州之外的全面上线时间表。但其传递的信号十分明确：车主越信任 FSD 辅助驾驶，特斯拉保险给予的奖励就越多。在传统保险公司对自动驾驶技术仍持谨慎态度的当下，特斯拉押注：自己的数据将证明，最安全的里程是脱手驾驶的里程。&lt;/p&gt;    	</description><pubDate>Fri, 17 Apr 2026 15:12:03 +0800</pubDate></item><item><title>人人都能是配音导演，阶跃星辰发布语音生成模型 StepAudio 2.5 TTS</title><link>http://hahaku.com/29634.html</link><description>
	    	    
            &lt;p &gt; 4 月 16 日消息，阶跃星辰今日发布新一代语音生成模型 StepAudio 2.5 TTS，官方号称人人都能是配音导演。&lt;/p&gt;&lt;p  &gt; &lt;/p&gt;&lt;p &gt;阶跃星辰官方表示，该语音合成模型首次将语境理解能力引入语音生成全流程。通过 Global Context（全局语境）+ Inline Context（文中语境）双档控制，搭配 Zero-shot 音色复刻，让 AI 不是念文本，而是演文本。&lt;/p&gt;&lt;p &gt;StepAudio 2.5 TTS 支持以下核心能力：&lt;/p&gt;&lt;ul class=&quot; list-paddingleft-2&quot;&gt;&lt;li&gt;&lt;p  &gt;全局语境控制：支持自定义整段语音的情绪基调、角色状态与场景氛围，使表达更统一、更连贯。&lt;/p&gt;&lt;/li&gt;&lt;/ul&gt;&lt;p  &gt;&lt;/p&gt;&lt;ul class=&quot; list-paddingleft-2&quot;&gt;&lt;li&gt;&lt;p  &gt;文中语境控制：不仅能控制一句话怎么说，还能进一步调节语气、节奏、停顿、轻重变化、角色感和场景感，让声音表达更有分寸。&lt;/p&gt;&lt;/li&gt;&lt;/ul&gt;&lt;p  &gt;&lt;/p&gt;&lt;ul class=&quot; list-paddingleft-2&quot;&gt;&lt;li&gt;&lt;p  &gt;零样本复刻与全音色控制：在保留目标音色特征的同时，支持对情感、风格和表达方式进行灵活调节，让同一种声音说出更多不同感觉。&lt;/p&gt;&lt;/li&gt;&lt;/ul&gt;&lt;p  &gt;&lt;/p&gt;&lt;p  &gt;附官方演示网址如下：&lt;/p&gt;&lt;p  &gt;https://stepaudiollm.github.io/step-audio-2.5-tts/zh.html&lt;/p&gt;    	</description><pubDate>Fri, 17 Apr 2026 15:10:31 +0800</pubDate></item><item><title>SpaceX 星舰 V3 完成全时长静态点火测试，首次试飞临近</title><link>http://hahaku.com/29633.html</link><description>
	    	    
            &lt;p &gt; 4 月 16 日消息，在得克萨斯州星舰基地完成全时长静态点火测试后，SpaceX 距离发射下一代星舰又近了一大步。这一信号表明：星舰 V3 的首次试飞 —— 第 12 次飞行任务已迫在眉睫。SpaceX 在 X 平台确认了此次测试，称全时长静态点火已在飞行器下一次飞行测试前顺利完成。&lt;/p&gt;&lt;p  &gt;&lt;/p&gt;&lt;p  &gt;&lt;/p&gt;&lt;p &gt;当地时间 3 月 16 日，助推器 19 在新建的 2 号发射台完成了一次较短的 10 台发动机静态点火。那次测试因地面系统问题提前终止，但证实了所有安装的猛禽 3 型发动机均顺利启动。随后，助推器 19 返回巨型总装厂房，加装剩余 23 台发动机，凑齐全部 33 台，并于本周重新推出，完成完整测试流程。马斯克本月早些时候确认，第 12 次飞行将在 4 至 6 周后进行。&lt;/p&gt;&lt;p &gt;这枚全球最强火箭的每台猛禽 3 发动机可产生约 280 吨推力，超重型助推器 33 台发动机同时点火时，总推力可达约 9240 吨，远超历史上任何火箭。打个比方，这股推力足以将整座帝国大厦抬离地面。星舰 V3 高 408 英尺（约 124 米），在完全可重复使用构型下，可将超过 100 吨载荷送入近地轨道，而上一代 V2 仅能达到约 35 吨。&lt;/p&gt;&lt;p &gt;从历史经验来看，成功的全时长静态点火是发射前最后一项重大地面里程碑。自 2023 年项目启动以来，SpaceX 每一代星舰均遵循这一流程。马斯克对背后的雄心直言不讳：“我非常有信心，V3 设计将实现完全可重复使用。”两级完全可重复使用，是 SpaceX 让月球与火星常规飞行具备经济可行性的核心基础，此次测试让这一目标又迈出关键一步。&lt;/p&gt;&lt;p &gt;据了解，星舰 V3 实现了两大关键突破：完全可重复使用与在轨加注。可重复使用的逻辑很直观，就像猎鹰 9 号那样，火箭可在数小时内再次飞行，而非每次任务都重新建造。这是实现月球货运常态化的唯一经济模式。在轨加注看似不显眼，却同样至关重要。要携带足够载荷抵达月球，星舰需要约 10 次专用补给飞行，在近地轨道轨道燃料库完成加注，才能启程飞往月球表面。这种能力从未大规模验证过，而第 12 次飞行正是验证其可行性的第一步。&lt;/p&gt;&lt;p &gt;NASA 阿尔忒弥斯 2 号乘组本月完成了历史性的月球飞越，这是 1972 年以来人类首次飞出近地轨道。但要让宇航员真正登陆月球，并最终为永久月球基地提供补给，就需要一条货运通道，只有完全可重复、可在轨加注的火箭，才能满足 NASA 计划所需的运力与成本。&lt;/p&gt;    	</description><pubDate>Fri, 17 Apr 2026 15:08:59 +0800</pubDate></item><item><title>微纳星空泰景三号 05A、05B 双星出征，以“超轻量化”实现 0.5 米高分辨率成像</title><link>http://hahaku.com/29632.html</link><description>
	    	    
            &lt;p &gt; 4 月 16 日消息，昨日上午 9 时 15 分，由微纳星空研制的泰景三号 05A 星和泰景三号 05B 星正式启程奔赴发射场，标志着微纳星空正式迈入规模化交付与星座组网的新阶段。&lt;/p&gt;&lt;p  &gt;&lt;/p&gt;&lt;p &gt;据介绍，泰景三号 05A 星和泰景三号 05B 星搭载了重量仅 60 公斤的超轻量化高性能光学载荷，这一技术在严格控制整体重量的同时，成功实现 0.5m 高分辨率成像，能清晰捕捉城市建筑细节与地表纹理变化。&lt;/p&gt;&lt;p &gt;另外，泰景三号 05A、05B 双星具备整星敏捷机动能力与大容量电池供给，依托太阳同步轨道运行优势，单次过境即可灵活完成多点目标拍摄、多条带拼接成像等多种作业模式，大幅提升数据获取效率与任务适配能力。同时支持星上在轨更新，为后续拓展应用场景、提升服务能力预留了充足空间。&lt;/p&gt;&lt;p &gt;从微纳星空获悉，泰景三号 05A、05B 双星从方案设计到整星交付，两颗卫星的研制周期较行业平均水平缩短 3 个月，成功刷新批产遥感卫星交付速度纪录，并实现单月多星测试交付的批产新跨越。另外，泰景三号 05A、05B 双星入轨后，还将与地面系统协同构建“天空地一体化”监测体系。&lt;/p&gt;    	</description><pubDate>Fri, 17 Apr 2026 15:07:27 +0800</pubDate></item><item><title>微软 VS Code 1.116 发布：内置 GitHub Copilot，调试 AI 更透明</title><link>http://hahaku.com/29631.html</link><description>
	    	    
            &lt;p &gt; 4 月 16 日消息，微软今天更新发布 Visual Studio Code 1.116 版本，内置 GitHub Copilot 为默认功能，用户无需安装扩展，首次启动即可直接使用 AI 辅助编程功能。&lt;/p&gt;&lt;p  &gt;&lt;/p&gt;&lt;p  &gt;&lt;/p&gt;&lt;p &gt;针对 AI 调试体验，新版本引入了 Agent Debug Logs 功能。该面板以时间轴形式，记录聊天会话中的所有智能体交互事件，开发者可查看当前会话及历史会话的完整日志。这一功能让用户能够清晰追踪提示词发送后的具体执行流程，便于调试自定义聊天行为，快速定位问题。&lt;/p&gt;&lt;p  &gt;&lt;/p&gt;&lt;p &gt;在 Copilot CLI 方面，1.116 版本增加支持推理模型思考强度。用户可通过语言模型选择器挑选推理模型，并调整思考强度等级。不同模型提供不同等级选项，非推理模型则不显示此功能。&lt;/p&gt;&lt;p  &gt;&lt;/p&gt;&lt;p &gt;本次更新还优化终端体验，send_to_terminal 和 get_terminal_output 工具现已支持前台终端操作，可直接读取可见终端面板中的输出，并向运行中的 REPL 或交互脚本发送输入。&lt;/p&gt;&lt;p &gt;参考&lt;/p&gt;&lt;ul class=&quot;custom_reference list-paddingleft-1&quot;&gt;&lt;li class=&quot;list-undefined list-reference-paddingleft&quot;&gt;&lt;p &gt;Visual Studio Code 1.116 更新日志&lt;/p&gt;&lt;/li&gt;&lt;li class=&quot;list-undefined list-reference-paddingleft&quot;&gt;&lt;p &gt;Visual Studio Code 下载地址&lt;/p&gt;&lt;/li&gt;&lt;/ul&gt;    	</description><pubDate>Fri, 17 Apr 2026 15:05:55 +0800</pubDate></item><item><title>估值超 8000 亿美元，消息称 Anthropic 暂时拒绝风投巨额投资</title><link>http://hahaku.com/29630.html</link><description>
	    	    
            &lt;p &gt; 4 月 16 日消息，风险投资机构热衷于追逐最热门的初创公司，但初创公司并非总愿意增发股份。据彭博社消息，人工智能公司 Anthropic 便是如此。&lt;/p&gt;&lt;p  &gt;&lt;/p&gt;&lt;p &gt;风投机构正主动向这家 OpenAI 的竞争对手提出预融资轮，拟对其估值 8000 亿美元（注：现汇率约合 5.47 万亿元人民币）甚至更高，这一水平几乎追平，甚至可能超越其竞争对手。&lt;/p&gt;&lt;p &gt;今年 2 月，OpenAI 完成了创纪录的 1100 亿美元融资，投后估值达到 8520 亿美元。而就在几周前，Anthropic 刚宣布一轮 300 亿美元的融资（放在以往，这同样会是创纪录的规模），对应估值 3800 亿美元。&lt;/p&gt;&lt;p &gt;但据彭博社报道，截至目前，Anthropic 对风投机构的最新报价并无兴趣。当然，这一态度未来可能改变。尽管 Anthropic 不像 OpenAI 那样积极签署融资协议，但其同样面临巨额资本开支。&lt;/p&gt;&lt;p &gt;例如，近几个月来，这家 Claude 大模型开发商已承诺：&lt;/p&gt;&lt;ul class=&quot; list-paddingleft-2&quot;&gt;&lt;li&gt;&lt;p &gt;投入 500 亿美元自建数据中心&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p &gt;投入 300 亿美元使用微软云服务&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p &gt;每年还要在亚马逊云科技（AWS）上花费数十亿美元&lt;/p&gt;&lt;/li&gt;&lt;/ul&gt;&lt;p &gt;在某个节点，该公司仍可能需要资金，尤其是在能以优厚条件融资的情况下，其估值有望较上一轮翻倍以上。&lt;/p&gt;&lt;p &gt;投资者依然看好 Anthropic 不断增长的收入：据报道，其收入从 2025 年底的 90 亿美元，增至今年 3 月底的 300 亿美元。投资者对 Anthropic 股票的渴求极为强烈，二级市场上的需求几乎到了难以满足的地步。因此，只要 Anthropic 首席执行官达里奥・阿莫迪稍一示意，公司就能拿到足以让估值反超对手的融资。&lt;/p&gt;    	</description><pubDate>Fri, 17 Apr 2026 15:04:23 +0800</pubDate></item><item><title>慧荣台北总部动工：地上地下共 28 层，预计于 2030 年启用</title><link>http://hahaku.com/29629.html</link><description>
	    	    
            &lt;p &gt; 4 月 16 日消息，慧荣 Silicon Motion 本周一（13 日）举行了台北企业总部动工仪式。该总部基地面积近 3400m²，规划建设地上 23 层、地下 5 层的办公大楼，预计于 2030 年启用。&lt;/p&gt;&lt;p &gt;了解到，这幢建筑将由台铁与慧荣分别持有 67% 和 33%，慧荣将对台铁持有部分长租 20 年。此地邻近轨道交通昆阳站，还可通过高铁串联慧荣现有的新竹竹北总部，提升双总部协同运行效率。&lt;/p&gt;&lt;p  &gt;&lt;/p&gt;&lt;p &gt;慧荣科技董事长周邦基表示：&lt;/p&gt;&lt;blockquote&gt;&lt;p &gt;台北总部的设立，是我们迈向下一个成长阶段的重要决策，也展现慧荣与台铁携手推动都市更新、促进产业与城市发展的合作成果。未来将透过串联台北与竹北两大据点，提升整体营运与研发效率。&lt;/p&gt;&lt;/blockquote&gt;    	</description><pubDate>Fri, 17 Apr 2026 15:02:51 +0800</pubDate></item><item><title>BOSS 直聘：警惕“高薪 AI 漫剧师”骗局，实为先付费卖课“招转培”割韭菜套路</title><link>http://hahaku.com/29628.html</link><description>
	    	    
            &lt;p &gt; 4 月 16 日消息，BOSS 直聘今天发布公告，披露近期业界出现大量“招转培”骗局，许多不法团伙刊载职位招聘贴文，其中写有“大专生零基础也能做，做完 10 部漫剧就能转正”“新手第一部剧一般能赚 10 万”等话术，然而这些贴文实为付费卖课“割韭菜”套路，不知情的求职者投递简历后，不法团伙便会利用话术要求其交钱“入股”“学习”诈骗钱财。&lt;/p&gt;&lt;p &gt;例如，一违规招生组织发布“带货主播 / 直播带货”等职位，谎称可以教求职者通过直播赚钱，进而诱导其缴纳 99 元至 299 元不等的课程培训费。待求职者察觉异常后，所谓的“招生老师”便彻底失联。&lt;/p&gt;&lt;p  &gt;&lt;/p&gt;&lt;p  &gt;&lt;/p&gt;&lt;p &gt;另一类则是以考证为由设置收费门槛。例如，某招聘者发布“8000 起请陪诊师”职位，在添加求职者微信后，引导对方付费报名考证，并谎称相关证书“全国通用”。表面上看，这类说法容易让求职者误以为“先考证，后上岗”属于正常流程，实际上，相关沟通已经偏离正常招聘逻辑，并带有明显收费导向。&lt;/p&gt;&lt;p &gt;BOSS 直聘表示，以往“招转培”违规违法行为多发于技术培训、美容美业、家政服务等行业，而如今这些骗局进一步扩散，诈骗团伙们不断引入借概念、新职业不断翻新外包装，但核心路径并没有改变，先借“AI 漫剧生成”“带货直播”等热门岗位吸引求职者关注，再在后续沟通中以培训、合作项目或考证为名，引导求职者付费。&lt;/p&gt;&lt;p &gt;整体来看，凡是要求求职者在入职前先缴费，或以培训费、考证费、课程费、项目费等名义要求先付款的情况，都存在较高风险，求职者需提高警惕。&lt;/p&gt;    	</description><pubDate>Fri, 17 Apr 2026 15:01:19 +0800</pubDate></item><item><title>蚂蚁灵波开源 LingBot-Map：仅用普通摄像头让机器人实现实时流式三维重建</title><link>http://hahaku.com/29627.html</link><description>
	    	    
            &lt;p &gt; 4 月 16 日消息，今天蚂蚁灵波正式开源流式三维重建模型 LingBot-Map，官方称无需复杂硬件，仅靠一颗普通 RGB 摄像头，就能让机器在视频采集过程中，实时完成相机位姿估计与场景三维结构重建，填补实时空间感知领域的关键技术空白，为机器人、自动驾驶等场景提供更可靠的空间理解能力。&lt;/p&gt;&lt;p &gt;附官方详细介绍如下：&lt;/p&gt;&lt;blockquote&gt;&lt;p &gt;在流式三维重建领域，几何精度、时序一致性与运行效率的平衡，一直是行业公认的核心难点。&lt;/p&gt;&lt;p &gt;不同于传统三维重建“先采集、后处理”的模式，流式重建要求系统“边看边理解”，一边接收新画面，一边持续完成定位与建图，同时还要严格控制计算与存储开销，这对模型的设计提出了极高要求。&lt;/p&gt;&lt;p &gt;针对这一痛点，我们打造了 LingBot-Map，以纯自回归式建模为核心，基于几何上下文 Transformer，在不依赖未来帧信息的前提下，逐帧处理当前及历史画面，持续输出精准的相机位姿和深度信息，实时还原场景三维结构，真正实现“所见即所建”。&lt;/p&gt;&lt;p &gt;我们引入了几何上下文注意力机制（GCA），能够高效组织与利用跨帧几何信息，在保留关键历史数据的同时，大幅减少冗余计算，兼顾重建质量与运行效率。&lt;/p&gt;&lt;p &gt;这一设计借鉴了经典 SLAM 系统对空间信息分层管理的思路，但突破了传统方法依赖手工设计和复杂优化的局限，将核心逻辑交由模型统一学习完成，在长序列场景下也能保持稳定表现。&lt;/p&gt;&lt;h3 &gt;性能全面领跑：20FPS 实时推理稳定支撑机器人作业&lt;/h3&gt;&lt;p &gt;多个权威基准完成严苛测试：&lt;/p&gt;&lt;p &gt;在 Oxford Spires 数据集（大尺度、复杂光照、高标准）上：&lt;/p&gt;&lt;ul class=&quot; list-paddingleft-2&quot;&gt;&lt;li&gt;&lt;p &gt;绝对轨迹误差（ATE）仅为 6.42 米&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p &gt;轨迹精度较此前最优流式方法提升约 2.8 倍&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p &gt;显著优于离线方法 DA3（12.87 米）和 VIPE（10.52 米）&lt;/p&gt;&lt;/li&gt;&lt;/ul&gt;&lt;p &gt;在大场景重建中展现出更强的稳定性。&lt;/p&gt;&lt;p  &gt;&lt;/p&gt;&lt;p &gt;在 ETH3D、7-Scenes、Tanks and Temples 等多个主流基准上，LingBot-Map 在位姿估计和三维重建质量两个维度全面领先现有流式方法。&lt;/p&gt;&lt;p &gt;其中 ETH3D 基准：重建 F1 分数达到 85.70，较第二名提升超过 8%，场景还原精度大幅提升。&lt;/p&gt;&lt;p  &gt;&lt;/p&gt;&lt;p &gt;除精度外，LingBot-Map 还兼顾实时性与长时稳定运行能力：&lt;/p&gt;&lt;ul class=&quot; list-paddingleft-2&quot;&gt;&lt;li&gt;&lt;p &gt;推理速度可实现约 20 FPS&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p &gt;支持 10,000+ 帧长视频连续推理&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p &gt;长序列运行精度几乎无衰减&lt;/p&gt;&lt;/li&gt;&lt;/ul&gt;&lt;p &gt;这意味着，在机器人导航、避障、操作、交互等需要连续在线处理的真实场景中，它能稳定输出可靠的空间感知结果，为上层应用提供坚实支撑。&lt;/p&gt;&lt;h3 &gt;持续开源多款模型：补齐实时三维建图关键拼图&lt;/h3&gt;&lt;p &gt;自今年 1 月以来，我们相继开源：&lt;/p&gt;&lt;ul class=&quot; list-paddingleft-2&quot;&gt;&lt;li&gt;&lt;p &gt;高精度空间感知模型 LingBot-Depth&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p &gt;具身大模型 LingBot-VLA&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p &gt;世界模型 LingBot-World&lt;/p&gt;&lt;/li&gt;&lt;li&gt;&lt;p &gt;具身世界模型 LingBot-VA&lt;/p&gt;&lt;/li&gt;&lt;/ul&gt;&lt;p &gt;围绕空间感知、具身决策、世界模拟等关键环节，持续夯实具身智能“智能基座”的技术布局。此次 LingBot-Map 的开源，进一步补齐了实时空间理解与在线三维建图的关键能力拼图。&lt;/p&gt;&lt;p &gt;目前，LingBot-Map 的模型和代码已正式在 Hugging Face 和 Model Scope 开源。我们期待更多开发者、研究团队加入进来，一起探索流式三维重建的更多可能，推动技术落地，让机器人更稳定、更高效地理解和适应真实物理世界，赋能更多行业创新。&lt;/p&gt;&lt;p &gt;开源地址：&lt;/p&gt;&lt;p &gt;魔搭社区 ModelScope：&lt;/p&gt;&lt;p &gt;https://www.modelscope.cn/models/Robbyant/lingbot-map&lt;/p&gt;&lt;p &gt;HuggingFace：&lt;/p&gt;&lt;p &gt;https://huggingface.co/robbyant/lingbot-map&lt;/p&gt;&lt;p &gt;GitHub：&lt;/p&gt;&lt;p &gt;https://github.com/Robbyant/lingbot-map&lt;/p&gt;&lt;p &gt;Paper：&lt;/p&gt;&lt;p &gt;https://arxiv.org/abs/2604.14141&lt;/p&gt;&lt;p &gt;Homepage：https://technology.robbyant.com/lingbot-map&lt;/p&gt;&lt;/blockquote&gt;    	</description><pubDate>Fri, 17 Apr 2026 14:59:47 +0800</pubDate></item></channel></rss>