
Week 50, 2025 X Tweet Digest
Weekly summary of seekjourney tweets from ISO Week 50 (2025-12-08 to 2025-12-14, CST).
During ISO Week 50 (2025-12-08 to 2025-12-14, CST), I published 54 X posts.
Each entry keeps the original Chinese copy, engagement metrics, media, and the direct X permalink for easier review.
2025-12-08 10:51 CST · ID 1997861556521238985
@wangdefou_dev 厉害👍
- 👍 赞:0 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:26
- X 原帖地址
2025-12-08 11:30 CST · ID 1997871487181857122
原来 Cloudflare 这次是被 React 坑了!短短 25 分钟,Cloudflare 全球 28% 的流量全线报错。
原因是为了修复行业级安全漏洞:React Server Components 相关的严重问题(CVE-2025-55182)。
React 服务组件中存在未经身份验证的远程代码执行漏洞,CVE-2025-55182 是 React、Next.js 和其他框架中的一个严重漏洞,需要立即采取措施。
10月份看了2025年的 Octoverse 报告,TypeScript登顶全球第一语言。
满大街的 AI SaaS 项目都是用的 Next.js,Vercel 平台已经发布重要提示了,建议大家自查一下,尽快升级版本!
具体方法看评论区!👇

- 👍 赞:7 | 🔁 转帖:0 | 💬 回复:3 | 🗨️ 引用:0 | 👀 浏览:2234
- X 原帖地址
2025-12-08 11:32 CST · ID 1997871985209336153
React 官方博客发布 《React 服务组件中的关键安全漏洞》介绍。
存在未经身份验证的远程代码执行漏洞,建议立即升级! https://t.co/cEuiqxW75j

- 👍 赞:1 | 🔁 转帖:1 | 💬 回复:1 | 🗨️ 引用:0 | 👀 浏览:157
- X 原帖地址
2025-12-08 11:33 CST · ID 1997872032248467792
- 👍 赞:0 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:77
- X 原帖地址
2025-12-08 11:35 CST · ID 1997872573728874910
Vercel 发布 React2Shell 安全公告
Next.js 应用程序存在漏洞,最快的更新方法是使用 fix-react2shell-next npm 包,在应用程序的根目录中运行以下命令。
npx fix-react2shell-next
- 👍 赞:1 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:290
- X 原帖地址
2025-12-08 19:39 CST · ID 1997994380121284784
@yanhua1010 10人核心团队真的强啊!走出了一条难而正确的路。
当所有人都在拼命堆资源时候,真正的突破往往来自找到更聪明的路径,而不是更用力地走同一条路。 https://t.co/9KCqq8yUCz

- 👍 赞:4 | 🔁 转帖:0 | 💬 回复:1 | 🗨️ 引用:0 | 👀 浏览:214
- X 原帖地址
2025-12-09 11:12 CST · ID 1998229240307945687
最近看了Mind Lab团队的两篇论文,突然就把困扰我很久的一个问题想通了。
之前用豆包聊天,聊着聊着它就开始“失忆”,前面答应过的事转头就忘,有时候还自相矛盾。
我一直以为是模型不够好,后来看了上海交大10月份的Context Engineering 2.0论文才明白,问题不在模型本身,在记忆管理架构。
但真正让我震撼的是Mind Lab的两项研究,彻底改变了我对AI记忆和训练的认知。
第一件事:让AI学会智能遗忘。
他们提出的Memory Diffusion(记忆扩散)颠覆了传统思路。不是记住更多,而是像人类一样智能遗忘。
开车时你会自动忽略路边广告牌,但记住重要路标,这才是真正的智能。
方法很简单:掩码-分配-重填,挑出对话里不重要的部分,给关键信息分配更多空间,然后压缩重组。
我用一个生活比喻说清楚吧:
传统方法像整理房间的两种笨办法:
方法A:每天写一份“房间总结”,扔掉原物品 (推理型)
方法B:把所有东西扔进仓库,需要时去翻找 (工具型)
新方法有点像像断舍离哲学:
定期审视房间里的每样东西,问:“这个一年后还有用吗?”。
重要的精心保留,不重要的果断丢弃,房间始终保持最优状态,而不是等爆满再清理。
结果?Locomo基准测试93%准确率(SOTA),目前最佳成绩。
第二件事:用10%的GPU训练万亿参数模型。
更厉害的是,他们用LoRA技术,相比传统全参数强化学习,只需要用10%的GPU资源,就在万亿参数(1.04T)的Kimi K2模型上完成了强化学习训练。
这不只是省钱。他们做了一个对照实验,控制相同的计算预算,对比不同规模模型的强化学习效果,证明了一个反直觉的结论:
在相同计算预算下,在大模型上做小幅度优化,比在小模型上做全参数训练效果更好。
为什么?
因为AI的进化是"先验受限"的。如果基础模型本身不够强,再怎么训练也很难突破。
就像你给一个从没见过车的人教驾驶技巧,效果远不如教一个已经会开车的人如何开得更好。
这两件事合在一起,给了我一个完整的答案:
好的AI产品=强大的基础模型+聪明的记忆管理+高效的训练方法。
上海交大给了一个工程方案:分层设计、提取关键信息、主动预测用户,Mind Lab直接在模型层和训练层给出了解法。
不是做加法,而是做减法。不是追求更多资源,而是更聪明地使用资源。
AI的进化,不是在学习做得更多,而是学习做得更对。
#Macaron #MindLab

- 👍 赞:199 | 🔁 转帖:30 | 💬 回复:29 | 🗨️ 引用:2 | 👀 浏览:18427
- X 原帖地址
2025-12-09 11:22 CST · ID 1998231640104133065
这篇文章里的记忆扩散游乐场挺直观的!
![]()
- 👍 赞:4 | 🔁 转帖:1 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:702
- X 原帖地址
2025-12-09 11:26 CST · ID 1998232770536218721
上海交大Context Engineering 2.0论文直达:
- 👍 赞:4 | 🔁 转帖:2 | 💬 回复:1 | 🗨️ 引用:0 | 👀 浏览:700
- X 原帖地址
2025-12-09 11:41 CST · ID 1998236616549433556
@servasyy Hand-Drawn Sketchnote,每次用这个屡试不爽,抽卡两张选一个。
- 👍 赞:0 | 🔁 转帖:0 | 💬 回复:1 | 🗨️ 引用:0 | 👀 浏览:200
- X 原帖地址
2025-12-09 12:02 CST · ID 1998241773295128619
@kevinma_dev_zh 每次写文章,常备信息图风格:
-
采用 chic doodle style illustration 风格
-
采用黑板粉笔画风格(深色纹理背景),手绘涂鸦/插图风格,多彩粉笔效果(黄、粉、蓝、绿、橙)
-
Risograph Zine / Collage风格
-
Hand-Drawn Sketchnote 风格
- 👍 赞:4 | 🔁 转帖:0 | 💬 回复:1 | 🗨️ 引用:0 | 👀 浏览:200
- X 原帖地址
2025-12-09 12:03 CST · ID 1998241974084911214
@songguoxiansen Hand-Drawn Sketchnote 风格屡试不爽,抽卡有时候能抽到彩色!
- 👍 赞:4 | 🔁 转帖:1 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:238
- X 原帖地址
2025-12-09 12:09 CST · ID 1998243625998922040
@hezhiyan7 是的,现在大部分产品在工程领域想解决方案!
好的产品体验,非常依赖依赖上下文调优。
- 👍 赞:0 | 🔁 转帖:0 | 💬 回复:1 | 🗨️ 引用:0 | 👀 浏览:110
- X 原帖地址
2025-12-09 12:12 CST · ID 1998244406588244025
@imichaelsoho 类似于人脑的概念,和之前看了 DeepSeekMath-V2 给我的启发一样。
感觉 AI 的下一个突破点,不在于更强的生成能力,而在于更强的自我认知能力。
- 👍 赞:3 | 🔁 转帖:0 | 💬 回复:2 | 🗨️ 引用:0 | 👀 浏览:150
- X 原帖地址
2025-12-09 12:14 CST · ID 1998244808465560034
之前写的一篇短文分享,AI产品如何做好上下文工程?从上海交大的这篇论文中学到了3个改进方法。
- 👍 赞:2 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:569
- X 原帖地址
2025-12-09 12:21 CST · ID 1998246688188989674
@kevinma_dev_zh 我发现 AI 进化到最后,关于记忆的思路跟人脑很相似,
不断过滤噪音,批判性的审视和改进自己。
- 👍 赞:3 | 🔁 转帖:0 | 💬 回复:1 | 🗨️ 引用:0 | 👀 浏览:441
- X 原帖地址
2025-12-09 12:24 CST · ID 1998247451858518104
@imichaelsoho 看了下论文,发现一个大家容易忽略的结论:在相同计算预算下,在大模型上做小幅度优化,比在小模型上做全参数训练效果更好。
- 👍 赞:9 | 🔁 转帖:0 | 💬 回复:1 | 🗨️ 引用:0 | 👀 浏览:526
- X 原帖地址
2025-12-09 12:27 CST · ID 1998248073420751304
@songguoxiansen 有个大家忽略的点,非常反直觉:
在相同计算预算下,“大模型+小调整”比“小模型+全参数训练”效果更好。
- 👍 赞:3 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:151
- X 原帖地址
2025-12-09 12:28 CST · ID 1998248266597912921
@yanhua1010 值得学习
- 👍 赞:1 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:126
- X 原帖地址
2025-12-09 12:29 CST · ID 1998248537587679469
@servasyy 你这个比喻很接地气!
- 👍 赞:1 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:65
- X 原帖地址
2025-12-09 12:33 CST · ID 1998249628354129980
@servasyy 黄老板这么解释我懂了,神图总结一下! https://t.co/Wwspkli4fQ

- 👍 赞:2 | 🔁 转帖:0 | 💬 回复:1 | 🗨️ 引用:0 | 👀 浏览:221
- X 原帖地址
2025-12-09 12:34 CST · ID 1998249903416635814
@sven_ai 技术非常硬核,希望大家都能有启发🤝
- 👍 赞:1 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:134
- X 原帖地址
2025-12-09 14:05 CST · ID 1998272848419537244
@sven_ai @imxiaohu 读了这个团队的Research,技术非常硬核!
好的AI产品=强大的基础模型+聪明的记忆管理+高效的训练方法。 https://t.co/b39YqiHUIU

- 👍 赞:1 | 🔁 转帖:0 | 💬 回复:1 | 🗨️ 引用:0 | 👀 浏览:94
- X 原帖地址
2025-12-09 14:07 CST · ID 1998273289798799837
@wangdefou_dev 是的,这个团队来头不小——Mind Lab是一个专注于体验智能(Experiential Intelligence)的实验室
- 👍 赞:1 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:124
- X 原帖地址
2025-12-09 14:11 CST · ID 1998274278354190679
@wangdefou_dev 看了他们对于智能遗忘的研究过程,刚好解释了我之前的疑问。
AI 为什么会失忆?AI的记忆和人类的记忆有什么本质区别?
人类是主动遗忘+动态重构,AI传统上是被动存储+机械提取。 https://t.co/GuN8xgPAGV

- 👍 赞:2 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:96
- X 原帖地址
2025-12-09 14:44 CST · ID 1998282495440384228
@iamtonyzhu 我发现这个对于 AI 产品来说意义重大,更好的对话体验,AI不会“失忆”,能记住长时间对话。 https://t.co/N8vOd2MUTe

- 👍 赞:1 | 🔁 转帖:0 | 💬 回复:2 | 🗨️ 引用:0 | 👀 浏览:211
- X 原帖地址
2025-12-09 16:05 CST · ID 1998302850305421334
看大家都在问这种信息图怎么做的?整理一个适合做信息图的风格合集,集成到 YouMind 中太方便了!
-
chic doodle style illustration 风格
-
黑板粉笔画风格(深色纹理背景),手绘涂鸦/插图风格,多彩粉笔效果(黄、粉、蓝、绿、橙)
-
Risograph Zine / Collage风格
-
Hand-Drawn Sketchnote 风格
-
Lofi Anime / 90s Cel Shading风格
shortcuts直达:
- 👍 赞:3 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:650
- X 原帖地址
2025-12-09 19:28 CST · ID 1998354099184521359
@sven_ai @imxiaohu YouMind 里可以直接生图!shortcuts 👇
- 👍 赞:1 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:24
- X 原帖地址
2025-12-09 19:29 CST · ID 1998354227039523108
@bggg_ai 确实强
- 👍 赞:0 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:111
- X 原帖地址
2025-12-09 19:35 CST · ID 1998355792307912957
@bozhou_ai 对,目前来看好的产品体验,非常依赖模型记住对话的关键信息,需要精准压缩。
- 👍 赞:1 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:167
- X 原帖地址
2025-12-09 19:36 CST · ID 1998356099796467755
@gkxspace 我之前也是有这个疑问,现在算是解惑了。
好的陪伴型产品非常依赖对话体验,深层次就是记忆架构,不然很容易出戏,沉浸感很差。
- 👍 赞:0 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:202
- X 原帖地址
2025-12-09 19:41 CST · ID 1998357226420072549
@bozhou_ai 非常直观易懂!AI学会了选择性遗忘,保留重要信息,压缩或删除不重要的。
对于陪伴型产品算是一个模型层面的突破!之前我一直在想工程方面的优化方向。
- 👍 赞:3 | 🔁 转帖:0 | 💬 回复:1 | 🗨️ 引用:0 | 👀 浏览:254
- X 原帖地址
2025-12-09 19:44 CST · ID 1998357963338334370
@gkxspace 那篇智能遗忘的文章解决了我很长时间的困惑。模型层面的突破对于陪伴型产品非常关键。
好的对话体验依赖记忆架构,用户对话的沉浸感更强。
- 👍 赞:0 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:51
- X 原帖地址
2025-12-09 20:01 CST · ID 1998362451830829207
致富最简单的方法,但也是最难的! https://t.co/aIpWOnHWsp

- 👍 赞:4 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:553
- X 原帖地址
2025-12-09 20:14 CST · ID 1998365693339943009
@0xbisc 让 AI 真正从使用中不断学习确实很重要!
- 👍 赞:1 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:108
- X 原帖地址
2025-12-10 11:29 CST · ID 1998595802906898937
@nexmoe 👍工程架构和模型层面都需要进步
- 👍 赞:2 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:61
- X 原帖地址
2025-12-10 11:30 CST · ID 1998596115403518461
@sujingshen 感觉人类遗忘往往是选择性过滤噪音,信息被压缩了。
AI 的智能遗忘也是相同的道理。
- 👍 赞:1 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:78
- X 原帖地址
2025-12-10 11:31 CST · ID 1998596305866862742
@shandianshuo @drose12114329 @hao_harry49876 @cellinlab @imichaelsoho @qq5424____01 感谢感谢!
- 👍 赞:1 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:158
- X 原帖地址
2025-12-10 11:47 CST · ID 1998600396802269540
@densy07 是的,这种对于陪伴型Agent体验上就会差很多,需要工程架构和算法层面突破。
- 👍 赞:0 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:75
- X 原帖地址
2025-12-10 11:48 CST · ID 1998600567967592456
@zouxulucky 信息压缩太重要了,人脑很聪明的是会有效过滤噪音。
- 👍 赞:1 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:104
- X 原帖地址
2025-12-10 11:48 CST · ID 1998600719428104542
@0xPlato 所有风格都在这里了https://t.co/V22DmT649P
- 👍 赞:1 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:43
- X 原帖地址
2025-12-10 11:49 CST · ID 1998600931508891813
@yaohui12138 10人核心团队非常硬核
- 👍 赞:2 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:107
- X 原帖地址
2025-12-10 11:56 CST · ID 1998602621012304181
@guijiewan 厉害👍补充的非常到位
- 👍 赞:0 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:38
- X 原帖地址
2025-12-10 14:03 CST · ID 1998634715461673310
@kevinma_dev_zh 可以的👍,先发起来再优化
- 👍 赞:0 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:31
- X 原帖地址
2025-12-10 14:20 CST · ID 1998638835199259039
@linyi64965449 👍
- 👍 赞:0 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:7
- X 原帖地址
2025-12-10 15:02 CST · ID 1998649614162121022
@Pluvio9yte 应该填写 HK 吗?
- 👍 赞:1 | 🔁 转帖:0 | 💬 回复:1 | 🗨️ 引用:0 | 👀 浏览:1090
- X 原帖地址
2025-12-10 15:14 CST · ID 1998652612464488815
@affLeopard 我关注到模型层面的记忆突破确实不错!智能遗忘类似人脑的记忆一样,智能压缩,去除噪音
- 👍 赞:2 | 🔁 转帖:0 | 💬 回复:1 | 🗨️ 引用:0 | 👀 浏览:128
- X 原帖地址
2025-12-10 15:15 CST · ID 1998652680747790488
@PennyJoly 学无止境!
- 👍 赞:1 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:30
- X 原帖地址
2025-12-10 15:34 CST · ID 1998657507355754795
一张苹果风格的信息图更好呈现这个内容!
如何在年底之前彻底重启你的人生,专注于此90天,你未来的自己会在余生中感谢你。 https://t.co/Jrr7NbNwUf

- 👍 赞:1 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:273
- X 原帖地址
2025-12-10 19:41 CST · ID 1998719710716981597
@AI_Jasonyu 确实强👍,AI进化到最后,都是往人脑方向演化
- 👍 赞:1 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:50
- X 原帖地址
2025-12-10 19:49 CST · ID 1998721762423697595
@Macaron0fficial @KaijieChen12236 @curlfuture @XiaotengMa1996 I was deeply impressed by the article on intelligent forgetting. It resolved a long-standing question I had: a better conversational experience in the future must enable AI to remember long-term conversations.
- 👍 赞:2 | 🔁 转帖:0 | 💬 回复:1 | 🗨️ 引用:0 | 👀 浏览:90
- X 原帖地址
2025-12-10 19:50 CST · ID 1998721980380623247
@wlzh 嗯嗯,未来陪伴型产品想要有更好的对话体验,一定是让 AI 能记住长时间对话。
- 👍 赞:2 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:43
- X 原帖地址
2025-12-10 19:52 CST · ID 1998722472334733503
@wlzh 传统 AI 记忆会出现经常性的 AI 失忆。现在它们提出的记忆扩散挺有启发的。
让 AI 保留重要信息,压缩或删除不重要的
- 👍 赞:1 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:42
- X 原帖地址
2025-12-10 19:55 CST · ID 1998723208686842096
@NPfinal 2026清理掉bug,重启生活
- 👍 赞:0 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:6
- X 原帖地址
Author
Categories
More Posts

Week 16, 2025 X Tweet Digest
Weekly summary of seekjourney tweets from ISO Week 16 (2025-04-14 to 2025-04-20, CST).

Week 29, 2025 X Tweet Digest
Weekly summary of seekjourney tweets from ISO Week 29 (2025-07-14 to 2025-07-20, CST).

Week 14, 2025 X Tweet Digest
Weekly summary of seekjourney tweets from ISO Week 14 (2025-03-31 to 2025-04-06, CST).