2025年第50周 X 推文精选
2025/12/08

2025年第50周 X 推文精选

汇总 2025 年第 50 周(北京时间 2025-12-08 至 2025-12-14)的 seekjourney 推文精华。

2025 年第 50 周(北京时间 2025-12-08 至 2025-12-14)共发布 54 条推文。

以下整理保留了原始中文内容、互动数据、媒体资源以及 X 原帖链接,方便复盘。

2025-12-08 10:51 CST · ID 1997861556521238985

@wangdefou_dev 厉害👍

  • 👍 赞:0 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:26
  • X 原帖地址

2025-12-08 11:30 CST · ID 1997871487181857122

原来 Cloudflare 这次是被 React 坑了!短短 25 分钟,Cloudflare 全球 28% 的流量全线报错。

原因是为了修复行业级安全漏洞:React Server Components 相关的严重问题(CVE-2025-55182)。

React 服务组件中存在未经身份验证的远程代码执行漏洞,CVE-2025-55182 是 React、Next.js 和其他框架中的一个严重漏洞,需要立即采取措施。

10月份看了2025年的 Octoverse 报告,TypeScript登顶全球第一语言。

满大街的 AI SaaS 项目都是用的 Next.js,Vercel 平台已经发布重要提示了,建议大家自查一下,尽快升级版本!

具体方法看评论区!👇

推文配图 1

  • 👍 赞:7 | 🔁 转帖:0 | 💬 回复:3 | 🗨️ 引用:0 | 👀 浏览:2234
  • X 原帖地址

2025-12-08 11:32 CST · ID 1997871985209336153

React 官方博客发布 《React 服务组件中的关键安全漏洞》介绍。

存在未经身份验证的远程代码执行漏洞,建议立即升级! https://t.co/cEuiqxW75j

推文配图 1

  • 👍 赞:1 | 🔁 转帖:1 | 💬 回复:1 | 🗨️ 引用:0 | 👀 浏览:157
  • X 原帖地址

2025-12-08 11:33 CST · ID 1997872032248467792

  • 👍 赞:0 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:77
  • X 原帖地址

2025-12-08 11:35 CST · ID 1997872573728874910

Vercel 发布 React2Shell 安全公告

Next.js 应用程序存在漏洞,最快的更新方法是使用 fix-react2shell-next npm 包,在应用程序的根目录中运行以下命令。

npx fix-react2shell-next

https://t.co/fqBHDFrsUN

  • 👍 赞:1 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:290
  • X 原帖地址

2025-12-08 19:39 CST · ID 1997994380121284784

@yanhua1010 10人核心团队真的强啊!走出了一条难而正确的路。

当所有人都在拼命堆资源时候,真正的突破往往来自找到更聪明的路径,而不是更用力地走同一条路。 https://t.co/9KCqq8yUCz

推文配图 1

  • 👍 赞:4 | 🔁 转帖:0 | 💬 回复:1 | 🗨️ 引用:0 | 👀 浏览:214
  • X 原帖地址

2025-12-09 11:12 CST · ID 1998229240307945687

最近看了Mind Lab团队的两篇论文,突然就把困扰我很久的一个问题想通了。

之前用豆包聊天,聊着聊着它就开始“失忆”,前面答应过的事转头就忘,有时候还自相矛盾。

我一直以为是模型不够好,后来看了上海交大10月份的Context Engineering 2.0论文才明白,问题不在模型本身,在记忆管理架构。

但真正让我震撼的是Mind Lab的两项研究,彻底改变了我对AI记忆和训练的认知。

第一件事:让AI学会智能遗忘。

他们提出的Memory Diffusion(记忆扩散)颠覆了传统思路。不是记住更多,而是像人类一样智能遗忘。

开车时你会自动忽略路边广告牌,但记住重要路标,这才是真正的智能。

方法很简单:掩码-分配-重填,挑出对话里不重要的部分,给关键信息分配更多空间,然后压缩重组。

我用一个生活比喻说清楚吧:

传统方法像整理房间的两种笨办法:

方法A:每天写一份“房间总结”,扔掉原物品 (推理型)

方法B:把所有东西扔进仓库,需要时去翻找 (工具型)

新方法有点像像断舍离哲学:

定期审视房间里的每样东西,问:“这个一年后还有用吗?”。

重要的精心保留,不重要的果断丢弃,房间始终保持最优状态,而不是等爆满再清理。

结果?Locomo基准测试93%准确率(SOTA),目前最佳成绩。

第二件事:用10%的GPU训练万亿参数模型。

更厉害的是,他们用LoRA技术,相比传统全参数强化学习,只需要用10%的GPU资源,就在万亿参数(1.04T)的Kimi K2模型上完成了强化学习训练。

这不只是省钱。他们做了一个对照实验,控制相同的计算预算,对比不同规模模型的强化学习效果,证明了一个反直觉的结论:

在相同计算预算下,在大模型上做小幅度优化,比在小模型上做全参数训练效果更好。

为什么?

因为AI的进化是"先验受限"的。如果基础模型本身不够强,再怎么训练也很难突破。

就像你给一个从没见过车的人教驾驶技巧,效果远不如教一个已经会开车的人如何开得更好。

这两件事合在一起,给了我一个完整的答案:

好的AI产品=强大的基础模型+聪明的记忆管理+高效的训练方法。

上海交大给了一个工程方案:分层设计、提取关键信息、主动预测用户,Mind Lab直接在模型层和训练层给出了解法。

不是做加法,而是做减法。不是追求更多资源,而是更聪明地使用资源。

AI的进化,不是在学习做得更多,而是学习做得更对。

#Macaron #MindLab

推文配图 1

  • 👍 赞:199 | 🔁 转帖:30 | 💬 回复:29 | 🗨️ 引用:2 | 👀 浏览:18427
  • X 原帖地址

2025-12-09 11:22 CST · ID 1998231640104133065

这篇文章里的记忆扩散游乐场挺直观的!

https://t.co/AZSvkbkgq9 https://t.co/PeKsYZAE4f

推文配图 1

  • 👍 赞:4 | 🔁 转帖:1 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:702
  • X 原帖地址

2025-12-09 11:26 CST · ID 1998232770536218721

上海交大Context Engineering 2.0论文直达:

https://t.co/Y2ARGdNOzR

  • 👍 赞:4 | 🔁 转帖:2 | 💬 回复:1 | 🗨️ 引用:0 | 👀 浏览:700
  • X 原帖地址

2025-12-09 11:41 CST · ID 1998236616549433556

@servasyy Hand-Drawn Sketchnote,每次用这个屡试不爽,抽卡两张选一个。

  • 👍 赞:0 | 🔁 转帖:0 | 💬 回复:1 | 🗨️ 引用:0 | 👀 浏览:200
  • X 原帖地址

2025-12-09 12:02 CST · ID 1998241773295128619

@kevinma_dev_zh 每次写文章,常备信息图风格:

  1. 采用 chic doodle style illustration 风格

  2. 采用黑板粉笔画风格(深色纹理背景),手绘涂鸦/插图风格,多彩粉笔效果(黄、粉、蓝、绿、橙)

  3. Risograph Zine / Collage风格

  4. Hand-Drawn Sketchnote 风格

  • 👍 赞:4 | 🔁 转帖:0 | 💬 回复:1 | 🗨️ 引用:0 | 👀 浏览:200
  • X 原帖地址

2025-12-09 12:03 CST · ID 1998241974084911214

@songguoxiansen Hand-Drawn Sketchnote 风格屡试不爽,抽卡有时候能抽到彩色!

  • 👍 赞:4 | 🔁 转帖:1 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:238
  • X 原帖地址

2025-12-09 12:09 CST · ID 1998243625998922040

@hezhiyan7 是的,现在大部分产品在工程领域想解决方案!

好的产品体验,非常依赖依赖上下文调优。

  • 👍 赞:0 | 🔁 转帖:0 | 💬 回复:1 | 🗨️ 引用:0 | 👀 浏览:110
  • X 原帖地址

2025-12-09 12:12 CST · ID 1998244406588244025

@imichaelsoho 类似于人脑的概念,和之前看了 DeepSeekMath-V2 给我的启发一样。

感觉 AI 的下一个突破点,不在于更强的生成能力,而在于更强的自我认知能力。

  • 👍 赞:3 | 🔁 转帖:0 | 💬 回复:2 | 🗨️ 引用:0 | 👀 浏览:150
  • X 原帖地址

2025-12-09 12:14 CST · ID 1998244808465560034

之前写的一篇短文分享,AI产品如何做好上下文工程?从上海交大的这篇论文中学到了3个改进方法。

https://t.co/loH0TA4Ela

  • 👍 赞:2 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:569
  • X 原帖地址

2025-12-09 12:21 CST · ID 1998246688188989674

@kevinma_dev_zh 我发现 AI 进化到最后,关于记忆的思路跟人脑很相似,

不断过滤噪音,批判性的审视和改进自己。

  • 👍 赞:3 | 🔁 转帖:0 | 💬 回复:1 | 🗨️ 引用:0 | 👀 浏览:441
  • X 原帖地址

2025-12-09 12:24 CST · ID 1998247451858518104

@imichaelsoho 看了下论文,发现一个大家容易忽略的结论:在相同计算预算下,在大模型上做小幅度优化,比在小模型上做全参数训练效果更好。

  • 👍 赞:9 | 🔁 转帖:0 | 💬 回复:1 | 🗨️ 引用:0 | 👀 浏览:526
  • X 原帖地址

2025-12-09 12:27 CST · ID 1998248073420751304

@songguoxiansen 有个大家忽略的点,非常反直觉:

在相同计算预算下,“大模型+小调整”比“小模型+全参数训练”效果更好。

  • 👍 赞:3 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:151
  • X 原帖地址

2025-12-09 12:28 CST · ID 1998248266597912921

@yanhua1010 值得学习

  • 👍 赞:1 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:126
  • X 原帖地址

2025-12-09 12:29 CST · ID 1998248537587679469

@servasyy 你这个比喻很接地气!

  • 👍 赞:1 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:65
  • X 原帖地址

2025-12-09 12:33 CST · ID 1998249628354129980

@servasyy 黄老板这么解释我懂了,神图总结一下! https://t.co/Wwspkli4fQ

推文配图 1

  • 👍 赞:2 | 🔁 转帖:0 | 💬 回复:1 | 🗨️ 引用:0 | 👀 浏览:221
  • X 原帖地址

2025-12-09 12:34 CST · ID 1998249903416635814

@sven_ai 技术非常硬核,希望大家都能有启发🤝

  • 👍 赞:1 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:134
  • X 原帖地址

2025-12-09 14:05 CST · ID 1998272848419537244

@sven_ai @imxiaohu 读了这个团队的Research,技术非常硬核!

好的AI产品=强大的基础模型+聪明的记忆管理+高效的训练方法。 https://t.co/b39YqiHUIU

推文配图 1

  • 👍 赞:1 | 🔁 转帖:0 | 💬 回复:1 | 🗨️ 引用:0 | 👀 浏览:94
  • X 原帖地址

2025-12-09 14:07 CST · ID 1998273289798799837

@wangdefou_dev 是的,这个团队来头不小——Mind Lab是一个专注于体验智能(Experiential Intelligence)的实验室

  • 👍 赞:1 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:124
  • X 原帖地址

2025-12-09 14:11 CST · ID 1998274278354190679

@wangdefou_dev 看了他们对于智能遗忘的研究过程,刚好解释了我之前的疑问。

AI 为什么会失忆?AI的记忆和人类的记忆有什么本质区别?

人类是主动遗忘+动态重构,AI传统上是被动存储+机械提取。 https://t.co/GuN8xgPAGV

推文配图 1

  • 👍 赞:2 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:96
  • X 原帖地址

2025-12-09 14:44 CST · ID 1998282495440384228

@iamtonyzhu 我发现这个对于 AI 产品来说意义重大,更好的对话体验,AI不会“失忆”,能记住长时间对话。 https://t.co/N8vOd2MUTe

推文配图 1

  • 👍 赞:1 | 🔁 转帖:0 | 💬 回复:2 | 🗨️ 引用:0 | 👀 浏览:211
  • X 原帖地址

2025-12-09 16:05 CST · ID 1998302850305421334

看大家都在问这种信息图怎么做的?整理一个适合做信息图的风格合集,集成到 YouMind 中太方便了!

  1. chic doodle style illustration 风格

  2. 黑板粉笔画风格(深色纹理背景),手绘涂鸦/插图风格,多彩粉笔效果(黄、粉、蓝、绿、橙)

  3. Risograph Zine / Collage风格

  4. Hand-Drawn Sketchnote 风格

  5. Lofi Anime / 90s Cel Shading风格

shortcuts直达:

https://t.co/NhSWnyQoHb

  • 👍 赞:3 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:650
  • X 原帖地址

2025-12-09 19:28 CST · ID 1998354099184521359

@sven_ai @imxiaohu YouMind 里可以直接生图!shortcuts 👇

https://t.co/HQUyL1pQjI

  • 👍 赞:1 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:24
  • X 原帖地址

2025-12-09 19:29 CST · ID 1998354227039523108

@bggg_ai 确实强

  • 👍 赞:0 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:111
  • X 原帖地址

2025-12-09 19:35 CST · ID 1998355792307912957

@bozhou_ai 对,目前来看好的产品体验,非常依赖模型记住对话的关键信息,需要精准压缩。

  • 👍 赞:1 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:167
  • X 原帖地址

2025-12-09 19:36 CST · ID 1998356099796467755

@gkxspace 我之前也是有这个疑问,现在算是解惑了。

好的陪伴型产品非常依赖对话体验,深层次就是记忆架构,不然很容易出戏,沉浸感很差。

  • 👍 赞:0 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:202
  • X 原帖地址

2025-12-09 19:41 CST · ID 1998357226420072549

@bozhou_ai 非常直观易懂!AI学会了选择性遗忘,保留重要信息,压缩或删除不重要的。

对于陪伴型产品算是一个模型层面的突破!之前我一直在想工程方面的优化方向。

  • 👍 赞:3 | 🔁 转帖:0 | 💬 回复:1 | 🗨️ 引用:0 | 👀 浏览:254
  • X 原帖地址

2025-12-09 19:44 CST · ID 1998357963338334370

@gkxspace 那篇智能遗忘的文章解决了我很长时间的困惑。模型层面的突破对于陪伴型产品非常关键。

好的对话体验依赖记忆架构,用户对话的沉浸感更强。

  • 👍 赞:0 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:51
  • X 原帖地址

2025-12-09 20:01 CST · ID 1998362451830829207

致富最简单的方法,但也是最难的! https://t.co/aIpWOnHWsp

推文配图 1

  • 👍 赞:4 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:553
  • X 原帖地址

2025-12-09 20:14 CST · ID 1998365693339943009

@0xbisc 让 AI 真正从使用中不断学习确实很重要!

  • 👍 赞:1 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:108
  • X 原帖地址

2025-12-10 11:29 CST · ID 1998595802906898937

@nexmoe 👍工程架构和模型层面都需要进步

  • 👍 赞:2 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:61
  • X 原帖地址

2025-12-10 11:30 CST · ID 1998596115403518461

@sujingshen 感觉人类遗忘往往是选择性过滤噪音,信息被压缩了。

AI 的智能遗忘也是相同的道理。

  • 👍 赞:1 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:78
  • X 原帖地址

2025-12-10 11:31 CST · ID 1998596305866862742

@shandianshuo @drose12114329 @hao_harry49876 @cellinlab @imichaelsoho @qq5424____01 感谢感谢!

  • 👍 赞:1 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:158
  • X 原帖地址

2025-12-10 11:47 CST · ID 1998600396802269540

@densy07 是的,这种对于陪伴型Agent体验上就会差很多,需要工程架构和算法层面突破。

  • 👍 赞:0 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:75
  • X 原帖地址

2025-12-10 11:48 CST · ID 1998600567967592456

@zouxulucky 信息压缩太重要了,人脑很聪明的是会有效过滤噪音。

  • 👍 赞:1 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:104
  • X 原帖地址

2025-12-10 11:48 CST · ID 1998600719428104542

@0xPlato 所有风格都在这里了https://t.co/V22DmT649P

  • 👍 赞:1 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:43
  • X 原帖地址

2025-12-10 11:49 CST · ID 1998600931508891813

@yaohui12138 10人核心团队非常硬核

  • 👍 赞:2 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:107
  • X 原帖地址

2025-12-10 11:56 CST · ID 1998602621012304181

@guijiewan 厉害👍补充的非常到位

  • 👍 赞:0 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:38
  • X 原帖地址

2025-12-10 14:03 CST · ID 1998634715461673310

@kevinma_dev_zh 可以的👍,先发起来再优化

  • 👍 赞:0 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:31
  • X 原帖地址

2025-12-10 14:20 CST · ID 1998638835199259039

@linyi64965449 👍

  • 👍 赞:0 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:7
  • X 原帖地址

2025-12-10 15:02 CST · ID 1998649614162121022

@Pluvio9yte 应该填写 HK 吗?

  • 👍 赞:1 | 🔁 转帖:0 | 💬 回复:1 | 🗨️ 引用:0 | 👀 浏览:1090
  • X 原帖地址

2025-12-10 15:14 CST · ID 1998652612464488815

@affLeopard 我关注到模型层面的记忆突破确实不错!智能遗忘类似人脑的记忆一样,智能压缩,去除噪音

  • 👍 赞:2 | 🔁 转帖:0 | 💬 回复:1 | 🗨️ 引用:0 | 👀 浏览:128
  • X 原帖地址

2025-12-10 15:15 CST · ID 1998652680747790488

@PennyJoly 学无止境!

  • 👍 赞:1 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:30
  • X 原帖地址

2025-12-10 15:34 CST · ID 1998657507355754795

一张苹果风格的信息图更好呈现这个内容!

如何在年底之前彻底重启你的人生,专注于此90天,你未来的自己会在余生中感谢你。 https://t.co/Jrr7NbNwUf

推文配图 1

  • 👍 赞:1 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:273
  • X 原帖地址

2025-12-10 19:41 CST · ID 1998719710716981597

@AI_Jasonyu 确实强👍,AI进化到最后,都是往人脑方向演化

  • 👍 赞:1 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:50
  • X 原帖地址

2025-12-10 19:49 CST · ID 1998721762423697595

@Macaron0fficial @KaijieChen12236 @curlfuture @XiaotengMa1996 I was deeply impressed by the article on intelligent forgetting. It resolved a long-standing question I had: a better conversational experience in the future must enable AI to remember long-term conversations.

  • 👍 赞:2 | 🔁 转帖:0 | 💬 回复:1 | 🗨️ 引用:0 | 👀 浏览:90
  • X 原帖地址

2025-12-10 19:50 CST · ID 1998721980380623247

@wlzh 嗯嗯,未来陪伴型产品想要有更好的对话体验,一定是让 AI 能记住长时间对话。

  • 👍 赞:2 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:43
  • X 原帖地址

2025-12-10 19:52 CST · ID 1998722472334733503

@wlzh 传统 AI 记忆会出现经常性的 AI 失忆。现在它们提出的记忆扩散挺有启发的。

让 AI 保留重要信息,压缩或删除不重要的

  • 👍 赞:1 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:42
  • X 原帖地址

2025-12-10 19:55 CST · ID 1998723208686842096

@NPfinal 2026清理掉bug,重启生活

  • 👍 赞:0 | 🔁 转帖:0 | 💬 回复:0 | 🗨️ 引用:0 | 👀 浏览:6
  • X 原帖地址

作者

avatar for 极客杰尼
极客杰尼
2025-12-08 10:51 CST · ID 19978615565212389852025-12-08 11:30 CST · ID 19978714871818571222025-12-08 11:32 CST · ID 19978719852093361532025-12-08 11:33 CST · ID 19978720322484677922025-12-08 11:35 CST · ID 19978725737288749102025-12-08 19:39 CST · ID 19979943801212847842025-12-09 11:12 CST · ID 19982292403079456872025-12-09 11:22 CST · ID 19982316401041330652025-12-09 11:26 CST · ID 19982327705362187212025-12-09 11:41 CST · ID 19982366165494335562025-12-09 12:02 CST · ID 19982417732951286192025-12-09 12:03 CST · ID 19982419740849112142025-12-09 12:09 CST · ID 19982436259989220402025-12-09 12:12 CST · ID 19982444065882440252025-12-09 12:14 CST · ID 19982448084655600342025-12-09 12:21 CST · ID 19982466881889896742025-12-09 12:24 CST · ID 19982474518585181042025-12-09 12:27 CST · ID 19982480734207513042025-12-09 12:28 CST · ID 19982482665979129212025-12-09 12:29 CST · ID 19982485375876794692025-12-09 12:33 CST · ID 19982496283541299802025-12-09 12:34 CST · ID 19982499034166358142025-12-09 14:05 CST · ID 19982728484195372442025-12-09 14:07 CST · ID 19982732897987998372025-12-09 14:11 CST · ID 19982742783541906792025-12-09 14:44 CST · ID 19982824954403842282025-12-09 16:05 CST · ID 19983028503054213342025-12-09 19:28 CST · ID 19983540991845213592025-12-09 19:29 CST · ID 19983542270395231082025-12-09 19:35 CST · ID 19983557923079129572025-12-09 19:36 CST · ID 19983560997964677552025-12-09 19:41 CST · ID 19983572264200725492025-12-09 19:44 CST · ID 19983579633383343702025-12-09 20:01 CST · ID 19983624518308292072025-12-09 20:14 CST · ID 19983656933399430092025-12-10 11:29 CST · ID 19985958029068989372025-12-10 11:30 CST · ID 19985961154035184612025-12-10 11:31 CST · ID 19985963058668627422025-12-10 11:47 CST · ID 19986003968022695402025-12-10 11:48 CST · ID 19986005679675924562025-12-10 11:48 CST · ID 19986007194281045422025-12-10 11:49 CST · ID 19986009315088918132025-12-10 11:56 CST · ID 19986026210123041812025-12-10 14:03 CST · ID 19986347154616733102025-12-10 14:20 CST · ID 19986388351992590392025-12-10 15:02 CST · ID 19986496141621210222025-12-10 15:14 CST · ID 19986526124644888152025-12-10 15:15 CST · ID 19986526807477904882025-12-10 15:34 CST · ID 19986575073557547952025-12-10 19:41 CST · ID 19987197107169815972025-12-10 19:49 CST · ID 19987217624236975952025-12-10 19:50 CST · ID 19987219803806232472025-12-10 19:52 CST · ID 19987224723347335032025-12-10 19:55 CST · ID 1998723208686842096