2025年SeeConf参会记录

近几年,各种新模型发布后,在营销号口中,前端已经死了8次了。

PPT

https://github.com/antgroup/SEEConf/tree/main/2025/

国内的前端知名人员都在做什么?

1
2
3
4
5
6
7
8
9
10
11
2025 年,已经有很多前端 / 终端工程师投身于 AI Coding、Agent 工程、智能等领域,变的是每天写的代码和交付的产物,不变的是他们仍然是每天在解决实际问题、懂产品和用户体验的那帮人。

5 年前,偏右在做 Ant Design,现在他在探索 AI 工程和前端的职责边界。他将在 SEE Conf 2025 分享《AI for Frontend》。

5 年前,达峰在做语雀,现在他在打造体验技术的智能引擎,他将分享实践思考。

5 年前,阿大在做前端工程化和 DevOps,现在他在阿里云做 Qoder。他将在 SEE Conf 2025 分享《我,前端,AI》。

5 年前,黄玄在做 React Native,现在他在字节 Lynx 继续深耕跨端技术。他将在 SEE Conf 2025 分享《双线程的 React》。

5 年前,闻冰在搞 D2C 和设计工程化,现在他的 LobeHub 是最流行的开源 AI 效能工具之一。他将在 SEE Conf 2025 分享《AI Coding 与开源协作的新范式》。

站在2025年的节点展望未来,前端开发将不再是一个独立的工种,而是一种能力要素。它将融合进AI工程、产品设计和系统架构之中。

行业终局预测

  1. “前端”职位名称的消亡:未来3-5年内,“前端工程师”这一Title可能会逐渐减少,取而代之的是“全栈产品/应用工程师(Full-stack Application Engineer)”或“AI交互工程师(AI Interaction Engineer)”。

  2. 交互层价值回归:虽然代码生成的成本降低了,但优质体验(UX)的稀缺性反而上升了。在一个AI生成内容泛滥的时代,谁能提供更直观、更可控、更具人性化的AI交互界面,谁就掌握了流量入口。

未来的趋势

1
2
3
4
5
2个信息跟大家同步下,这就是未来的趋势:
11.21日,华为内部发文,要求全员考英语,雅思、托福、托业三选一
11.25日,百度开始推AI Coding的认证了,不认证明年Q2之后就没法提代码。换言之,AI编程已经从研发的“可选项”变成“必选项”,不使用AI的程序员以后在大厂寸步难行,时代趋势就是如此。

我个人的短期计划是把技能点往这三个方向点的:Architecture + English + AI Coding(专注Context Engineering)。

AI时代的核心问题

AI最关键的能力是什么?

实时生成。
AI最大的能力是实时生成,我们现在的方案其实都不是这个。

未来UI到底需不需要人去写?

不需要。
当模型能力足够强大后,自然语言输入+图像输入+视频输入,我觉得是完全能满足需求输入的。

AI时代个人的护城河是什么?

品位与表达能力。
这个深有感触,AI能帮你写代码,但是如果你品位太低,是无法创造出优秀甚至卓越的产品的。
而表达能力,对外能让你营造个人品牌效应,对内决定了你能否将自己的想法和逻辑清晰的传递给AI。这二者都至关重要。表达能力是AI时代的核心技能门槛。就像以前学编程,很多人在入门这一关就放弃了,而现在不善于表达,你都入不了AI Coding的门(你无法给AI传递有效信息,导致确定性的AI Coding变成了抽卡和赌博)。

叙事可视化,本质上是做什么?

从第一性原理分析,是做一个叙事可视化的AI IDE,是个生产力工具,创作工具,参考Wavefox的理念。
我们应该做好底层Agentic架构,籍此演化出上层各种产品和形态

创意不该被成本扼杀。

一些零散的想法

参会的意义

快过年了,可以特意去听一些行业分享会。因为这些分享会会集中宣讲学界与企业界的最新实践和研究内容,这样就能清晰把握行业发展的大方向。而基于这一明确方向来制定明年的规划,会是更为科学的选择。

出镜率最高的概念

  • MCP
  • 上下文工程
  • Sandbox

微调和模型训练相对出现较少了。RAG也归到上下文工程中的一部分,没有单独提出来了。

细分领域,然后将其做精

蚂蚁的策略:细分领域,然后将其做精。
比如光是AI IDE就分了好多个,Wavefox,Muse,Qoder等等,面向不同的用户群体。
内部职责也是划分很细的,比如有专门的技术推广团队、专门的文档平台负责人等等。这和这个slogan很像:做一件事,做到极致。

常规可视化图表没啥可玩的了

折柱饼等能涵盖到大部分数据分析的强需求场景了,剩下的边界场景、长尾需求,则不是这种传统图表所能解决的,而且因为场景较少,除非应用在核心功能点上,否则价值很难说清楚。

人才分布

蚂蚁的聪明人很多,人才档次明显是高很多的,我们公司能把事情讲得这么有逻辑和条理的人都没几个。
他们全是做平台,通过能力和平台构建上层应用,我们是做demo和功能,很少做抽象和能力化沉淀。

品宣

开场视频不错,展示SeeConf的愿景和目标计划,电子音乐和画面很有冲击力。我们也应该搞一个可视化的宣传片头。

AI对半桶水人员提升最大

以前开发,很大一个难点在于技术细节的实现上,需要花费大量时间精力和试错成本。而现在借助AI Coding,想我这种半桶水人员(不了解实现细节,但是知识面比较广)提升非常大,因为AI刚好能解决实现方面的问题。

宏观与微观

会上大部人的分享,都偏宏观一些,这也是趋势,因为这些会议的重点是探索和方向。
我们的分享,一开始的思路就是比较具体的,其实这在类似行业峰会上,并不大好。

我们跑得太慢

我们公司每次都是跑的很早,但是跑得很慢。
今天听SeeConf,发现蚂蚁这边很多AI相关的东西都已经做得很不错了,他们起步时间都比我们滞后。
比如AI Coding IDE(对比HiPilot),一些内容生成平台等等。
他们人多资源多,分了很多细致的领域同步在搞。

可视化后续策略

分阶段演化策略

  • 智能研发
  • 评测与AI质检
  • 新交互形式
  • 全栈人才(教学相长,以战代练)

注意全栈人才的诠释,我之前的理解还是有点狭隘了。
“教学相长,以战代练”的概念,和我一直推崇的完全一致。

metadata的构建

metadata就是给大模型用的,打标也用的着。
这个描述也是可以嵌套的,比如信息图里面可以有子元素的描述信息。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
{

version: '1.0',

metadata: {

title: '动画标题',

description: '动画描述',

author: '创作者',

tags: ['标签 1', '标签 2'],

},

canvas: { width: 800, height: 600, backgroundColor: '#FFFFFF', fps: 60 },

elements: [

// 元素定义数组

],

timeline: [

// 动画定义数组

],

};

专门的文档平台负责人

我们需要一个专门的文档负责人,这是和AI对接的关键。
比如这次的Mirror对接,可视化组件的metadata根本就不应该放在Mirror的CMS里面,而是应该落到我们这边才对!Mirror中应该是通过MCP调用的方式使用,即使必须要在CMS保存一份,也应该是从我们这边同步过去的方式。
下周赶紧在Demo平台增加一个case的metadata录入功能,趁着这次的需求,借助林吕贝的接入工作编写文档。

解决组件过多后,MCP的上下文过长问题

推荐可以基于传统多分类器,而不是一定要大模型
AntV的策略:

  • 用bert训练一个分类模型
  • 千问的reranking
  • 结合用户的内容进行打分
  • 择优选用

通过上下文工程,构建领域专家Agent

像3D分享这样,拆分很多细致的Agent,比如模型生成、粒子等等,我们也可以细分。因为是通过上下文工程来实现,成本是不高的。
SubAgent很实用,因为不占用主流程的上下文,解决了上下文不足的问题。
这里有个要注意的是:结构化。可以通过先成成策划图(规划图),实现Spec,指导后续Agent的行动。

让ai帮我设计我们的上下文工程项目。

代码理解能力,这也是 Coding Agent 的关键能力之一。
在代码理解上,业内常见的方案有:向量索引检索(RAG)抽象语法树(AST)文本搜索(grep)预生成文档(deepWiki),在实际应用中有不少组合的情况。
Cursor 选择的是 RAG 方案,好处是速度快,适合大的单体仓库,缺点是精度丢失(向量化),实时性不高。
Claude Code 则选择比较纯粹的文本搜索方案,和人很像,好处是精度高、实时性强,但性能会差一些。
我们的方案是基于Claude Code,补充文档,采用:“代码+文档+CC的文本搜索”方式来实现,同时通过文档分类和分割,解决Token耗费过大、LLM遵循度过低的问题。

AI用例标准化

就是我们(温晋)正在搞的,存量用例(种子集)和增量用例。
过往历史用例缺乏维护,质量参差不齐,如左图各种隐式步骤、断言缺失。另外用例还分散在各个平台,比如文本和自动化用例互不相通。
LLM 本身有强大的自然语言理解能力。这让传统文本用例和自动化用例的融合成为可能,也就是自然语言用例,让用例兼具语意性和可执行性
两个方向:AI 存量用例优化、AI 增量用例生成。

首先是存量用例优化,根据已有的测试目标和测试步骤由 LLM 生成更规范的用例名、标签等,同时逐步优化用例步骤、补充断言。
其次对于增量的用例,我们结合业务知识库,并参考现有用例进行生成。
所有的这些自然语言用例放在一起,它们本身就是一个高质量的测试知识库

一个新的用例生成过程分为三步:

  • 填写基本信息:测试目标、开启 AI 规划;
  • 选择参考用例:从历史用例库选择供 LLM 参考;
  • 用例生成:LLM 会生成用例的基础信息,以及完整的测试步骤,这里的步骤是自然语言,一目了然,且可被执行;

评测系统

当前基建做好的下一步,是构建评测能力和系统。
这个甚至能搞成一个独立的MCP给内容生成场景用。

Demo平台接入NLP配置能力

AntV官网直接接入了NLP配置功能,这个我们也应该搞的。这个让贤浩搞吧,正好他做过ChatBot,也能籍此进一步深入了解组件库。

AI自由组合衍生新的效果

游戏生成(Tripo)那个的思路很不错,我们将可视化配置按照规范封装为Tools,让模型自由组合,可能有惊喜。

AI质检

  • 上下文工程
  • 设计规范
  • 知识库
  • 圈定安全范围,在里面生成
  • 标注
    让多模态大模型识别可视化中的视觉问题,进行验证,比如重叠、遮挡、显示不全、无效标注等等,进行打分和择优。

布局转DSL

灵感来自动效分享,先生成布局图,再根据布局图生成DSL。

动效+信息图

这个也可以当成一个尝试的方向。

近期开发需求

下一步得把visall和sd的代码搞好,技术债修复,然后围绕这些库构建各种能力。

  • demo平台增加metadata录入功能
  • 把VISALL的commit和版本信息搞一搞
  • 增加测试检查功能(AI修改即可,比如打包出来的体积太大这个问题)

    技术债不解决,没法大刀阔斧的往前走。
    你没迈过去的坎,不会消失,还是在那里等着你,你只是为自己今后挖坑,给未来的自己增加工作量。

I spent my time in git rebase --interactive mode to organize the git history so it tells an appealing story from start to finish.

11.26讨论的可视化近期计划

中台规划:

短期:放同创工坊
    AIGC
    资讯可视化
    readify
中期:同花顺数据可视化平台
    半原子能力
    同步增加更多的项目
    可视化内部平台可以统计被业务方调用的情况
    对外展示清楚我们的能力

资讯接下来如何优化(HIVIS2.0)?

- 解决成本问题(换小模型)
    - 跟资讯沟通,调整后测试,再上线后观察效果
- F10落地资讯
- 独属于AInvest资讯的多MCP
- AntV开源的Infographic组件更新进去
- 本周让资讯前端升级一下,再观察看当前的效果
- 架构重构和优化的问题(工程化占比增大)