
新智元报道 编辑:倾倾 【新智元导读】Anthropic刚给Claude装了一块「白板」,可以在对话里直接生成交互式图表和流程图,用户点哪里都能展开。巧的是,OpenAI两天前也上了类似功能,Google更是去年就动了手。三家不约而同押注同一件事:光会说不够,AI得学会「画给你看」。 3月12日,Anthropic官宣:Claude现在可以在对话中直接生成交互式图表、流程图和可视化内容了! 如果你问它关于元素周期表的问题,它能直接画一个可点击的周期表,每个元素点进去都有详细信息。 
更有意思的是,就在两天前,OpenAI刚给ChatGPT上了类似的交互式可视化功能; 再往前翻,Google的Gemini去年11月就开始做这件事了。 一周之内,三巨头全部发出了自己的新技术。这难道只是巧合? 如果给Claude一块白板,会发生什么? 「给AI一块白板」和大家理解的AI画图完全不是一回事。 Claude画的东西,底层是HTML代码和SVG矢量图形。这相当于给Claude发了一块白板,让它边说边画。 而Midjourney图像生成,更像是一个程序员现场写代码、现场渲染。 和Claude已有的Artifacts功能比,「白板」的定位也不一样。 Artifacts是作品。你可以下载、分享、反复用,它在侧边面板里,关了对话还在。 但这些对话内的可视化是临时的,对话往下走可能就没了。 如果你觉得图不对,说一句,它会当场改正;如果你想深挖某个部分,点击一下,它继续展开。 这个功能的前身是一个叫「Imagine with Claude」的实验。 当时,这个功能只给Max用户体验了几天后就关闭了,很多人以为那只是个技术秀。 结果半年后,核心能力以这种更实用的方式落地了。 Inc.的记者做了个测试:让Claude生成Timothée Chalamet争议事件的交互式时间线。 结果它不仅做了完整的事件节点可视化,还自己加了一个「愤怒指数」仪表盘。 
另一个测试是让它做宝可梦系列的视觉历史,带有游戏、影视、文化事件的分类筛选器,完成度相当高。 
这个功能默认开启,免费用户也能用。 目前支持Web端和桌面端,移动端暂时没有。 三巨头扎堆:是巧合,还是故意为之? 2025年11月,Google先坐不住了。 Gemini上线了交互式图像,把教材里的静态图变成可点击的学习工具。 
到2026年初又推了「Guided Learning」模式,把图像、视频、测验打包成一个学习伴侣。 2026年3月10日,OpenAI紧随其后。 ChatGPT上线「动态视觉解释」,覆盖70+个数学和科学概念。 每周1.4亿人拿ChatGPT学数学和科学,这个用户基数够大。 
2026年3月12日,Anthropic上线。而且一出手就带来福利:免费用户也可使用。 对比之下,Google去年12月给Gemini Ultra上的高级交互式图表和模拟,订阅费每月200美元,门槛不低。 Anthropic一直在文本和代码上猛打,音频、图像、视频这些多模态方向基本没投入,因为OpenAI和Google早就砸了重金。 现在Anthropic另辟蹊径,不做图像生成,用代码画图,扬长避短,十分明智。 一条赛道,三种打法 三家虽然都在做交互式可视化,但思路差别非常大。 经典的教科书:OpenAI ChatGPT高度结构化,70多个预设主题,从二项式展开到库仑定律、从指数衰减到胡克定律,每个都有专门设计的交互模块。 你不能让ChatGPT可视化任意话题——超出这70多个主题就不触发。 好处是做得精,专业感强,教学设计有章法;代价是范围窄,灵活性差。 OpenAI摆明了说:先做教育,面向高中生和大学生,以后再扩张。 配合去年上线的Study Mode和QuizGPT,OpenAI在教育赛道上的布局已经相当完整了。 图注生成器:Gemini Gemini的路子像给一张现有的图「开外挂」。 AI识别图像里的关键元素,自动生成可点击的标签和解释面板。 你点一下细胞图里的高尔基体,就会弹出他的定义和功能。 本质上是围绕图像做文章,得先有图才能交互。 但Google的优势在生态:LearnLM教育模型、YouTube视频、Google Classroom的打通,让这个功能可以直接嵌入课堂场景,这是OpenAI和Anthropic都做不到的。 
通用白板 :Claude 不限主题,不限场景,不要预设模板。 建筑受力分析、职业选择决策树、公司收入趋势图、RGB调色板......理论上,它能画任何可以用代码表达的东西。 而且这些可视化还能和Figma、Canva、Slack等第三方应用联动。 这暗示Anthropic想的不只是聊天增强,而是一个连接生产力工具的视觉交互层。 今年1月Claude上线的Connectors功能让它能直接操作第三方应用,现在加上可视化,拼图又多了一块。 当然白板也有白板的缺点。 The New Stack的记者让Claude画非塔台机场的VFR进近模式图,大体对了,但「中场侧风进入」的标注位置搞错了。 
还有速度问题。一个复杂可视化可能要等30秒,而用搜索引擎找一张类似的图只要3秒。 不过在Beta阶段,这些都正常。 光会说已经不够用了 三家同时押注可视化,可能意味着纯文本回复正在触及天花板。 AI聊天从2022年底火到现在,核心交互一直是你问我答,全靠文字。 但越来越多场景证明文字难以胜任。 解释时间复杂度,一张图比三段话清楚;呈现销售数据,一个可拖动的图表比一堆数字有感觉;教物理概念,让学生自己拖参数看变化比对着公式发呆管用得多。 教育研究也早就说了,交互式学习比被动阅读的理解效果好得多,这不是什么新发现。 之前的AI没有画的能力,只能用文字硬扛。 现在,三家同时把这个技能点亮了,区别只在切入角度。 而且各家的选择都和自身生态有关。 OpenAI有1.4亿周活学生用户,做教育顺理成章;Google有LearnLM和Classroom生态,做标注式学习是老本行;Anthropic代码能力最强,用代码画白板是最自然的延伸。 Digital Trends的报道提到一个有意思的说法:Anthropic把这次更新定义为Claude「学会选择最佳表达格式」。 有时候文字最好,有时候一张图更好,有时候一个可交互的小工具最合适。 再加上今年上线的食谱卡片、天气可视化、Figma/Canva/Slack等应用内交互,Claude正在从「文字助手」变成「多格式表达引擎」。 AI竞赛持续了三年多,模型能力差距越来越小;跑分互有胜负,用户感知越来越模糊。 谁更聪明拉不开差距,「谁更会表达」成了新战场。 这一轮,三家答案出奇一致:让AI学会画画。 不过话说回来,这些功能都还是早期。 Claude的标注偶尔出错,ChatGPT的交互模块覆盖面有限,Gemini的高级功能需要200美元的入场费。 真正的竞赛不在谁先上线,在谁能把「边说边画」做成用户根本不会注意到的自然交互。 2026年3月这一周,大概就是AI从文字机器变成表达工具的起点。 参考资料: https://claude.com/blog/claude-builds-visuals https://www.theverge.com/ai-artificial-intelligence/893625/anthropic-claude-ai-charts-diagrams
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
|