找回密码
 立即注册
查看: 3|回复: 1

谷歌收200美元的AI动态图表功能,今天被Claude免费开放!

[复制链接] 主动推送
<

63

主题

18

回帖

264

积分

管理员

积分
264
发表于 3 小时前 | 显示全部楼层 |阅读模式 此人IP归属地:- 北京
               
                                       


                    
               
                                                   

新智元报道
编辑:倾倾
【新智元导读】Anthropic刚给Claude装了一块「白板」,可以在对话里直接生成交互式图表和流程图,用户点哪里都能展开。巧的是,OpenAI两天前也上了类似功能,Google更是去年就动了手。三家不约而同押注同一件事:光会说不够,AI得学会「画给你看」。
3月12日,Anthropic官宣:Claude现在可以在对话中直接生成交互式图表、流程图和可视化内容了!
如果你问它关于元素周期表的问题,它能直接画一个可点击的周期表,每个元素点进去都有详细信息。


更有意思的是,就在两天前,OpenAI刚给ChatGPT上了类似的交互式可视化功能;
再往前翻,Google的Gemini去年11月就开始做这件事了。
一周之内,三巨头全部发出了自己的新技术。这难道只是巧合?
如果给Claude一块白板,会发生什么?
「给AI一块白板」和大家理解的AI画图完全不是一回事。
Claude画的东西,底层是HTML代码和SVG矢量图形。这相当于给Claude发了一块白板,让它边说边画。
而Midjourney图像生成,更像是一个程序员现场写代码、现场渲染。
和Claude已有的Artifacts功能比,「白板」的定位也不一样。
Artifacts是作品。你可以下载、分享、反复用,它在侧边面板里,关了对话还在。
但这些对话内的可视化是临时的,对话往下走可能就没了。
如果你觉得图不对,说一句,它会当场改正;如果你想深挖某个部分,点击一下,它继续展开。
这个功能的前身是一个叫「Imagine with Claude」的实验。
当时,这个功能只给Max用户体验了几天后就关闭了,很多人以为那只是个技术秀。
结果半年后,核心能力以这种更实用的方式落地了。
Inc.的记者做了个测试:让Claude生成Timothée Chalamet争议事件的交互式时间线。
结果它不仅做了完整的事件节点可视化,还自己加了一个「愤怒指数」仪表盘。


另一个测试是让它做宝可梦系列的视觉历史,带有游戏、影视、文化事件的分类筛选器,完成度相当高。


这个功能默认开启,免费用户也能用。
目前支持Web端和桌面端,移动端暂时没有。
三巨头扎堆:是巧合,还是故意为之?
2025年11月,Google先坐不住了。
Gemini上线了交互式图像,把教材里的静态图变成可点击的学习工具。


到2026年初又推了「Guided Learning」模式,把图像、视频、测验打包成一个学习伴侣。
2026年3月10日,OpenAI紧随其后。
ChatGPT上线「动态视觉解释」,覆盖70+个数学和科学概念。
每周1.4亿人拿ChatGPT学数学和科学,这个用户基数够大。


2026年3月12日,Anthropic上线。而且一出手就带来福利:免费用户也可使用。
对比之下,Google去年12月给Gemini Ultra上的高级交互式图表和模拟,订阅费每月200美元,门槛不低。
Anthropic一直在文本和代码上猛打,音频、图像、视频这些多模态方向基本没投入,因为OpenAI和Google早就砸了重金。
现在Anthropic另辟蹊径,不做图像生成,用代码画图,扬长避短,十分明智。
一条赛道,三种打法
三家虽然都在做交互式可视化,但思路差别非常大。
经典的教科书:OpenAI
ChatGPT高度结构化,70多个预设主题,从二项式展开到库仑定律、从指数衰减到胡克定律,每个都有专门设计的交互模块。
你不能让ChatGPT可视化任意话题——超出这70多个主题就不触发。
好处是做得精,专业感强,教学设计有章法;代价是范围窄,灵活性差。
OpenAI摆明了说:先做教育,面向高中生和大学生,以后再扩张。
配合去年上线的Study Mode和QuizGPT,OpenAI在教育赛道上的布局已经相当完整了。
图注生成器:Gemini
Gemini的路子像给一张现有的图「开外挂」。
AI识别图像里的关键元素,自动生成可点击的标签和解释面板。
你点一下细胞图里的高尔基体,就会弹出他的定义和功能。
本质上是围绕图像做文章,得先有图才能交互。
但Google的优势在生态:LearnLM教育模型、YouTube视频、Google Classroom的打通,让这个功能可以直接嵌入课堂场景,这是OpenAI和Anthropic都做不到的。


通用白板 :Claude
不限主题,不限场景,不要预设模板。
建筑受力分析、职业选择决策树、公司收入趋势图、RGB调色板......理论上,它能画任何可以用代码表达的东西。
而且这些可视化还能和Figma、Canva、Slack等第三方应用联动。
这暗示Anthropic想的不只是聊天增强,而是一个连接生产力工具的视觉交互层。
今年1月Claude上线的Connectors功能让它能直接操作第三方应用,现在加上可视化,拼图又多了一块。
当然白板也有白板的缺点。
The New Stack的记者让Claude画非塔台机场的VFR进近模式图,大体对了,但「中场侧风进入」的标注位置搞错了。


还有速度问题。一个复杂可视化可能要等30秒,而用搜索引擎找一张类似的图只要3秒。
不过在Beta阶段,这些都正常。
光会说已经不够用了
三家同时押注可视化,可能意味着纯文本回复正在触及天花板。
AI聊天从2022年底火到现在,核心交互一直是你问我答,全靠文字。
但越来越多场景证明文字难以胜任。
解释时间复杂度,一张图比三段话清楚;呈现销售数据,一个可拖动的图表比一堆数字有感觉;教物理概念,让学生自己拖参数看变化比对着公式发呆管用得多。
教育研究也早就说了,交互式学习比被动阅读的理解效果好得多,这不是什么新发现。
之前的AI没有画的能力,只能用文字硬扛。
现在,三家同时把这个技能点亮了,区别只在切入角度。
而且各家的选择都和自身生态有关。
OpenAI有1.4亿周活学生用户,做教育顺理成章;Google有LearnLM和Classroom生态,做标注式学习是老本行;Anthropic代码能力最强,用代码画白板是最自然的延伸。
Digital Trends的报道提到一个有意思的说法:Anthropic把这次更新定义为Claude「学会选择最佳表达格式」。
有时候文字最好,有时候一张图更好,有时候一个可交互的小工具最合适。
再加上今年上线的食谱卡片、天气可视化、Figma/Canva/Slack等应用内交互,Claude正在从「文字助手」变成「多格式表达引擎」。
AI竞赛持续了三年多,模型能力差距越来越小;跑分互有胜负,用户感知越来越模糊。
谁更聪明拉不开差距,「谁更会表达」成了新战场。
这一轮,三家答案出奇一致:让AI学会画画。
不过话说回来,这些功能都还是早期。
Claude的标注偶尔出错,ChatGPT的交互模块覆盖面有限,Gemini的高级功能需要200美元的入场费。
真正的竞赛不在谁先上线,在谁能把「边说边画」做成用户根本不会注意到的自然交互。
2026年3月这一周,大概就是AI从文字机器变成表达工具的起点。
参考资料:
https://claude.com/blog/claude-builds-visuals
https://www.theverge.com/ai-artificial-intelligence/893625/anthropic-claude-ai-charts-diagrams
               
                                                                                                                                                    特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
                    


回复

使用道具 举报

<

63

主题

18

回帖

264

积分

管理员

积分
264
 楼主| 发表于 3 小时前 | 显示全部楼层 此人IP归属地:- 北京
CAHT GPT新图片模型:
回复

使用道具 举报

文明发言,和谐互动,谢谢支持
文明发言,和谐互动,谢谢支持
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|ZNTBBS

GMT+8, 2026-4-26 23:21 , Processed in 0.056775 second(s), 35 queries .

Powered by Discuz! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表