快讯

OpenAI在Codex中上线Chronicle功能,让AI直接读取屏幕上下文成为默认交互方式

OpenAI在Codex中上线Chronicle功能,使AI可以通过后台持续截屏与OCR解析,自动理解用户当前屏幕内容,从而在对话中直接引用“这个报错”“那个文件”等上下文,无需手动复制粘贴。该功能作为此前Memories的扩展,已在macOS的ChatGPT Pro用户中小范围开放。

Chronicle通过本地后台进程定期记录屏幕活动,并生成结构化记忆文件,用于增强跨会话理解能力。但这些数据需上传至OpenAI服务器处理,且生成的明文Markdown文件存储于本地路径,带来潜在隐私泄露与prompt injection攻击风险;官方已明确提示该功能可能放大恶意网页指令影响。

类似“AI读屏”路径此前已被Microsoft Recall及部分IDE工具探索,但将其作为持续运行的Agent、自动构建长期记忆并嵌入编程工具体系,目前在主流厂商中尚属激进推进。

来源:公开信息

ABAB AI 解读

这不是一个简单的功能更新,而是人机交互范式的转移:从“用户提供上下文”转向“AI主动获取上下文”。过去LLM的核心瓶颈在于上下文窗口与信息输入成本,Chronicle试图用系统级数据采集绕开这一限制,本质是在用操作系统层的数据流替代prompt本身。

这背后是一个更大的竞争方向:谁掌握“用户真实行为流”,谁就掌握下一代AI入口。搜索时代的核心资产是查询词,移动互联网时代是点击与停留时间,而这一代AI竞争的是连续的屏幕语义流。Chronicle把“你正在做什么”直接变成模型输入,相当于把操作系统变成训练与推理接口的一部分。

隐私与安全问题不是附带成本,而是结构性矛盾。该模式天然扩大攻击面:prompt injection从“文本污染”升级为“环境污染”,任何网页、文档甚至终端输出都可能成为指令源。这意味着传统“模型对话安全”正在转向“系统级安全”,边界从API扩展到整个用户设备。

从产业路径看,这一方向解释了为何Microsoft、OpenAI、以及IDE厂商同时向“长期记忆+系统级感知”推进。差异不在模型能力,而在谁能更深嵌入操作系统与开发环境。一旦AI稳定掌握持续上下文,传统应用的界面层价值将被削弱,软件的主入口可能从“点击应用”变为“描述目标”。

OpenAI

来源

·
·
1 分钟阅读
·6 天前
分享: