Gergely Orosz:主流大模型越迭代越模板化,可能是在为节省成本牺牲文风
工程博主Gergely Orosz在社交平台吐槽,自己重度使用Claude、ChatGPT和Gemini做深度研究与总结,却明显感觉“所有模型都变得更泛、更AI模板化、更懒”,经常重复同一套腔调和短语。他直言,虽然模型按厂商说法在“升级”,但主观体验是写作层面“不升反降”。
Orosz猜测,这种变化部分源自厂商在控成本:为降低推理Token消耗,大模型被调成更短、更模式化的输出。他以Claude为例称,即便自己付费使用最高档的Opus/Max版本,回答也变得“超级模板化”,感觉不是能力不够,而是被产品层或对齐策略刻意“收紧了文风”。
来源:公开信息
ABAB AI 解读
Orosz的直觉背后,是几股技术与商业力量叠加的结果。其一是安全与合规对齐:主流LLM在RLHF和安全训练中,会被不断拉向“平均喜好”和“最安全话术”,对同类问题给出更接近训练集里“标准答案”的表达,这自然会抹平个性与边缘措辞,形成用户口中的“AI套话文风”。
其二是成本与产品策略:当厂商把模型全面推向搜索、办公和客服等高频场景时,推理成本突然成为重要KPI,产品层会鼓励“更短、更结构化、更可预测”的输出,以便前后端做裁剪、摘要和重排。结果是,哪怕底层模型更强,上层体验反而更像“带格式的搜索摘要”,而不是一位有鲜明文风的写作者。
第三是用户与模型交互方式的变化:随着更多人用LLM写邮件、写SOP、写文档,“礼貌、安全、高情商”的模板回答被偏好数据不断放大,训练过程会把这类模式当成“更优”行为,进一步推高模板权重。最终形成一个反馈回路——用户越依赖AI写模板,模型越学会套模板,文风就越向中性与可复制收缩。
从更长周期看,这种“泛化文风”会产生一个结构性结果:真正有差异化输出的模型与agent,不会靠默认答案取胜,而会靠“可定制人格+长程记忆+领域语料”形成私人风格;而通用公开前端,则越来越像“安全、便宜、统一口径的语言基础设施”。Orosz的抱怨,其实是在提醒:模型能力曲线在上升,产品体验曲线却可能因为合规、成本和规模化,向“平庸均值”滑落。
Gergely Orosz看到的,不是模型“变笨”,而是:安全对齐把文风拉向平均值,成本控制和产品设计把输出压缩成短模板,加上用户自己大量用AI写套路文案,最终共同把主流前端体验推向“更安全、更便宜、也更平庸”的中点。