快讯

OpenAI首席执行官Sam Altman:LLM让个人具备研究所级能力,但把它变成公司还没那么容易

Sam Altman在社交平台分享了一次令他印象最深的会面:一位名为Paul的个人,使用ChatGPT和其他大模型自行设计出一套mRNA疫苗方案,为自家狗狗Rosie制定治疗流程。Paul表示,这些聊天机器人在规划、学习、排错、合规理解以及“将基因组数据转化为疫苗处方并设计治疗方案”方面,让他一人具备了相当于一个研究机构的能力,但全过程仍是“AI与人类合作”的结果,而非模型独立完成。

Altman称,这个故事立刻让他想到“这应该是一家公司”,但同时又强调,类似能力理论上应该容易产品化、标准化,但现实中要真正把这种“个人+LLM+实验室”的模式做成可靠业务,仍然非常困难。他在评价中用“Paul is an extraordinary guy”点出一个隐含前提:当前的大模型虽能极大降低知识与设计门槛,但要在医疗与生物技术场景里安全地放大这种能力,仍高度依赖操作者本身的素养、判断和现实世界合作网络。

来源:公开信息

ABAB AI 解读

Altman这条贴子的底层信息,并不只是“LLM帮人救了狗”,而是展示了一个正在成形的新结构:个人可以在AI辅助下,临时“拼装”出一支微型研究所——用模型做知识检索、方案设计和参数试探,用人类与线下机构执行实验、合规与风险控制。这种“个人+AI+外包实验室”的组合,把原本需要基金会、大学或药企才能完成的研发路径,大幅压缩到一个高能力个体就能发起的规模,这是对知识生产和创新门槛的系统性重写。

从全球金融与产业迁移角度看,这种模式如果大规模复制,将冲击传统“重资本+重组织”的生物医药创新结构。历史上,高门槛研发意味着资金必须高度集中到大型企业与少数实验室,资本用股权换取的是“组织能力+设备+人才”的组合;而在“LLM+云实验平台+合约实验室”的体系里,关键资源变成了算力、算法与少量高水平操作员。Altman感叹“这应该是家公司却不易落地”,反映出商业模式与监管框架尚未跟上:谁对疗效与安全负责、怎样在不压死创新的前提下设置合规边界、如何定价这种高度个性化的“AI辅助疗法”,目前都缺乏可复制的范式。

在权力结构与制度约束层面,Paul的故事也暴露了一条正在被打开的灰色通道:个体通过AI直接介入高度专业甚至高风险领域,把原本由机构、伦理委员会和监管部门把关的流程,部分迁移到“人与模型的闭环试错”中。Altman刻意强调“AI不是单独行动,而是和人类一起工作”,既是在强调人类监督的重要性,也是在预设一种未来治理思路——监管对象不再是单一实验室或公司,而是“个人—模型—服务提供商”的网络。制度如何识别、限制并引导这种网络,是生物安全、医疗监管和AI治理在下一个阶段绕不开的核心问题。

OpenAI

来源

·
·
1 分钟阅读
·13 天前
分享: