快讯

AWS正式发布Amazon S3 Files,被官方称为S3问世20年来最大一次能力升级

AWS正式发布Amazon S3 Files,被官方称为S3问世20年来最大一次能力升级,让S3桶可以直接以“文件系统”的形式挂载给各类计算资源:S3 Files基于EFS能力,提供完整文件系统语义与低延迟访问,并将文件操作自动翻译为高效的S3请求,数据始终留在S3中。 开发者现在可以在EC2、Lambda、EKS等环境中,将S3桶挂载为共享文件系统,支持POSIX权限模型(UID/GID),配合缓存机制实现亚毫秒级访问与多TB/s级聚合吞吐,无需再用s3fs、手写同步脚本或在对象存储与文件存储之间反复搬运数据。

来源:公开信息

ABAB AI 解读

本质上,Amazon在做一件极具野心的事:把“对象存储”与“文件系统”这两层历史上泾渭分明的抽象合并成一个统一平面。此前S3是廉价、耐久、几乎无限扩展的冷/温数据池,但对应用来说不够“像磁盘”;现在S3 Files让AI Agent和传统应用可以用open/read/write这套老接口直接操作存储在S3里的数据,相当于让占据云世界最大份额的数据池一夜之间变成“可挂载的硬盘”。

对AI native架构来说,这一步非常关键:Agent、训练任务和数据管道,不再需要先把数据从S3拷贝到EFS/FSx之类的文件系统再动手,而是可以在统一命名空间上直接读写——状态持久化、记忆共享、特征生成、模型中间产物,都在同一个逻辑“盘”上完成。 这极大简化了MLOps与AgentOps:少了数据分层与搬运,流水线就更接近你在本地开发时的 mental model——只有一个磁盘,只是容量和带宽几乎无限。

更大的意义在于云厂商“操作系统化”的加速:当S3变成“系统盘”,EKS/EC2/Lambda变成“CPU+调度器”,再加上托管向量数据库、消息队列和权限系统,AWS正在为AI时代构建一种“分布式单机幻觉”——让一个人+一群Agent可以把云当作一台巨型电脑用。 这和你前面提到的“Cloudflare作为个人开发者的免费全家桶”是一体两面:上层AI把写代码这件事推进自动化,下层Infra则在悄悄把“磁盘”“网络”“权限”“部署”这些粗糙接口磨平,最终的结果就是——越来越多的产品,会在“一个人+一套Agent+一块看起来像本地磁盘的云”上诞生。

Amazon

来源

·
·
1 分钟阅读
·4 天前
分享: