一位数据科学家刚刚演示了我们一直在等待的:处理完整工作流的AI,而不仅仅是代码片段。使用Codex和Model Context Protocol (MCP),他在30分钟内处理了1.85GB的Apple Health XML数据——从Google Drive下载到BigQuery分析。AI定位了文件,引用了六年前的GitHub代码,编写了Python解析器,上传了数据集,运行了SQL查询,并生成了结构化报告。本来需要"至少一整天"的手动工作变成了与AI代理的引导式对话。
这很重要,因为它代表了从AI作为编程助手向AI作为工作流参与者的转变。虽然Cursor和Claude等工具帮助编写单个函数,但这种方法通过MCP连接Google Drive、GitHub、BigQuery和分析工具——本质上创建了理解你整个数据基础设施的AI代理。开发者明确选择Codex而不是他惯用的Claude来测试工具,这表明这些工作流正在各提供商之间标准化。
目前还没有其他报道,这很说明问题。数据科学社区往往对AI炒作持怀疑态度,但这感觉不同——这是一个有具体时间线、文件大小和工具集成的实际例子。作者承认这是一个使用个人健康数据的"简单示例",而不是具有治理要求、数据质量问题或监管约束的企业级复杂性。
对于构建AI工作流的开发者来说,这验证了MCP连接不同系统的方法。真正的测试不是AI是否能分析干净的数据集——而是它能否处理通常会扼杀个人项目的混乱的现实世界数据工程。基于这个例子,我们正在接近目标。
