据NBC新闻获得的一封信件显示,苹果在1月份因猖獗的非自愿性深度伪造内容暗中威胁从其App Store下架xAI的Grok应用。这家科技巨头告诉参议员们,在收到关于用户轻易生成真实人物(包括疑似未成年人)性化图像的投诉后,它"联系了X和Grok背后的团队"。苹果认定X已"基本解决了其违规行为",但警告Grok开发者"需要进行额外更改来纠正违规行为,否则该应用可能被下架"。只有在经过长期的反复沟通后,苹果才批准Grok继续存在。
这一幕后戏剧暴露了应用商店内容审核的根本弱点。苹果——从在其围墙花园中拥有这些应用中获利——选择了私下施压而非公共问责,允许两个应用在整个执行过程中保持上线状态。这家经常以"铁拳"方式展示其App Store权威的公司,在面对马斯克的产业时突然变得温和。与此同时,实时推出的"修复"措施很大程度上是表演性的:将Grok限制为付费订阅者,并添加容易绕过的照片屏蔽功能。
最能说明问题的是苹果的沉默。尽管明确、公然违反了其自身的指导原则——这种违规通常会导致应用快速下架——苹果却温和处理此事。长期的私下谈判有助于解释为什么Grok的审核更改显得如此草率和无效。同样从托管这些应用中获利的Google Play在此事上也保持了同样的沉默。
对于构建AI工具的开发者来说,这开创了一个危险的先例:如果你足够大、关系足够硬,App Store的执行就变成可协商的而非绝对的。信息很明确——平台规则的适用取决于你是谁以及你产生多少收入。
