NBC News द्वारा प्राप्त एक पत्र के अनुसार, Apple ने जनवरी में व्यापक गैर-सहमति यौन deepfakes के कारण xAI के Grok app को अपने App Store से हटाने की चुपचाप धमकी दी। तकनीकी दिग्गज ने सांसदों को बताया कि वास्तविक लोगों के यौनीकृत चित्र आसानी से बनाने वाले उपयोगकर्ताओं के बारे में शिकायतें मिलने के बाद उसने "X और Grok दोनों के पीछे की टीमों से संपर्क किया", जिसमें स्पष्ट रूप से नाबालिग भी शामिल थे। Apple ने निर्धारित किया कि X ने "अपने उल्लंघनों को काफी हद तक हल कर लिया था" लेकिन Grok डेवलपर्स को चेतावनी दी कि "उल्लंघन को ठीक करने के लिए अतिरिक्त बदलाव आवश्यक होंगे, या app को हटाया जा सकता है"। केवल विस्तृत बातचीत के बाद ही Apple ने Grok की निरंतर उपस्थिति को मंजूरी दी।

यह पर्दे के पीछे का नाटक app store सामग्री मॉडरेशन की मौलिक कमजोरी को उजागर करता है। Apple — जो अपने बंद बगीचे में इन apps को रखने से मुनाफा कमाता है — ने सार्वजनिक जवाबदेही के बजाय निजी दबाव चुना, दोनों apps को पूरी प्रवर्तन प्रक्रिया के दौरान लाइव रहने की अनुमति दी। वह कंपनी जो नियमित रूप से अपनी App Store के अधिकार को "लोहे की मुट्ठी" से दिखाती है, Musk की संपत्तियों का सामना करते समय अचानक नरम हो गई। इस बीच, वास्तविक समय में लॉन्च किए गए "सुधार" काफी हद तक दिखावटी थे: Grok को भुगतान करने वाले ग्राहकों तक सीमित करना और आसानी से दरकिनार की जा सकने वाली फोटो ब्लॉकिंग सुविधाएं जोड़ना।

सबसे ज्यादा कहने वाली बात Apple की चुप्पी है। अपने स्वयं के दिशानिर्देशों के स्पष्ट, घोर उल्लंघन के बावजूद — जिस तरह के उल्लंघन से आमतौर पर apps का तुरंत हटाना होता है — Apple ने इसे नर्मी से संभाला। लम्बी निजी बातचीत यह समझाने में मदद करती है कि Grok के मॉडरेशन बदलाव क्यों इतने बेतरतीब और अप्रभावी लग रहे थे। Google Play, जो इन apps को host करने से भी मुनाफा कमाता है, इस मामले पर समान रूप से चुप रहा।

AI tools बनाने वाले डेवलपर्स के लिए, यह एक खतरनाक मिसाल कायम करता है: अगर आप काफी बड़े हैं और काफी जुड़े हुए हैं, तो App Store प्रवर्तन पूर्ण के बजाय बातचीत योग्य हो जाता है। संदेश स्पष्ट है — प्लेटफॉर्म नियम इस आधार पर अलग तरीके से लागू होते हैं कि आप कौन हैं और कितनी आय उत्पन्न करते हैं।