La Loi sur la protection des données personnelles numériques de l'Inde a fondamentalement modifié le paysage du droit à l'information du pays en amendant la Section 8(1)(j) de la Loi RTI. Le changement retire les garanties spécifiques qui gouvernaient auparavant quand et comment les agences gouvernementales pouvaient retenir l'information de la divulgation publique. Ce qui était autrefois un cadre soigneusement équilibré exigeant une justification pour le secret est devenu une exemption large que les agences peuvent invoquer simplement en revendiquant la protection des données personnelles.
Ce n'est pas juste une question de transparence — c'est une question de gouvernance de l'IA dans la démocratie la plus peuplée du monde. L'Inde déploie rapidement des systèmes d'IA à travers les services gouvernementaux, de la vérification d'identité numérique à la prise de décision automatisée dans la distribution des prestations sociales. Quand les citoyens ne peuvent pas accéder à l'information sur comment ces systèmes fonctionnent, quelles données ils collectent, ou comment les décisions sont prises, la responsabilité algorithmique devient impossible. Le compromis vie privée-transparence ici reflète les débats qui se déroulent mondialement, mais l'approche de l'Inde semble fortement favoriser l'opacité plutôt que la surveillance.
Le timing révèle les vrais enjeux. L'Inde se positionne à la fois comme une puissance de l'IA et un leader en protection des données, mais ce tour de passe-passe législatif suggère que le gouvernement veut avoir le beurre et l'argent du beurre — revendiquer le leadership en matière de vie privée tout en évitant l'examen minutieux de ses propres déploiements d'IA. Le langage large de la Loi DPDP pourrait facilement être utilisé pour protéger les systèmes d'IA gouvernementaux de l'examen public, créant un vide de transparence juste au moment où la gouvernance algorithmique s'étend.
Pour les développeurs qui construisent des systèmes d'IA en Inde, cela crée un nouveau paysage de conformité où les standards de transparence gouvernementaux ne correspondent pas aux exigences du secteur privé. Vous devrez être plus transparent sur vos systèmes d'IA que le gouvernement ne l'est sur les siens — une asymétrie réglementaire qui pourrait remodeler comment la responsabilité de l'IA fonctionne en pratique.
