AI伦理涵盖几个相互关联的领域。公平性:AI系统是否公平地对待不同群体?(一个系统性地歧视女性的招聘工具是不公平的,无论其准确率如何。)透明度:受影响的人能否理解决策的原因?问责制:当AI系统造成伤害时谁负责——开发者、部署者还是用户?隐私:收集了什么数据以及如何使用?
大多数AI公司发布伦理原则,但原则与实践之间的差距才是艰难工作发生的地方。具体的实践包括:对训练数据和模型输出进行偏见审计、部署前进行影响评估、对有害能力进行红队测试、建立能发现盲点的多元化开发团队,以及为受影响的社区提供反馈和寻求救济的机制。
AI行业发展迅速,伦理审查需要时间。这造成了真正的矛盾:跳过伦理审查的公司出货更快;投资伦理审查的公司出货更慢但更负责任。正在形成的共识是,伦理审查应该整合到开发过程中(像安全审查一样),而不是作为单独的关卡,这样随着时间推移它会加速而不是一直成为瓶颈。