El Fiscal General de Florida James Uthmeier anunció que su oficina investigará a OpenAI por supuestas conexiones entre ChatGPT y un tiroteo masivo en Florida State University, junto con preocupaciones más amplias sobre daños a menores y amenazas de seguridad nacional. La investigación marca una de las primeras investigaciones a nivel estatal que vinculan directamente sistemas de IA con crímenes violentos, con Uthmeier anunciando contundentemente la investigación en X sin proporcionar detalles específicos sobre cómo ChatGPT supuestamente contribuyó al incidente.
Esta investigación representa una escalada significativa en las batallas de responsabilidad de IA, moviéndose más allá de debates teóricos de seguridad hacia investigaciones criminales reales. Aunque hemos visto demandas sobre datos de entrenamiento de IA y derechos de autor, conectar directamente sistemas de IA con actos violentos abre territorio legal completamente nuevo. El timing es particularmente notable mientras otros estados observan el enfoque de Florida—si tiene éxito, esto podría convertirse en una plantilla para responsabilizar a empresas de IA por cómo se usan sus modelos, cambiando fundamentalmente cómo pensamos sobre seguridad de IA y responsabilidad corporativa.
Lo que falta en la cobertura actual es contexto crucial sobre el incidente específico de FSU y exactamente cómo ChatGPT supuestamente jugó un papel. La investigación también abarca alegaciones más amplias sobre daño a menores y seguridad nacional—áreas donde OpenAI ha enfrentado escrutinio antes pero nunca investigación estatal formal. La falta de detalle en el anuncio de Uthmeier sugiere que esta investigación está en etapas muy tempranas o es deliberadamente vaga para evitar comprometer una investigación en curso.
Para desarrolladores y empresas construyendo aplicaciones de IA, esta investigación debería ser una llamada de atención sobre exposición a responsabilidad. Si los estados empiezan a responsabilizar a proveedores de IA por el uso posterior de sus modelos, necesitaremos filtrado de contenido mucho más robusto, monitoreo de uso, y potencialmente incluso sistemas de verificación de usuario. Los días de defensas de "solo proporcionamos la herramienta" pueden estar terminando más rápido de lo que cualquiera esperaba.
