La ley de seguridad de IA de California demuestra que la regulación y la innovación pueden estar alineadas

California’s new AI safety law shows regulation and innovation don’t have to clash

Puntos clave

  • La ley SB 53 de California requiere que los grandes laboratorios de IA divulguen y sigan protocolos de seguridad.
  • La aplicación de la ley será supervisada por la Oficina de Servicios de Emergencia.
  • Adam Billen, de Encode AI, ve la ley como una prueba de que la regulación puede coexistir con la innovación.
  • Algunas empresas de IA, como OpenAI, han insinuado que podrían ajustar los estándares de seguridad bajo presión competitiva.
  • Las contribuciones políticas de los principales jugadores de la tecnología han intensificado los debates sobre la regulación de la IA.
  • El senador Ted Cruz presentó la ley SANDBOX para permitir exenciones temporales de las reglas federales de IA.
  • Las propuestas de control de exportación federal, como la ley de Seguridad de Chips, buscan limitar los chips de IA avanzados a China.
  • Nvidia y OpenAI han expresado preocupaciones sobre el impacto de las restricciones de exportación de chips.
  • Billen describe la SB 53 como una historia de éxito democrática que equilibra la seguridad y el progreso.

La recién firmada ley de seguridad y transparencia de IA de California, SB 53, requiere que los grandes laboratorios de IA divulguen sus protocolos de seguridad y se adhieran a ellos, con el objetivo de prevenir el mal uso, como los ciberataques o la creación de armas biológicas. Adam Billen, de Encode AI, dice que la legislación muestra que los formuladores de políticas pueden proteger la innovación mientras garantizan la seguridad, destacando que muchas empresas ya realizan pruebas de modelo y publican tarjetas de modelo.

SB 53: Un marco de seguridad de IA pionero en la nación

El gobernador de California, Gavin Newsom, firmó la ley SB 53, que marca la primera ley de seguridad y transparencia de IA en el país, dirigida a grandes laboratorios de IA. La legislación exige que estos laboratorios sean transparentes sobre las medidas de seguridad y seguridad que emplean, apuntando específicamente a riesgos como el uso de la IA para ciberataques contra la infraestructura crítica o el desarrollo de armas biológicas. La aplicación de la ley será responsabilidad de la Oficina de Servicios de Emergencia, que garantizará que las empresas sigan los protocolos requeridos.

Perspectiva de la industria sobre los nuevos requisitos

Adam Billen, vicepresidente de políticas públicas de Encode AI, dice que la ley demuestra que los reguladores pueden proteger la innovación mientras exigen seguridad. Destaca que muchas empresas de IA ya realizan pruebas de seguridad, publican tarjetas de modelo y tienen políticas de seguridad internas. Sin embargo, Billen reconoce que algunas empresas pueden sentir la tentación de reducir los estándares de seguridad cuando enfrentan presión competitiva. Cita la declaración pública de OpenAI de que podría "ajustar" los requisitos de seguridad si un rival lanza un sistema de alto riesgo sin salvaguardias comparables.

Equilibrar la competencia y la seguridad pública

Billen argumenta que la política puede garantizar las promesas de seguridad existentes, evitando que las empresas corten esquinas por razones financieras o competitivas. Señala que la retórica de la industria a menudo presenta cualquier regulación como una barrera al progreso, especialmente en el contexto de la competencia entre Estados Unidos y China en el desarrollo de la IA. A pesar de esto, Billen cree que la SB 53 no obstaculiza la carrera contra China; en cambio, aborda preocupaciones específicas como los deepfakes, la discriminación algorítmica, la seguridad de los niños y el uso de la IA por parte del gobierno.

Dinámica política y financiamiento

La ley ha generado actividad política, con empresas como Meta, firmas de capital de riesgo como Andreessen Horowitz y el presidente de OpenAI, Greg Brockman, contribuyendo generosamente a comités de acción política pro-IA. Estos grupos han luchado anteriormente contra propuestas para prohibir la regulación estatal de la IA durante una década. El senador Ted Cruz, que defendió esa moratoria, presentó la ley SANDBOX, que busca exenciones que permitan a las empresas de IA eludir temporalmente ciertas reglas federales. Billen advierte que la legislación federal de alcance limitado podría socavar los esfuerzos a nivel estatal como la SB 53.

Controles de exportación y política de chips

Más allá de la regulación estatal, la conversación incluye medidas de control de exportación federales, como la ley de Seguridad de Chips, que busca evitar que los chips de IA avanzados lleguen a China. La ley CHIPS y Ciencia también busca impulsar la producción de chips domésticos. Algunas grandes empresas de tecnología, incluyendo OpenAI y Nvidia, han expresado reservas sobre estas medidas, citando preocupaciones sobre la efectividad, la competitividad y el impacto en los ingresos. Nvidia, en particular, depende en gran medida de las ventas en China para una parte sustancial de sus ingresos globales.

Colaboración democrática como modelo

Billen describe la SB 53 como un ejemplo de colaboración democrática, donde la industria y los formuladores de políticas trabajan juntos para crear legislación que equilibre la seguridad y la innovación. Reconoce que el proceso puede ser "feo y desordenado", pero afirma que esta negociación es esencial para mantener el sistema económico y el liderazgo tecnológico del país. La aprobación de la ley señala que la regulación a nivel estatal puede coexistir con un ecosistema de IA próspero, ofreciendo un posible modelo para otras jurisdicciones.

#California#seguridad de IA#SB 53#Encode AI#Adam Billen#OpenAI#Meta#Andreessen Horowitz#Ted Cruz#ley SANDBOX#ley de Seguridad de Chips#Nvidia#regulación de IA

También disponible en:

La ley de seguridad de IA de California demuestra que la regulación y la innovación pueden estar alineadas | AI News