PAC respaldado por a16z tiene como objetivo al legislador de Nueva York por proyecto de ley de seguridad de IA

Puntos clave
- El super PAC Leading the Future está respaldado por Andreessen Horowitz, el presidente de OpenAI, Greg Brockman, el cofundador de Palantir, Joe Lonsdale, y la startup de IA Perplexity.
- El PAC se comprometió a más de $100 millones para apoyar a los formuladores de políticas que favorecen la regulación mínima de la IA.
- El miembro de la Asamblea de Nueva York, Alex Bores, es el primer objetivo del PAC debido a su patrocinio del proyecto de ley RAISE Act.
- El proyecto de ley RAISE Act requeriría que los grandes laboratorios de IA adopten planes de seguridad, divulguen incidentes críticos y enfrenten sanciones civiles de hasta $30 millones por violaciones.
- Bores consultó con OpenAI y Anthropic mientras redactaba el proyecto de ley, lo que llevó a la eliminación de las disposiciones de auditoría de terceros.
- Los críticos de Silicon Valley argumentan que las leyes de IA estatales podrían frenar la innovación estadounidense y dar ventaja a los competidores extranjeros.
- Bores dice que la legislación estatal sirve como un "laboratorio de políticas" rápido mientras la acción federal permanece estancada.
- El conflicto refleja las tensiones más amplias entre la industria tecnológica y los legisladores que buscan salvaguardias de IA más fuertes.
Un comité de acción política respaldado por Andreessen Horowitz y el presidente de OpenAI, Greg Brockman, ha señalado al miembro de la Asamblea de Nueva York, Alex Bores, como su primer objetivo. El PAC, llamado Leading the Future, se formó con un compromiso de más de $100 millones para apoyar a los formuladores de políticas que favorecen un enfoque de regulación de IA ligero.
Antecedentes
El miembro de la Asamblea de Nueva York, Alex Bores, ha surgido como un defensor destacado de la seguridad de la IA a nivel estatal. Él autorizó el proyecto de ley bipartidista RAISE Act, que requeriría que los grandes laboratorios de inteligencia artificial creen y sigan planes de seguridad, divulguen incidentes críticos y se abstengan de lanzar modelos que representen riesgos irrazonables de daño. La legislación también propone sanciones civiles de hasta $30 millones por incumplimiento y está a la espera de la firma del gobernador Kathy Hochul.
El Super PAC
Leading the Future, un super comité de acción política formado en agosto, está respaldado por la firma de capital de riesgo Andreessen Horowitz, el presidente de OpenAI, Greg Brockman, el cofundador de Palantir, Joe Lonsdale, y la startup de IA Perplexity. El PAC anunció un compromiso financiero que supera los $100 millones para apoyar a los formuladores de políticas que favorecen un "enfoque de regulación de IA ligero o sin regulación". Su primer objetivo declarado es Alex Bores, un movimiento que el grupo dice está destinado a contrarrestar la legislación que considera una amenaza para la competitividad y la innovación estadounidense.
Respuesta de Bores
Al dirigirse a los reporteros en un taller de periodismo en Washington, D.C., Bores dijo que apreciaba la franqueza del PAC y reiteró que transmitiría las preocupaciones del grupo a sus electores. Él enfatizó que sus electores están cada vez más ansiosos por los problemas relacionados con la IA, que van desde facturas de servicios públicos más altas causadas por los centros de datos hasta los impactos en la salud mental de los chatbots en los niños y el posible desplazamiento laboral por la automatización.
Contexto legislativo
El proyecto de ley RAISE Act se elaboró a través de consultas con grandes empresas de IA como OpenAI y Anthropic. Esas discusiones llevaron a la eliminación de disposiciones, incluidas las auditorías de seguridad de terceros, que la industria se opuso. A pesar de esas concesiones, el proyecto de ley ha generado una dura crítica de Silicon Valley, que argumenta que las regulaciones de IA a nivel estatal podrían obstaculizar el liderazgo estadounidense en el sector y crear un mosaico de normas que beneficien a los competidores extranjeros.
Implicaciones
El objetivo de Bores ilustra un choque más amplio entre los lobistas de la industria tecnológica y los legisladores estatales que buscan establecer normas de seguridad para la IA. Mientras que Bores argumenta que las políticas estatales actúan como "laboratorios de políticas" que pueden avanzar más rápido que una agenda federal estancada, los críticos sostienen que las normas estatales inconsistentes podrían debilitar la competitividad y la seguridad nacionales. La disputa también subraya los esfuerzos en curso de algunos legisladores, como el senador Ted Cruz, para bloquear las regulaciones de IA estatales a nivel federal.