En los últimos años, los formuladores de políticas de todo el mundo han estado compitiendo para entender y responder al notable progreso de la inteligencia artificial, y específicamente al advenimiento de modelos generativos sofisticados que capacidades que se han expandido rápidamente. Se ha enfocado una considerable atención a iniciativas nacionales e internacionales, incluyendo institutos de seguridad, conferencias multilaterales y medidas políticas modelo, como por ejemplo, la Orden ejecutiva de IA del presidente de los EEUU, Joe Biden y la Ley de IA de la UE.
De manera paralela, ha surgido una política subnacional como una fuerza dinámica y derivada por sus propias características. En los Estados Unidos, los estados en particular han impulsado su trabajo en políticas tecnológicas en la última década, tensionando sus amplios poderes regulatorios y, en algunas áreas, llenando un vacío percibido de inacción en el congreso. Por ejemplo, desde 2018, más de una docena de estados han aprobado leyes integrales de privacidad, muchas de las cuales imponen obligaciones superiores de consentimiento y gobernabilidad en cuanto al uso de sistemas autónomos para toma de decisiones. Los estados también han actuado para limitar los resultados falsos o dañinos de los sistemas de IA, incluyendo a través de nuevos requisitos en Utah en donde los sistemas de IA generativos deben revelar a los consumidores que son sintéticos y la legislación en Colorado exige que los desarrollistas e implementadores de sistemas de IA de alto riesgo prevengan una discriminación algorítmica.
Siendo los esfuerzos de los estados tan amplios, ninguna ley ha generado tanto debate y controversia como la ley SB 1047, la Ley de Innovación segura y protegida para modelos de inteligencia artificial de vanguardia, la cual fue recientemente aprobada por ambas cámaras de legislación de California. Con partidarios y detractores prominentes en toda la industria, gobierno y sociedad civil, la ley SB 1047 difiere de otros esfuerzos estatales en reducir los efectos problemáticos resultantes de la IA, como, por ejemplo, la desinformación o la discriminación. En su lugar, la ley de California observa principalmente el proceso de desarrollo, exigiendo medidas de capacitación previa e implementación previa para mitigar los “daños críticos”, como, por ejemplo, una proliferación química, biológica, radiológica o nuclear (CBRN), eventos con saldos masivos de víctimas o ciberataques a infraestructura crítica. En el proceso, ha promovido un debate campal que sopesa la innovación, seguridad y el papel correspondiente del gobierno, en particular al nivel subnacional, en cuanto a regulación de la IA.
Introducida por el Senador Scott Wiener de San Francisco, ciudad que es el epicentro de la revolución de la IA, la ley SB 1047 regula los modelos de vanguardia más grandes y avanzados y sus derivados, aquellos que superan los costos de $ 100 millones (o $ 10 millones para ajustes finales) y que cumplan con los límites de potencia informática adaptados de la orden ejecutiva federal. Exigiría que los desarrolladores de estos modelos:
- Tomen medidas de protección razonables para impedir un acceso, mal uso o “modificaciones post-capacitación inseguras” que no estén autorizados.
- Ejerzan un “cuidado razonable” para evitar el riesgo de causar o permitir un daño crítico e implementar un protocolo de protección y seguridad escrito que se publique en línea en forma redactada, se comparta con el procurador general y se revise anualmente.
- Desarrollar y mantener la capacidad de, en caso de un daño crítico, implementar una desactivación completa de los modelos controlados por el desarrollista
- Evaluar, antes de utilizar o lanzar al mercado un modelo cubierto, si el modelo pudiese causar o permitir un daño crítico, implementar las salvaguardas apropiadas y tomar las medidas razonables para asegurar la atribución correcta de las acciones tomadas por los modelos cubiertos y sus derivados, incluyendo daños críticos que puedan causar.
- Contratar a un auditor tercero para evaluar el cumplimiento del desarrollista anualmente y presentar una declaración de cumplimiento al procurador general.
La ley incluye estipulaciones adicionales, incluyendo un requisito de notificación para incidentes de seguridad, requisitos de “conocer a su cliente” para operadores de clústeres informáticos cuyos recursos se puedan utilizar para capacitar un modelo cubierto, protecciones de denuncias de actos ilícitos para los empleados y contratistas de los desarrollistas y medidas para promover el desarrollo de un clúster informático público para fomentar una investigación orientada al público y mejorar el acceso a recursos informáticos.
Aunque los anteproyectos de la Ley SB 1047 hubiesen establecido una nueva división dentro de la Agencia de Operaciones Gubernamentales de California para emitir una guía de implementación, recibir certificaciones de desarrollistas y promover la supervisión de modelos, las enmiendas recientes concentran la supervisión y autoridad de cumplimiento para el procurador general, autorizando compensaciones por daños monetarios, medidas cautelares y, en circunstancias limitadas penalidades civiles, incluyendo compensación por daños reales a una persona o propiedad. A su vez, el procurador general debe considerar la calidad del protocolo de protección y seguridad y los esfuerzos de mitigación de riesgos del desarrollista. En lugar de una sub-representación, la ley con enmienda establece una junta con nueve miembros y asigna a la Agencia de Operaciones del Gobierno algunas responsabilidades, incluyendo actualizar los límites informáticos para modelos cubiertos teniendo en cuenta los avances tecnológicos, entendimiento científico y estándares cambiantes.
La oposición ha sido fuerte, de muchos sectores. Los desarrollistas estarían sujetos a la ley, incluyendo Google, Meta y OpenAI y una gama de asociaciones de la industria tecnológica se han movilizado en su contra, prediciendo que al regular el proceso de desarrollo del modelo, en lugar de los daños causados por su uso, la SB 1047 obstaculizaría la innovación y socavaría la competitividad californiana y norteamericana. OpenAI ha argumentado adicionalmente que el enfoque de la ley en riesgos de seguridad nacional, por ejemplo, la proliferación de CBRN, la hace más apropiada para una acción federal en lugar de estatal.
Muchos críticos han argumentado que la SB 1047 dañaría el ecosistema con el desarrollo y uso de un modelo abierto. Aunque el debate sobre una gobernabilidad de modelo abierto versus cerrado no es simple o binaria, Wiener ha expresado un apoyo por la democratización y efectos de pro-innovación de los modelos abiertos. Argumenta que la ley incentiva la mitigación de riesgos de manera ascendente sin ser una carga indebida para el ecosistema abierto y que refleja inquietudes por la comunidad de código abierto, por ejemplo, en su límite de $ 10 millones de ajustes finales así como también en las enmiendas que limitan los requisitos clave a los modelos “controlados por el desarrollista”.
El desacuerdo viene también de la sociedad civil y del sector público. Por ejemplo, Fei-Fei Li, Co-Director del Instituto de Inteligencia Artificial Centrado en el Hombre en Stanford University, ha argumentado que la ley SB 1047 “reprimiría la innovación” y “encadenaría el desarrollo de código abierto”, resultando en que los desarrollistas inferiores tengan poca probabilidad de desarrollar modelos superiores que pudieran resultar inoperativos de conformidad con el requisito de capacidad de “desactivación completa” de la ley. Li, quien según se informa se encuentra desarrollando un emprendimiento de IA, ha advertido adicionalmente que el requisito de desactivación afectaría de manera desproporcionada el sector público y académico en un momento en el cual ambos son necesarios en un campo dominado actualmente por el desarrollo privado. A pesar del apoyo de la ley en la mayoría de la legislación democrática mayoritaria de California, la SB 1047 ha atraído las críticas de miembros prominentes de la delegación del congreso, del estado, incluyendo a la hablante Emerita Nancy Pelosi y el miembro de rango Zoe Lofgren del Comité de la Cámara Legislativa sobre Ciencias, Espacio y Tecnología, quien afirma que la ley impone “requisitos prematuros sobre la base de una ciencia no desarrollada” de seguridad a la IA.
Una coalición similar de defensores de varios sectores se ha manifestado en favor de la SB 1047. El emprendimiento de IA Anthropic, el cual estaría regulado de conformidad con la ley, ha adoptado la premisa central de la legislación de que los modelos de vanguardia implicarían riesgos reales inminentes de daño catastrófico requiriendo así una regulación preventiva de corto plazo. Luego de sugerir enmiendas, algunas incorporadas de manera subsiguiente en la ley, Arthropic anunció recientemente un soporte medido de la SB 1047, argumentando que su “trabajo con expertos en biodefensa, ciber expertos y otros demuestra una tendencia hacia la posibilidad de mal usos graves en los próximos años, quizás en corto tiempo como 1 a 3 años,” y expresando dudas de que los riesgos catastróficos serán tratados de manera adecuada por el libre mercado o el congreso.
Investigadores prominentes de la IA como, por ejemplo, Yoshua Bengio y Geoffrey Hinton, ganadores del premio Turing por su trabajo sobre aprendizaje a profundidad, están en desacuerdo con el análisis de Li. Bengio ha elogiado la SB 1047 como “algo indispensable para una regulación efectiva,” argumentando que el enfoque de la ley en protocolos de seguridad y protección, en lugar de en medidas de cumplimiento, refleja un toque ligero sin imponer decisiones rígidas en cuanto al diseño o comprobar protocolos con los desarrollistas. Bengio contiende además que, para todos su beneficios, los modelos abiertos presentan riesgos auténticos de daño irreversible que no pueden remediarse por medio de un “ejercicio de verificación superficial y trivial, como colocar “actividad ilegal” fuera de los términos de servicio.”
Otros observadores han argumentado que la ley definitiva no va lo suficientemente lejos, o que omite su marca en otras áreas. Por ejemplo, algunos defensores han afirmado que las enmiendas adoptadas durante el proceso legislativo, como por ejemplo, una reducción de un cumplimiento previo a un daño, eliminación de sanciones penales por perjurio y substitución de un “cuidado razonable” en lugar del estándar de la redacción original “aseguramiento razonable” resultan en un compromiso blando. Un sinnúmero de críticos ha solicitado urgentemente a la legislación enfocarse en riesgos concretos en lugar de riesgos catastróficos. Lofgren argumenta que la SB 1047 se enfoca “erróneamente en riesgos hipotéticos en lugar de riesgos demostrables” como, por ejemplo “información errónea, discriminación, edición con IA no consensuada, impactos medioambientales y desplazamiento de fuerza laboral.” En contraste, Wiener, contiende que aunque la SB 1047 se enfoca en daños catastróficos, se han introducido otras propuestas legislativas para tratar muchos de los problemas que Lonfgren nombra.
A pesar de la controversia, la SB 1047 ha sido aprobada por ambas cámaras de representantes de la legislación de California y se dirige ahora al escritorio del Gobernador de California Gavin Newsom, quien decidirá si convertirla o no en ley. Aunque hasta ahora el gobernador se ha rehusado a asumir una posición, pronto necesitará sopesar los argumentos en competencia, en particular las premisas fundamentales en las cuales difieren los oponentes y los defensores de la ley: primero, si los modelos de vanguardia pueden de hecho imponer un riesgo catastrófico; si es así, si es probable una acción preventiva suficiente de parte del gobierno federal; y, tercero, si un enfoque distinto como, por ejemplo, regular un mal uso implica una mejor alternativa. En el trasfondo queda una cuarta cuestión, implícita en los debates de seguridad de IA: si es que la sociedad en su lugar debería optar o va a optar, como un tema práctico, auto asegurarse contra un riesgo catastrófico buscando los múltiples beneficios que la IA parece aportar dentro del alcance.
Los formuladores de políticas alrededor del mundo trabajan duramente en estas cuestiones. Wiener, ha dicho de su parte que éste daría la bienvenida a una legislación estricta para prever la Ley SB 1047. De momento, California parece preparada para dar su propia respuesta preliminar.