Artificial intelligence abstract
Source: Getty
article

Desarrollo de un manejo de riesgos de IA con la misma ambición y urgencia que los productos de la IA

La IA es una industria que se desarrolla rápidamente en donde el pragmatismo y el dinamismo son clave.  La mejor esperanza puede ser un método que priorice un lanzamiento e iteración iniciales para reducir el riesgo a un ritmo satisfactorio.

Published on 16 de diciembre de 2024

Las capacidades de la Inteligencia Artificial (IA) están avanzando rápidamente, y existen graves preocupaciones de que la IA alcance un punto en el cual implique un riesgo a la seguridad internacional.1 Al mismo tiempo, el manejo de riesgos de la IA “aún se encuentra en pañales”.”2 Esto genera un dilema para los formuladores de políticas. Los riesgos clave de la IA se entienden vagamente y especulativamente, y se podría concebir erróneamente una regulación prematura o incluso una presión prematura para seguir estándares de seguridad voluntarios y obstruirse los avances.  Pero moverse muy lentamente pudiera implicar tolerar niveles de riesgo altos.

Una solución parcial a este dilema es invertir fuertemente en investigación sobre los riesgos de la IA y cómo mitigarlos, con el objetivo de lograr una comprensión madura de estos temas tan pronto como sea posible.  Sin embargo, dados los desafíos de esta investigación, llegar a una madurez podría fácilmente llevar décadas.

Con la esperanza de moverse más rápido en un manejo de riesgos, la investigación podría completarse con otro enfoque de desarrollar prácticas de manejo de riesgos: lanzamiento e iteración iniciales. Este enfoque puede apreciarse en los compromisos si entonces de las compañías3 los cuales a menudo son relativamente imprecisos, carecen de una justificación extensiva y están marcados explícitamente como iniciales, exploratorios o preliminares.4 Compromisos como este son de tipo producto viable mínimo. En lugar de compromisos pulidos fundamentados en una investigación extensiva e incuestionable, son intentos iniciales en el manejo de riesgos que una compañía puede intentar, notar con ello si hay problemas, iterar y mejorar continuamente a medida que ingrese más información e investigación.

Este método de lanzamiento e iteración inicial es distinto a cómo tiende a verse el manejo de riesgos en otras industrias más maduras.  En su lugar, es más similar a cómo las compañías de IA desarrollan e implementan sus productos. Para una industria que se mueve rápidamente en donde el pragmatismo y dinamismo son clave, este método puede ser la mejor esperanza de desarrollar prácticas para reducción de riesgos funcionales lo suficientemente rápidas para reducir el volumen del riesgo.

Para que este método funcione, será importante que sus practicantes no lo confundan con un manejo de riesgos tradicional en industrias maduras, ni tampoco con una investigación intensiva aislada de la práctica.  Las prácticas de manejo de riesgos que vienen de un método de lanzamiento e iteración iniciales estarán con frecuencia poco explicadas y poco justificadas y serán revisadas posteriormente para adaptar nuevos desarrollos o un entendimiento mejorado.  Los académicos y otros críticos estarán tentados a enfocar sus críticas sobre la falta de rigor, pero podría ser más productivo enfocar críticas en otros temas, como, por ejemplo, la frecuencia con la cual las compañías revisan sus marcos de trabajo y si estas detallan y eventualmente resuelven preguntas abiertas clave.

Los formuladores de políticas, en lugar de escoger entre imponer regulaciones detalladas y esperar a que el manejo de riesgos madure, pueden apuntar a adaptar y recomendar el desarrollo rápido de prácticas de manejo de riesgos y la continua revisión de las mismas.

El desafío de una evaluación de riesgos rigurosa de la IA

En algunas industrias, es común que los operarios realicen evaluaciones de riesgo regulares y extensivas.  Un ejemplo es la energía nuclear; la Comisión Reguladora Nuclear de los EEUU utiliza una evaluación de riesgos probabilística para asignar números a posibles riesgos.5 La evaluación de riesgos para plantas nucleares se enfoca en un conjunto específico y limitado de riesgos: aquellos que podrían causar daños al núcleo del reactor nuclear, resultando en la liberación de radioactividad.6

El manejo de riesgos en otras industrias tiende a tener una calidad similar.  Por ejemplo, la aprobación de la Administración de Alimentos y Drogas de los EEUU requiere por lo general, estudios empíricos de los efectos de una droga en indicadores de salud predefinidos, incluyendo eficacia positiva y efectos secundarios negativos.7

En contraste, el riesgo de la IA, tal como se entiende hoy en día, presenta un área superficial de posibles riesgos más amplia así como más imprecisa. La IA es una tecnología que pudiera automatizar potencialmente cualquier cosa que pueda hacer la mente humana, y está avanzando rápidamente.  La IA ha sido el tema de un vasto conjunto de inquietudes, incluyendo, pero lejos de limitarse a la manipulación de la opinión pública, la automatización de ciber operaciones, invasiones de privacidad, proliferación de la capacidad de producir e implementar armas biológicas y químicas, impactos del mercado laboral debido a la competencia económica de la IA con gran parte de la población, amplificación de parcialidades y “pérdida de control” lo cual se refiere a la posibilidad de que representantes de la IA pudiesen trabajar de manera autónoma para quitar autonomía a los humanos.8 Las discusiones de estos riesgos tienden a hacer énfasis en que algunos de ellos son especulativos, mal entendidos y/o el tema de un vigoroso desacuerdo entre expertos.9

Muchos de estos intentos del manejo de riesgos enfrentan muchas cuestiones difíciles.  Consideremos un riesgo como ejemplo: que la IA pudiese asistir en la producción de armas químicas y biológicas.10 Para evaluar y manejar el riesgo, a uno le gustaría respuesta bien fundamentadas a preguntas incluyendo: ¿qué aspectos de la producción (y/o adquisición) de armas pueden mejorar los sistemas de IA? ¿Para qué tipos de armas, y para qué tipos de actores? ¿Qué tanto pudieran ayudar los sistemas de IA a cada tipo de actor de interés con cada tipo de arma de interés? ¿Cómo puede saber uno qué sistemas de IA son capaces de esta mejora? ¿Qué medidas tecnológicas se pueden utilizar para asegurar que los actores de interés no puedan ni instigar la ayuda con la producción de armas de parte de la IA ni robar los pesos del modelo de IA ni manipularlos para sus propios objetivos?

Es especialmente difícil obtener respuestas razonables a estas preguntas dado que la inquietud es acerca de Sistemas de IA futuros hipotéticos en lugar de los actuales. No hay ejemplos empíricos de estos sistemas de IA para estudiarse, no hay estudios de casos para estos incidentes asistidos por IA, no hay estadísticas que puedan utilizarse para estima de manera directa su frecuencia, y no hay programas de seguridad de IA de alta garantía relevantes que puedan estudiarse para emitir estándares.

El hecho de que no tengamos estas cosas no significa que las inquietudes respecto a los riesgos carezcan de fundamento.  Los sistemas de IA se han estado aproximando al nivel de desempeño de expertos humanos en muchos frentes a la vez,11 y si tuviesen que alcanzar una paridad con los mejores expertos en química y biología, pudieran expandir rápida y dramáticamente el conjunto de personas que puedan producir armas de destrucción masiva.12 Ha habido preocupaciones considerables respecto a estos riesgos por parte de los formuladores de políticas.13

Pero puede que resulte inabordable obtener respuestas empíricamente fundamentadas y minuciosamente cuantificadas a las preguntas anteriores hasta después de que los sistemas de IA que claramente impliquen los riesgos en cuestión existan, en cuyo momento los riesgos podrían ser considerables.

De manera más general, entender y lograr cierto nivel de consenso del alcance completo de los riesgos, y desarrollar prácticas de manejo de riesgos sólidas y ampliamente utilizadas en torno a este entendimiento, pudiera tomar décadas.  Esto estaría alineado con la historia del manejo de riesgos en otras industrias.14

Algunos han recomendado que el desarrollo de la IA debe retardarse hasta (y a menos que) el manejo de riesgos madure lo suficiente para ofrecer una alta seguridad contra riesgos.15 Otros han apuntado al inmaduro estado del manejo de riesgos como la razón para retardar las regulaciones mientras que el desarrollo de la IA avance sin restricciones .16 Cualquiera método podría sonar razonable al primer vistazo, pero se ve menos atractivo (y menos realista) al tener presente qué tan largo podría ser el camino para lograr una madurez de las prácticas de manejo de riesgos.

Evaluación de riesgos con ambición, urgencia e incluso impaciencia

Las compañías que desarrollan sistemas de IA de vanguardia no están retardando la producción o lanzamiento de productos mientras trabajan para estructurar análisis rigurosos e integrales respecto a las capacidades, funcionamiento interno y potencial de ingresos de sus sistemas. Más bien están desarrollando y lanzando productos de IA con ambición y urgencia.

Por ejemplo, la cultura de compañías tecnológicas en general tiende a priorizar una ética de lanzar rápidamente productos e iterar con ellos, en lugar de buscar perfeccionarlos—un método que significa que los productos a menudo están limitados en un punto dado del tiempo, pero que resulta en una retroalimentación y mejora rápidos.17

La idea de priorizar una iteración rápida sobre un análisis anticipado es crítica para algunos de los participantes clave de la IA. Además de informar métodos para los productos, también se ha presentado de manera prominente en las declaraciones de filosofía para navegar los riesgos de la IA de algunas de las compañías de IA líderes.18

¿Se puede aplicar esta ética al desarrollo del manejo de riesgos, así como también al desarrollo de la IA en sí?

En un grado significativo, esto es exactamente lo que ha estado ocurriendo con los compromisos si entonces lanzados por las principales compañías de IA en el último año aproximadamente, aunque la velocidad de iteración podría ser más rápida y el número de compañías que participen ser mayor.19

Por ejemplo, a inicios de 2024, Google DeepMind lanzó su “Marco de seguridad frontera,”20 el cual enumera las capacidades que pretende comprobar y las mitigaciones de riesgos mejoradas que pudieran requerirse dependiendo de los resultados de la prueba.  En su anuncio, destacó de manera explícita que el marco es preliminar y un punto de inicio para la iteración:

 “El marco es exploratorio y esperamos que este evolucione considerablemente a medida que aprendemos de su implementación, profundizando nuestro entendimiento de los riesgos y evaluaciones de la IA, y colaboramos con la industria, academia y gobierno. Aunque estos riesgos están más allá del alcance de los modelos de hoy en día, esperamos que implementando y mejorando el marco nos ayude a prepararnos para lidiar con ellos. Buscamos tener este marco inicial totalmente implementado para inicios de 2025.

El marco en sí contiene ambigüedades considerables y áreas que necesitarán un refinamiento adicional con el tiempo.  Los “niveles de capacidad crítica” que busca comprobar se describen en un nivel alto y están basados en lo que se denomina explícitamente “análisis preliminar”. Por ejemplo, comprueba los [Sistemas AI] capaces de automatizar completamente ciber ataques oportunistas a organizaciones con una postura de seguridad limitada.” Una sección de “trabajo futuro” del documento reconoce completamente su naturaleza preliminar y enumera algunas expectativas de versiones futuras del marco.

Otros compromisos si entonces tienen propiedades similares. Preparación de OpenAI El marco de trabajo está marcado como “Beta” y se describe como un “documento en cambio constante.”21 Al discutir sus capacidades de interés, establece lo siguiente:

 Tal como se mencionó, el estudio empírico de un riesgo catastrófico de modelos de IA de frontera está creciendo.  Por lo tanto, nuestros estimados actuales de niveles y límites para riesgos “medianos” hasta “críticos” son especulativos y seguirán siendo refinados según lo informe la investigación futura.

El anuncio inicial de la “política de escalamiento responsable” de Anthropic estableció, “Queremos hacer énfasis en que estos compromisos son nuestros supuestos actuales más probables, y una iteración inicial sobre la base de la cual desarrollaremos. El rápido ritmo y muchas incertidumbres de la IA como campo implica que, a diferencia del sistema BSL relativamente estable, ciertamente será casi necesario una reafirmación rápida y corrección de curso.”22 Desde entonces ha puesto en regla una versión revisada de esta política, notando muchos cambios que se hicieron para lograr una mayor flexibilidad luego de obtener experiencia con la implementación.23

Uno podría afirmar, y algunos lo han hecho, que estos compromisos si entonces son considerablemente imprecisos y carecen de muchas funciones útiles de manejo de riesgos en industrias más maduras.24 Pero al día de hoy la alternativa a compromisos preliminares y exploratorios no son compromisos rigurosos y fiables—es más probable que básicamente estén dejando en espera el manejo de riesgos hasta que exista una mayor claridad en cuanto a los riesgos.

Estas compañías están adoptando el mismo enfoque con el manejo de riesgos que el que adoptan con los mismos sistemas de IA: desarrollar algo, comprobarlo y mejorarlo con el tiempo.  Pero queda espacio para que ellos hagan más y con una mayor velocidad de iteración. Los compromisos si entonces iniciales hicieron alusión a la necesidad de un trabajo adicional y nombraron varias áreas a mejorarse, incluyendo aspiraciones para agregar un seguimiento por parte de terceros independientes.25 Pero hasta ahora ha habido pocas actualizaciones o revisiones públicas a estas políticas.26 Y muchas otras compañías no han lanzado aún sus compromisos si entonces.27 El requerimiento de estos compromisos si entonces para cumplir con normas de rigor absolutas puede ser menos productivo que el requerimiento de un avance e iteración consistente y públicamente visible.

¿Puede la regulación adoptar un enfoque similar?

Una compañía puede poner en regla un compromiso si entonces voluntario, luego publicar cualquier número de revisiones y refinamientos luego de una retroalimentación e implementación. Es mucho más difícil para un gobierno adoptar un enfoque de sentar regulaciones inicialmente y revisarlas con el paso del tiempo. Cada cambio a una legislación presenta una nueva batalla política y un nuevo conjunto de compromisos y complejidades, quizás con un equilibrio de poder cambiado entre las alianzas desde la última vez en que se hubiese aprobado una ley. Asignar a una agencia la elaboración y revisión de regulaciones es en sí una acción difícil de reversar, dando a un conjunto específico de personas el criterio y poderes que pudiera requerir una batalla política eliminar.

Aun así, vale la pena considerar cómo los formuladores de políticas pueden equilibrar la urgencia e incertidumbre en lo que respecta a regulación de IA.  Algunas opciones incluyen: 

  • Proponer leyes que incentiven u obliguen a las compañías a desarrollar y publicar prácticas de manejo de riesgos con ciertas cualidades de nivel alto, como, por ejemplo, requisitos para auditorías de terceros, dejando al mismo tiempo los detalles para las compañías en sí.
  • Crear agencias y/o institutos del gobierno, incluyendo institutos de seguridad de IA, con el presupuesto y la capacidad de contratar a personas calificadas, pero cuyos poderes estén restringidos.  (Por ejemplo, este instituto podría publicar informes y recomendaciones que no están sujetas a una imposición dura.) Estas organizaciones podrían ser autorizadas o desautorizadas en lo posterior, dependiendo parcialmente de cuánta credibilidad adquieran al final.
  • Elaborar leyes que estipulen una diseño de nivel alto de qué demandas legales se puedan presentar en casos de daños reales o inminentes y una guía de alto nivel para saber cómo serán tratadas por los tribunales, dejando al mismo tiempo a los tribunales el criterio definitivo para considerar detalles de cada caso específico.

Ninguno de estos métodos es a prueba de tontos, pero si se aplican bien, estos métodos podrían ayudar a impulsar el desarrollo tanto de las prácticas para manejo de riesgos como la capacidad del estado para aplicarlos eventualmente, evitando al mismo tiempo atascarse con requisitos basados en ideas inmaduras respecto al manejo de riesgos.

Búsqueda de un avance sin precedentes

Puede que ChatGPT haya establecido el récord por tener la base de usuarios de más alto crecimiento de todos los tiempos.28 De hecho, una característica descriptiva de los avances de la IA hoy en día es lo rápida  que ha sido—una fuente tanto de emoción como de inquietud respecto a la tecnología.

Si la IA continúa avanzando con una velocidad sin precedentes, de manera ideal el manejo de riesgos de IA también lo hará.  Lograr que esto ocurra podría requerir un proceso desordenado e iterativo, con compromisos si entonces y/o regulaciones no pulidas que no se fundamenten inicialmente en una investigación minuciosa y rigurosa (y que requiera muchas revisiones). Implementar prácticas de manejo de riesgos imperfectas podría ser de hecho la manera más rápida de compilar información y llegar al punto en el cual sea posible una investigación minuciosa y rigurosa.

Las preocupaciones que afirman que la “ciencia en torno a la seguridad de la IA aún está en pañales” son válidas.29 Pero si estas preocupaciones conducen a abstenerse de cualquier práctica de manejo de riesgos hasta que la ciencia subyacente se establezca, podría significar que la ciencia seguirá en pañales durante mucho tiempo.  Impulsar la maduración del manejo de riesgos de la IA debe tratarse como una prioridad urgente, a la par con impulsar el desarrollo de la misma IA. 

El autor está casado con la presidenta de Anthropic, una compañía de IA, y tiene una exposición financiera tanto de Anthropic como de OpenAI a través de su cónyuge.

Reconocimientos

Este documento se ha beneficiado de un gran número de discusiones con el paso de los años, en particular con personal de METR, el Instituto de Seguridad de IA del Reino UnidoOpen PhilanthropyGoogle DeepMindOpenAI y Anthropic. Para este documento en particular, me gustaría agradecer a Chris Painter y a Luca Righetti por sus comentarios en el borrador.

Notas

  • 2Zoe Lofgren, “Carta a Scott Wiener,” Casa de Representantes de los EEUU, 7 de agosto, 2024, https://democrats-science.house.gov/imo/media/doc/8.7.24%20to%20Senator%20Wiener.pdf

     

     

  • 3Holden Karnofsky, “Compromisos de “si-entonces” para la reducción de riesgos de la IA,” Fondo Carnegie para la Paz Internacional, 13 de septiembre, 2024, https://carnegieendowment.org/research/2024/09/if-then-commitments-for-ai-risk-reduction?lang=en.

     

     

  • 4Por ejemplo, Google DeepMind presenta su “Marco de seguridad de frontera” con lo siguiente: “El marco es exploratorio y esperamos que este evolucione considerablemente a medida que aprendemos de su implementación, profundizando nuestro entendimiento de los riesgos y evaluaciones de la IA, y colaboramos con la industria, academia y gobierno. Aunque estos riesgos están más allá del alcance de los modelos de hoy en día, esperamos que implementando y mejorando el marco nos ayude a prepararnos para lidiar con ellos. Buscamos tener este marco inicial totalmente implementado para inicios de 2025. 

    El marco de preparación de OpenAI está marcado como “beta” y se describe a sí mismo como “documento sujeto a cambios” (página 1).

    La “publicación en blog de Anthropic que presenta su política de escalonamiento responsable” establece, “Sin embargo, queremos hacer énfasis en que estos compromisos son nuestros supuestos actuales más probables, y una reafirmación inicial sobre la base de la cual desarrollaremos. El rápido ritmo y muchas incertidumbres de la IA como campo implica que, a diferencia del sistema BSL relativamente estable, ciertamente será casi necesario una reafirmación rápida y corrección de curso.”

     

     

  • 5“PRA (Evaluación de riesgos probabilística),” Comisión Reguladora Nuclear de los EEUU,  de julio 7, 2020,  https://www.nrc.gov/about-nrc/regulatory/risk-informed/pra.html

     

     

  • 6Véase las definiciones de evaluación de riesgos “Nivel 1” y “Nivel 2” a través de la PRA (Evaluación de riesgos probabilística),” Comisión Reguladora Nuclear de los EEUU”.

     

     

     

  • 7Para información general del proceso, consulte “Desarrollo y proceso de aprobación de medicamentos,” Administración de Alimentos y Drogas de los EEUU, 8 de agosto, 2022, https://www.fda.gov/drugs/development-approval-process-drugs. Muchas pruebas clínicas se registran previamente en clinicaltrials.gov.

     

     

  • 8“Informe científico internacional sobre la seguridad de IA avanzada,” Cumbre de IA de Seúl, mayo de 2024, https://assets.publishing.service.gov.uk/media/66f5311f080bdf716392e922/international_scientific_report_on_the_safety_of_advanced_ai_interim_report.pdf.

     

     

  • 9Los siguientes ejemplos son del “Informe científico internacional sobre la seguridad de la IA avanzada” Cumbre de IA de Seúl:

    Página 42: “El impacto general de las campañas de desinformación en general, así como también el impacto de la difusión extensa de medios generados por IA para efectos generales aún no se entienden bien. Existen reservas a pesar de indicaciones de posibles riesgos graves de un discurso público, y la integridad del ecosistema de información indicadas por la IA para efectos generales.”

    Página 47: “Continúa sin aclararse el grado en el cual los sistemas actuales de IA de vanguardia para efectos generales mejoran las capacidades de actores maliciosos de utilizar las ciencias de la vida sobre los recursos existentes, como el internet.  Aunque cierto trabajo empírico ha evaluado esta mejora con respecto al acceso a información y las amenazas biológicas, se necesitan estudios adicionales que evalúen una gama más amplia de tareas y dominios científicos que ofrezcan mayor información sobre este tema.”

    Página 51: “Algunos expertos creen que escenarios de pérdida del control no son factibles, mientras que otros creen que sí es probable y algunos los consideran como riesgos de poca probabilidad que merecen una consideración debido a su alta gravedad. Este desacuerdo entre expertos es difícil de resolver, dado que aún no es una metodología acordada para evaluar la probabilidad de una pérdida de control o cuándo podrían desarrollarse las capacidades de la IA relevantes.”

     

     

     

  • 10Para ver una discusión previa de este riesgo, véase Karnofsky, “Compromisos de “si-entonces” para la reducción de riesgos de la IA.”

     

     

  • 11Véase, por ejemplo, “Puntajes de pruebas de sistemas de IA en varias capacidades relacionadas al desempeño humano,” Nuestro mundo en información, 2 de abril, 2024, https://ourworldindata.org/grapher/test-scores-ai-capabilities-relative-human-performance.

     

     

  • 12Para ver una discusión más detallada, véase Karnofsky, “Compromisos de “si-entonces” para la reducción de riesgos de la IA.”

     

     

  • 14Véase, por ejemplo, las historias de la Administración de Alimentos y Drogas de los EEUU y de la Comisión Regulatoria Nuclear de los Estados Unidos.

     

     

  • 15De “Formulación de políticas en pausa,” Future of Life Institute, 12 de abril, 2023, https://futureoflife.org/document/policymaking-in-the-pause: “Recomendamos una auditoría de terceros de estos sistemas en una gama de puntos de referencia para la evaluación de riesgos, incluyendo una posible militarización y conductas no éticas y certificación obligatoria por parte de auditores terceros certificados antes de que se puedan implementar estos sistemas de riesgo alto.  La certificación debería concederse únicamente si el desarrollador del sistema puede demostrar que se han tomado las medidas apropiadas para mitigar los riesgos, y que se declarará cualquier riesgo residual que se considere tolerable y está sujeto a los protocolos establecidos para minimizar daños.”

     

     

  • 16Lofgren, “Carta a Scott Wiener.”

     

     

  • 17Véase, por ejemplo, la primera sección de Paul Graham, “Las lecciones iniciales más difíciles de aprender,” PaulGraham.com, abril 2006, https://paulgraham.com/startuplessons.html. Ideas similares se presentan en Eric Ries, El método Lean Startup: Cómo los empresarios de hoy en día utilizan la innovación continua para crear negocios radicalmente exitosos (Crown Currency, septiembre 2011).

     

     

     

  • 18De OpenAI: “Actualmente creemos que la mejor manera para lidiar satisfactoriamente con los desafíos de la implementación de la IA es con un ajustado circuito de retroalimentación de aprendizaje rápido e iteración cuidadosa. La sociedad enfrentará cuestiones importantes respecto a lo que podrán hacer los sistemas de IA, cómo combatir las parcializaciones, cómo lidiar con el desplazamiento laboral y otros. La decisiones óptimas dependerán del rumbo que tome la tecnología, y al igual que cualquier campo nuevo, hasta ahora la mayoría de predicciones de expertos han estado equivocadas.  Esto hace que planificar en un vacío sea difícil.”

    De Anthropic: “Creemos que puede ser extremadamente difícil planificar anticipadamente los métodos para detectar y mitigar problemas de seguridad, y esto requerirá de un desarrollo iterativo. Dado esto, tendemos a creer que “la planificación es indispensable, pero los planes son inútiles. En cualquier momento dado podríamos tener en mente un plan para los siguientes pasos en nuestra investigación, pero tenemos pocas vinculaciones a estos planes, que son más como apuestas de corto plazo que estamos listos para alterar a medida que aprendamos más.”

     

     

  • 19Karnofsky, “Compromisos de “si-entonces” para la reducción de riesgos de la IA.”

     

     

  • 20Anca Dragan, Helen King y Allan Dafoe, “Introducción del marco de seguridad de frontera,” Google DeepMind, 17 de mayo, 2024, https://deepmind.google/discover/blog/introducing-the-frontier-safety-framework.

     

     

     

  • 21“Marco de preparación (Beta),” OpenAI, 18 de diciembre, 2023, https://cdn.openai.com/openai-preparedness-framework-beta.pdf.

     

     

     

  • 22“Política de escalonamiento responsable de.Anthropics,” Anthropic, 19 de septiembre, 2023, https://www.anthropic.com/news/anthropics-responsible-scaling-policy.

     

     

     

  • 23“Hemos aprendido mucho en nuestro primer año con la RSP anterior en vigencia, y estamos utilizando esta mejora como una oportunidad para reflexionar sobre lo que ha funcionado bien y lo que tiene sentido actualizar en la política. . . . Aprendimos dos lecciones valiosas a incorporar en nuestro marco de trabajo actual: debemos incorporar más flexibilidad a nuestras políticas, y debemos mejorar nuestro proceso para llevar un control del cumplimiento con la RSP.” De “Anuncio de nuestra política de escalonamiento responsable actualizada”, Anthropic, 15 de octubre, 2024, https://www.anthropic.com/news/announcing-our-updated-responsible-scaling-policy.

     

     

     

  • 24Simeon Campos, “Las políticas de escalonamiento responsable son un manejo de riesgo mal hecho,” Less Wrong, 25 de octubre, 2023,  https://www.lesswrong.com/posts/9nEBWxjAHSu3ncr6v/responsible-scaling-policies-are-risk-management-done-wrong; y Atoosa Kasirzadeh, “Desafíos de medición en regulación y marcos de seguridad contra riesgos catastróficos en IA,” Tech Policy Press, 30 de septiembre, 2024,

     

     

     

  • 25Véase la página 6 de Dragan, King y Dafoe, “Introducción del marco de seguridad de frontera”: “Estamos explorando políticas internas en torno a alertar a organismos involucrados relevantes cuando, por ejemplo, se cumpla con los límites de evaluación, y en algunos casos con planes de mitigación así como también resultados post-mitigación.  Exploraremos además cómo involucrar de manera apropiada a terceros independientes en nuestros procesos de evaluación y mitigación de riesgos.”

    De la página 15 de la "Política de escalonamiento responsable de Anthropic”: “Debido a las posibles externalidades negativas grandes de operar un laboratorio ASL-4 [un nivel de seguridad de IA futura], la verificación de las medidas anteriores debe tener el soporte de auditorías externas.”

    Y véase la página 24 de “Marco de preparación (Beta)”, OpenAI: “Las evaluaciones de cuadro de mandos (y mitigaciones correspondientes) se auditarán y calificarán por terceros cualificados e independientes para asegurar un reporte preciso de los resultados, ya sea reproduciendo los hallazgos o revisando la metodología para asegurar una congruencia a una cadencia especificada por SAG y/o por solicitud del liderazgo de OpenAI o la Junta Directiva.”

     

  • 26Anthropic lanzó una política de escalonamiento responsable actualizada un poco después de un año de publicar su original. OpenAI y Google DeepMind aún no han publicado actualizaciones a sus políticas iniciales.

     

     

  • 27Pero dieciséis compañías se han comprometido a hacerlo. Véase “Compromisos de seguridad de IA de frontera, Cumbre de Seúl sobre IA,” GOV.UK, 21 mayo, 2024, https://www.gov.uk/government/publications/frontier-ai-safety-commitments-ai-seoul-summit-2024/frontier-ai-safety-commitments-ai-seoul-summit-2024.

     

     

     

  • 28Krystal Hu, “ChatGPT logra un récord por base de usuarios de más rápido crecimiento- nota un analista,” Reuters, 2 de febrero, 2023, https://www.reuters.com/technology/chatgpt-sets-record-fastest-growing-user-base-analyst-note-2023-02-01.

     

     

  • 29Lofgren, “Carta a Scott Wiener.”

Carnegie does not take institutional positions on public policy issues; the views represented herein are those of the author(s) and do not necessarily reflect the views of Carnegie, its staff, or its trustees.