En una carta abierta, miles de personalidades reclamaron suspender por al menos seis meses los experimentos gigantes que «ni sus creadores pueden entender, predecir o controlar».
El vertiginoso avance de la Inteligencia Artificial (IA) asusta incluso a sus propios creadores. Este miércoles Elon Musk, uno de los fundadores de OpenAI, y cientos de expertos del mundo firmaron una petición para suspender por al menos seis meses las investigaciones en tecnologías más potentes que ChatGPT 4 por posibles “grandes riesgos para la humanidad”.
La junta de firmas tiene lugar en el sitio del instituto Future Of Life, donde se exige una “pausa a los experimentos gigantes de IA” hasta que se establezcan sistemas de seguridad con nuevas autoridades reguladoras, vigilancia de los sistemas de IA, técnicas que ayuden a distinguir entre lo real y lo artificial, e instituciones capaces de hacer frente a la «dramática perturbación económica y política (especialmente para la democracia) que causará la IA».
El director de OpenAI, Sam Altman, reconoció en otras oportunidades tener «un poco de miedo» de que su creación se utilice para «desinformación a gran escala o ciberataques«. En los últimos días se viralizaron fotos falsas ultrarealistas del supuesto arresto de Donald Trump, que habían sido creadas con esta tecnología.
Pero Altman no es el único que se mostró preocupado. Otros como Musk, dueño de Twitter y fundador de SpaceX y Tesla, o el historiador y pensador israelí Yuval Noah Hariri han expresado sus temores sobre una IA incontrolable que supere a los humanos.
La carta pública expresa una profunda preocupación por el avance de la IA por fuera de los límites que pueden controlar incluso los propios creadores. «En los últimos meses hemos visto cómo los laboratorios de IA se han lanzado a una carrera descontrolada para desarrollar y desplegar cerebros digitales cada vez más potentes que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera fiable«, afirma el documento.
A su vez, se pregunta: «¿Debemos permitir a las máquinas inundar nuestros canales de información con propaganda y mentiras? ¿Debemos automatizar todos los trabajos, incluidos los gratificantes?¿Debemos arriesgarnos a perder el control de nuestra civilización? Estas decisiones no deben delegarse en líderes tecnológicos no electos».
Para los expertos firmantes, “los sistemas potentes de IA deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”.
Además de Musk, Altman y Harari, hay otras importantes personalidades que firmaron la petición, como el cofundador de Apple, Steve Wozniak, miembros del laboratorio de AI DeepMind de Google, el director de Stability AI, Emad Mostaque, así como expertos y académicos estadounidenses de IA e ingenieros ejecutivos de Microsoft, empresa aliada de OpenAI.
La carta completa.
Los sistemas de inteligencia artificial (IA) con inteligencia competitiva humana pueden plantear riesgos profundos para la sociedad y la humanidad, como lo demuestra una extensa investigación y reconocido por los principales laboratorios de IA. Según los Principios de IA de Asilomar ampliamente respaldados, la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra y debería ser planificada y gestionada con recursos y cuidados correspondientes. Desafortunadamente, este nivel de planificación y gestión no está sucediendo, aunque en los últimos meses los laboratorios de IA han estado encerrados en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable.
Los sistemas de IA contemporáneos están comenzando a competir con los humanos en tareas generales, y debemos preguntarnos: ¿Deberíamos permitir que las máquinas inunden nuestros canales de información con propaganda y falsedades? ¿Deberíamos automatizar todos los trabajos, incluso los satisfactorios? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, inteligencia, obsolescencia y reemplazo? ¿Deberíamos arriesgar la pérdida del control de nuestra civilización? Tales decisiones no deben ser delegadas a líderes tecnológicos no elegidos.
Los sistemas de IA poderosos deben desarrollarse solo cuando estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables. Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema. La declaración reciente de OpenAI sobre la inteligencia artificial general afirma que «en algún momento, puede ser importante obtener una revisión independiente antes de comenzar a capacitar a los sistemas futuros, y para los esfuerzos más avanzados, acordar limitar la tasa de crecimiento del cómputo utilizado para crear nuevos modelos». Estamos de acuerdo. Ese momento es ahora.
Por lo tanto, hacemos un llamado a todos los laboratorios de IA para que detengan inmediatamente durante al menos 6 meses la capacitación de sistemas de IA más poderosos que GPT-4. Esta pausa debe ser pública y verificable e incluir a todos los actores clave. Si no se puede aplicar rápidamente una pausa de este tipo, los gobiernos deben intervenir e instituir un moratorio.
Los laboratorios de IA y los expertos independientes deben usar esta pausa para desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo de IA avanzada que sean rigurosamente auditados y supervisados por expertos independientes externos. Estos protocolos deben garantizar que los sistemas que los cumplan sean seguros más allá de toda duda razonable. Esto no significa una pausa en el desarrollo de IA en general, simplemente un retroceso en la peligrosa carrera hacia modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes.
La investigación y el desarrollo de la IA deberían centrarse en hacer que los sistemas de última generación sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales.
Al mismo tiempo, los desarrolladores de IA deben trabajar con los responsables políticos para acelerar dramáticamente el desarrollo de sistemas sólidos de gobernanza de la IA. Estos deberían incluir como mínimo: nuevas autoridades regulatorias capaces y dedicadas a la IA; supervisión y seguimiento de sistemas de IA altamente capaces y grandes conjuntos de capacidades computacionales; sistemas de procedencia y marca de agua para ayudar a distinguir lo real de lo sintético y rastrear las fugas de modelos; un ecosistema sólido de auditoría y certificación; responsabilidad por daños causados por la IA; financiación pública sólida para la investigación técnica de seguridad de la IA; e instituciones bien dotadas para hacer frente a las dramáticas perturbaciones económicas y políticas (especialmente a la democracia) que la IA causará.
La humanidad puede disfrutar de un futuro próspero con la IA. Después de haber logrado crear sistemas de IA poderosos, ahora podemos disfrutar de un «verano de la IA» en el que cosechamos las recompensas, diseñamos estos sistemas para el beneficio claro de todos y damos a la sociedad la oportunidad de adaptarse. La sociedad ha pausado otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacerlo aquí. Disfrutemos de un largo verano de la IA, sin apresurarnos sin preparación hacia un otoño.
/Imagen principal: Archivo/