Un grupo de empresarios del sector tecnológico, expertos y políticos, entre los que destaca el polémico Elon Musk, solicitó por medio de una carta con tintes apocalípticos que se suspendan durante seis meses los experimentos con inteligencia artificial (IA) ya que consideran que “pueden plantear profundos riesgos para la sociedad y la humanidad”.
La carta abierta publicada por la organización sin fines de lucro Future of Life Institute, señala que “la sociedad ha hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacerlo aquí. Disfrutemos de una larga pausa veraniega de la IA y no nos apresuremos a caer sin estar preparados”.
“La IA avanzada podría representar un cambio profundo en la historia de la vida en la tierra, y debería planificarse y gestionarse con el cuidado y los recursos correspondientes“, asegura la misiva que sostiene, además, “que los laboratorios de IA se han enzarzado en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas”, sostiene la carta, donde aseguran que “nadie -ni siquiera sus creadores- puede entender, predecir o controlar de forma fiable” estas inteligencias digitales.
Los firmantes, entre los que se encuentran el director ejecutivo de Tesla, Elon Musk, el cofundador de Apple, Steve Wozniak, los investigadores estadounidenses, Yoshua Bengio y Stuart Russel, entre otros, agrupan todos los miedos que han resonado durante los últimos meses en foros, artículos y conversaciones con tono apocalíptico.
“¿Debemos desarrollar mentes no humanas que podrían acabar superándonos en número, ser más inteligentes que nosotros, que nos dejen obsoletos y que nos reemplacen? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?”, se cuestionan, para concluir que “tales decisiones no deben delegarse en líderes tecnológicos no electos”.
Sobre esta línea, piden que los desarrolladores trabajen con los legisladores para acelerar un sistema legal sólido en torno a la IA. Asimismo, agregan que los sistemas potentes de IA deben desarrollarse únicamente cuando exista seguridad de que sus efectos son positivos y sus riesgos son manejables.
“Hacemos un llamamiento a todos los laboratorios de IA para que pausen de inmediato durante al menos seis meses el entrenamiento de los sistemas de IA más potentes que GPT-4”, señala el comunicado, el cual exige la ayuda de los gobiernos en caso de que las partes implicadas se nieguen a la suspensión temporal de las indagaciones.
GPT, sigla en inglés del término transformadores preentrenados generativos, es un tipo de modelo de aprendizaje que se utiliza para crear lenguaje similar al humano. El GPT-4 es más avanzado que los modelos anteriores. Por su parte, el laboratorio OpenAI define el GPT-4 como su “último hito en el esfuerzo para ampliar el aprendizaje profundo”, ya que el sistema recepciona textos e imágenes, además de producir texto.
No obstante, aseguran que el sistema sigue siendo menos capaz que el humano en múltiples situaciones reales, pese a que “muestra un desempeño a nivel humano en varios puntos de referencia académicos y profesionales”
El comunicado propone que, durante medio año de pausa, los expertos independientes y los laboratorios de IA “desarrollen e implementen un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA que sean rigurosamente auditados y supervisados por expertos externos independientes”.