Hace una semana, el Future of Life Institute (FLI) divulgó una misiva pública que demandaba una acción tajante: detener por seis meses el avance y adiestramiento de nuevas inteligencias artificiales. La carta contó con la firma de personalidades de renombre como Elon Musk y manifestaba una gran inquietud por el rápido progreso sin considerar las repercusiones. En este momento, un especialista en esta materia va más lejos al asegurar que suspender tal desarrollo no es adecuado.
Eliezer Yudkowsky, quien lidera el Machine Intelligence Research Institute, sostiene que debemos detener por completo el progreso de la IA. Este especialista, uno de los pioneros en el área de investigación de una Inteligencia Artificial General y sus riesgos desde 2001, acaba de publicar un artículo en Time. En este, expone que aunque la moratoria de seis meses es mejor que nada, la petición de la carta del FLI «es insuficiente» para enfrentar la amenaza que enfrentamos.
El desarrollo actual de la IA es incontrolable, según Yudkowsky, quien detalla cómo estamos navegando en un territorio inexplorado sin conocer los límites:
«No podemos predecir de antemano lo que sucederá ni cuándo, y en este momento, parece posible que un laboratorio de investigación pueda cruzar líneas críticas sin darse cuenta».
A pesar de los análisis de riesgos, incluyendo los suyos propios, Yudkowsky es contundente al concluir que construir una IA con una inteligencia sobrehumana, en circunstancias remotamente similares a las actuales, probablemente provocará la muerte de todas las personas en la Tierra. No es una posibilidad remota, sino «obviamente lo que sucederá».
Según este experto, nuestra supervivencia ante una IA superinteligente es improbable sin precisión y preparación. Sin estas medidas, se crearía una IA que «no actuaría en concordancia con nuestros deseos ni tendría consideración alguna por la vida de los seres sintientes en general». Para que la IA comprenda y tenga preocupación por esas vidas, es necesario inculcar tales sentimientos, pero actualmente «no sabemos cómo hacerlo». En vista de una IA de esta naturaleza y en la situación actual, una lucha sería inútil. Sería «como si la sociedad del siglo XI intentara luchar contra la del siglo XXI».
Yudkowsky menciona también la cuestión de GPT-5, AGI y autoconsciencia. Explica que «no tenemos ni la más mínima idea de cómo determinar si los sistemas de IA son autoconscientes» debido a que desconocemos cómo piensan y generan respuestas. De hecho, sugiere que si el salto de GPT-4 a un eventual GPT-5 es tan significativo como el de GPT-3 a GPT-4, «ya no podremos afirmar justificadamente que esta IA probablemente no es autoconsciente». Ya se está hablando de GPT-5 como una inteligencia artificial general que no se distingue de la inteligencia humana.
El desarrollo de la IA debe detenerse completamente. Para este especialista, la única solución viable es detener completamente el entrenamiento de futuras IAs. La moratoria debe ser indefinida y aplicarse a nivel global, sin excepciones para gobiernos o fuerzas armadas. El experto sugiere apagar todos los grandes clusters de GPUs en los que se entrena a las IAs, limitar el consumo energético utilizado para sistemas de IA y controlar las ventas de tarjetas gráficas. Incluso habla de estar dispuesto a correr el riesgo de un intercambio nuclear, aunque luego aclaró en un extenso mensaje en Twitter que esto provocó una gran controversia.
según el experto, la humanidad debe dedicar las próximas décadas a investigar y desarrollar tecnologías de seguridad que permitan controlar el desarrollo de la IA y evitar su potencial amenaza. Esta tarea no será fácil ni rápida, y requerirá una inversión masiva de recursos y esfuerzos a nivel global. Pero la alternativa, según Yudkowsky, es demasiado peligrosa para ignorarla. La humanidad debe tomar en serio los riesgos de la IA y trabajar juntos para garantizar que su desarrollo sea seguro y beneficioso para todos.
El líder de OpenAI no está de acuerdo. Yudkowsky ha expresado su preocupación por el desarrollo de IAs peligrosas desde hace años, por lo que su postura no es nueva. Sam Altman, CEO de OpenAI, la compañía detrás de ChatGPT o GPT-4, no comparte sus afirmaciones, aunque conoce a Yudkowski muy bien. De hecho, en una selfie reciente, Altman aparece posando con él y con Grimes, la pareja de Musk.
En una entrevista con ABCNews, Altman admitió su preocupación sobre el desarrollo de las IAs: «Tenemos que ser cuidadosos. Creo que la gente debería estar contenta de que tengamos un poco de miedo de esto». Sin embargo, también señaló que los avances en IA aún dependen de las entradas humanas y que la tecnología sigue siendo una herramienta bajo el control humano.
En una entrevista con el editor de The New York Times, Altman mencionó a Robert Oppenheimer, uno de los principales responsables del Proyecto Manhattan, creador de la bomba atómica. En ese encuentro, Altman recordó la frase de Oppenheimer «La tecnología ocurre porque es posible», y explicó que para él el desarrollo de la inteligencia artificial era tan inevitable como lo fue el proyecto Manhattan en su momento.
En OpenAI aseguran buscar un desarrollo seguro y responsable de la IA, tal como se puede leer en uno de los apartados de su página web. Allí, se indica que «los sistemas de IA se están convirtiendo en una parte cada vez más presente en la vida cotidiana. La clave está en garantizar que estas máquinas estén alineadas con las intenciones y los valores humanos». A pesar de esto, la empresa ha reducido la cantidad de información que comparte sobre sus proyectos y avances.
Además, los responsables de OpenAI admiten en su blog que están trabajando en un desarrollo «iterativo y empírico» para avanzar paso a paso, pero también reconocen la complejidad de lograr ese «alineamiento» de la inteligencia artificial general. Yudkowsky ya señalaba esta dificultad en 2018.
Fuente: https://www.xataka.com/