Los principales promotores de la inteligencia artificial establecen una entidad para autogobernarse

Los principales promotores de la inteligencia artificial establecen una entidad para autogobernarse

Los principales fabricantes de inteligencia artificial lanzaron un organismo de autorregulación llamado «Foro del Modelo Frontier» (Frontier Model Forum). Microsoft, Google, OpenAI (la compañía creadora de ChatGPT) y Anthropic encabezan esta alianza, que espera convocar a más participantes de la industria. La iniciativa surge unos días después de que el gobierno de Estados Unidos anunciara un acuerdo voluntario de las grandes empresas tecnológicas para asegurar el desarrollo seguro de esta tecnología.

El organismo se enfocará, precisamente, en los llamados «modelos frontera»: aquellos sistemas de inteligencia artificial que sobrepasen las capacidades actuales existentes. El grupo se ha comprometido a colaborar conjuntamente en investigaciones que reduzcan los riesgos potenciales de sus herramientas y a establecer buenas prácticas de seguridad.

Qué Inteligencia Artificial se necesita para un proyecto exitoso

«Los gobiernos y la industria están de acuerdo en que, aunque la inteligencia artificial ofrece una gran promesa para beneficiar al mundo, se requieren límites adecuados para mitigar los riesgos», expresaron las cuatro compañías en un comunicado conjunto. Afirmaron que el foro también asegurará la participación activa de los gobiernos, académicos y la sociedad civil en general.

Las grandes empresas tecnológicas pretenden adelantarse a las iniciativas gubernamentales de regulación, que aún están siendo discutidas en ámbitos como el Congreso de Estados Unidos y la Unión Europea. En Washington, el debate se encuentra en sus etapas iniciales. Mientras tanto, en Europa, ya existe un borrador formal de ley. No obstante, apenas hace un mes que comenzaron las negociaciones con los Estados y podría transcurrir mucho tiempo antes de que entre en vigor.

El foro informó que creará un consejo asesor y ejecutivo en los próximos meses. También organizará un equipo de trabajo que definirá la financiación del proyecto. En el comunicado remarcaron que la afiliación está abierta a otras empresas y organizaciones.

La incertidumbre acerca de un ente de autorregulación para la inteligencia artificial

Crean mediante Inteligencia Artificial retratos que muestran cómo serían  los humanos en mil años más - Guioteca

«Las compañías que producen tecnología de inteligencia artificial tienen la obligación de asegurar su seguridad y mantenerla bajo control humano», expresó Brad Smith, CEO de Microsoft, en relación a la creación del foro. Por otro lado, Anna Makanju, vicepresidenta de Asuntos Globales de OpenAI, destacó que el trabajo que les queda por hacer es «urgente» y confía en que el grupo está preparado para «actuar rápidamente y mejorar el estado de la seguridad de la inteligencia artificial».

Sin embargo, el organismo de inteligencia artificial sigue siendo una propuesta de autorregulación, lo cual genera sospechas en diversas organizaciones y activistas. «La historia muestra que muchas empresas de tecnología no cumplen realmente con compromisos voluntarios de actuar de manera responsable», señaló Jim Steyer, director de la organización estadounidense Common Sense Media, en Times. Cita como ejemplo todos los problemas de seguridad relacionados con el desarrollo de las redes sociales.

Andrew Rogoyski, del Instituto de Inteligencia Artificial centrada en las personas de la Universidad de Surrey, expresó su preocupación por el hecho de que los gobiernos estén cediendo el liderazgo al sector privado. «Es una tecnología tan poderosa, con un gran potencial tanto para el bien como para el mal, que necesita una supervisión independiente que represente a las personas, las economías y las sociedades», declaró a The Guardian.

Tecnologías con propósitos benéficos

El Foro del Modelo Frontier también tiene como objetivo fomentar el desarrollo de tecnologías que aborden los importantes desafíos de la sociedad. Estos desafíos incluyen el cambio climático, la prevención del cáncer y la lucha contra las ciberamenazas.

Inteligencia Artificial podría acabar con la humanidad

A diferencia del acuerdo voluntario anunciado por la Casa Blanca la semana pasada, Amazon y Meta aún no forman parte de este foro. Entre los compromisos prácticos de este pacto se encuentra la creación de una «marca de agua» que alertará al público cuando una imagen, video o texto haya sido creado mediante inteligencia artificial. Además, las compañías prometieron someterse a auditorías realizadas por entidades externas e independientes.

Existen otras dos importantes iniciativas en marcha para establecer políticas que garanticen la seguridad de la inteligencia artificial. Una de ellas está a cargo del secretario general de la Organización de Naciones Unidas, António Guterres, quien anunció el mes pasado que formará una junta asesora integrada por expertos y científicos antes de que termine el año. La otra es el «Proceso de Hiroshima», un marco intergubernamental impulsado por los países del G7 para discutir estándares de protección.

Fuente:  https://hipertextual.com/