TECNOLOGÍA

La fuga de talento en OpenAI, ¿amenaza para la seguridad?

Preocupación por la salida de la empresa creadora de ChatGPT de los científicos más comprometidos con una inteligencia artificial segura

OpenAI, la empresa líder mundial en inteligencia artificial

OpenAI, la empresa líder mundial en inteligencia artificial / EFE

Rafa López

La presentación de GPT-4o, la actualización de la inteligencia artificial (IA) de OpenAI, ha dejado en segundo plano las aguas revueltas que corren en la empresa líder mundial en este campo. Mientras esta compañía, aliada de Microsoft, y Google DeepMind –con Gemini– pelean por la hegemonía mundial de la IA en una guerra de lanzamientos cada vez más asombrosos, OpenAI se deshace del departamento que se ocupaba de que esta revolución tecnológica no se vuelva en contra de la humanidad.

El pasado viernes se informaba de la supresión del departamento denominado Superalignment, encargado de que la futura inteligencia artificial general esté “superalineada” con el beneficio de la humanidad. La noticia saltaba dos días después de que el cofundador de OpenAI, Ilya Sutskever, y el que fuera codirector de Superalignment, Jan Leike, anunciaran su marcha de la compañía. Estos movimientos se interpretan como un nuevo triunfo de Sam Altman, cofundador y consejero delegado de OpenAI, que fue despedido en noviembre y volvió a la empresa con más fuerza.

“¿Qué ha visto Ilya Sutskever?”. Es la pregunta-meme que circula desde hace tiempo en redes sociales y foros de IA. Sutskever lleva mucho tiempo alertando del riesgo que supondría para la humanidad una inteligencia artificial general (AGI, por sus siglas en inglés) que supere a la humana en todos los campos. Que este tipo de IA tome conciencia de sí misma es materia casi más de la neurociencia y la filosofía –y hasta de la ciencia-ficción, como planteó la película “Terminator” con “Skynet”– que de la informática, pero es algo que los expertos se toman muy en serio. “Siguen abandonando expertos en seguridad de OpenAI –comentaba hace unos días un científico gallego en un grupo de Telegram sobre IA–. ¿Qué tendrán entre manos que no conocemos y que puede suponer un riesgo tan serio para la humanidad para que algunos de los cerebros más brillantes del mundo hayan abandonado el barco y sueldos millonarios?”.

Según explica la periodista Sigal Samuel en un extenso artículo en el portal estadounidense de noticias y opinión “Vox”, que varios de los empleados de OpenAI más preocupados por la seguridad de la compañía hayan renunciado o hayan sido expulsados no tiene que ver con que Ilya Sutskever, el excientífico jefe, hubiera vislumbrado algo terrorífico, como un sistema de inteligencia artificial capaz de destruir la humanidad, sino con el hecho de que él y otros cerebros de la compañía hayan perdido su confianza en Sam Altman.

“OpenAI está entrenando sistemas de IA cada vez más potentes con el objetivo de superar eventualmente la inteligencia humana en todos los ámbitos. Esto podría ser lo mejor que le ha pasado a la humanidad, pero también podría ser lo peor si no procedemos con cuidado”, explica en este reportaje Daniel Kokotajlo, quien se unió a OpenAI en 2022 con la esperanza de orientarlo hacia una implementación segura de la IA y trabajó en el equipo de gobernanza de la compañía hasta que renunció el mes pasado.

Se cree que los empleados que abandonan OpenAI firman acuerdos de confidencialidad que les impiden criticar a la empresa. No parece haber sido el caso de Jan Leike, que explicó en un hilo en X por qué renunció como colíder del equipo de superalineación:“He estado en desacuerdo con el liderazgo de OpenAI sobre las prioridades centrales de la compañía durante bastante tiempo, hasta que finalmente llegamos a un punto de ruptura”, escribió el viernes.

Tanto él como Ilya Sutskever han insistido en que OpenAI debería centrarse mucho más en la seguridad, la vigilancia, la preparación y el impacto social derivado de su actividad. En noviembre pasado, Sutskever, junto con la junta directiva de OpenAI, intentó despedir a Altman por falta de confianza. Sin embargo, éste amenazó con llevarse a los mejores talentos de la compañía a Microsoft, lo que de facto supondría su destrucción. La directiva cedió y Altman volvió con más apoyos y más libertad para dirigir la empresa. Según el artículo de Sigal Samuel, que incluye declaraciones de fuentes cercanas a OpenAI bajo anonimato, Altman “afirma que quiere priorizar la seguridad, pero lo contradice en sus comportamientos”. Añade que Altman “estaba recaudando fondos con regímenes autocráticos como Arabia Saudí para poder crear una nueva empresa de fabricación de chips de IA”. En definitiva, “al menos siete personas que intentaron impulsar a OpenAI hacia una mayor seguridad desde dentro perdieron tanta fe en su carismático líder que su posición se volvió insostenible”.

Según una fuente con conocimiento interno de OpenAI, la empresa no está en camino de construir e implementar AGI o superinteligencia de forma segura. Eso mismo parece expresar Jan Leike en su hilo de X: “Creo que se debería gastar mucho más de nuestro ancho de banda [potencia de computación] en prepararnos para las próximas generaciones de modelos, en seguridad, monitoreo, preparación, protección (...) Es bastante difícil solucionar estos problemas y me preocupa que no estemos en la trayectoria para llegar allí”.

En definitiva, no se trata de que el modelo mejorado de ChatGPT, denominado GPT-4o, suponga una amenaza existencial para la humanidad, sino que la empresa líder mundial en IA no estaría en el camino correcto de conseguir una superinteligencia segura, lo que resulta preocupante.

El valor ético, la apuesta de la IA europea

“El valor ético: quizá este sea el camino que permita a la UE una posición fuerte en la imparable revolución tecnológica del siglo XXI”.Con esta frase concluye su artículo la viguesa Amparo Alonso Betanzos, investigadora en inteligencia artificial en la Universidade da Coruña, publicado el pasado jueves en el portal de divulgación científica “The Conversation”. Para Alonso, considerada una de las mayores autoridades españolas en inteligencia artificial, el enfoque de la ley europea sobre IA, la primera regulación en el mundo occidental sobre este campo, “es desde la ética y pensada al servicio de las personas y no de la gran empresa. Otros países como China y EEUU avanzan en su propia regulación, pero con perspectivas muy diferentes”, destaca la investigadora. En el artículo, titulado “El reparto del poder mundial en la cuarta revolución industrial y el papel de Europa”, la ingeniera gallega asegura que la apuesta legislativa de la Unión Europea “intenta no frenar la innovación, aunque hay voces discordantes con la situación”. Entre los valores que figuran en la base regulatoria de la UE, Amparo Alonso cita la computación sostenible, la privacidad por diseño en los algoritmos y la soberanía tecnológica. “Europa impulsa el uso de la IA en la lucha climática y la sostenibilidad, y el desarrollo de una IA con datos de más calidad y algoritmos más verdes que la hagan sostenible”, subraya.