Otro directivo de OpenAI abandonó esta semana la empresa emergente estadounidense, dejando sin líder al equipo responsable de la seguridad de una posible superinteligencia artificial (IA), mientras la casa matriz de ChatGPT enfrenta un creciente número de críticas.
Jan Leike explicó este viernes en la red social X que renunció por desacuerdos fundamentales con la alta dirección sobre las prioridades de la empresa, en una disyuntiva entre innovación o seguridad.
«Hemos llegado a un punto de ruptura«, dijo el ingeniero encargado del grupo responsable de la «Superalineación«, es decir garantizar que una futura «IA general», aquella que logre ser tan inteligente como los humanos, esté alineada con los valores de la sociedad.
Este equipo se disolverá y sus miembros se integrarán en los demás grupos de investigación de OpenAI que trabajan en la seguridad de la IA, según Bloomberg.
Leike instó finalmente a todos los empleados de la «start-up» a que «actúen con la gravedad» que justifica lo que están construyendo.
Sam Altman, cofundador y consejero delegado de la empresa con sede en San Francisco, se mostró «muy triste por la marcha» de Leike.
«Tiene razón, aún nos queda mucho por hacer (por la investigación sobre alineación y seguridad), y estamos decididos a hacerlo», añadió.
El equipo de «Superalineación» también estaba dirigido por Ilya Sutskever, cofundador de OpenAI y quien anunció su salida el martes.
Con ChatGPT, OpenAI lanzó la revolución de la IA generativa, capaz de producir contenidos a partir de una simple petición en lenguaje cotidiano, que ha entusiasmado a Silicon Valley, pero que a la vez preocupa por su seguridad y el uso de los datos a muchos analistas y reguladores, desde Estados Unidos hasta Europa.
OpenAI presentó esta semana una nueva versión de ese «chatbot«, que ahora puede mantener conversaciones orales fluidas con sus usuarios, un paso más hacia asistentes de IA cada vez más personales y potentes.