San Francisco. OpenAI confirmó que disolvió un equipo dedicado a mitigar los peligros a largo plazo de la inteligencia artificial (IA), en un momento en que la casa que desarrolló ChatGPT enfrenta un creciente número de críticas.
Hace semanas comenzó la disolución del llamado grupo de “superalineación”, integrando a sus miembros en otros proyectos e investigaciones, según la firma con sede en San Francisco.
Más temprano, el directivo de este equipo responsable de la seguridad, Jan Leike, explicó este viernes en la red social X (antes Twitter) que renunció por desacuerdos fundamentales con la alta dirección sobre las prioridades de la empresa, en una disyuntiva entre innovación o seguridad.
“Hemos llegado a un punto de ruptura”, dijo el ingeniero encargado del grupo responsable de la superalineación. “Es decir, garantizar que una futura IA general, aquella que logre ser tan inteligente como los humanos, esté alineada con los valores de la sociedad”, explicó.
LEA MÁS: OpenAI lanza GPT-4o, nuevo modelo de IA generativa de libre acceso
Leike instó a todos los empleados de la “start-up” a que “actúen con la gravedad” que justifica lo que están construyendo.
Sam Altman, cofundador y consejero delegado de la empresa con sede en San Francisco, se mostró “muy triste por la marcha” de Leike.
“Tiene razón, aún nos queda mucho por hacer (por la investigación sobre alineación y seguridad), y estamos decididos a hacerlo”, añadió.
El equipo de “superalineación” también estaba dirigido por Ilya Sutskever, cofundador de OpenAI y quien anunció su salida el martes.
Con ChatGPT, OpenAI lanzó la revolución de la IA generativa, capaz de producir contenidos a partir de una simple petición en lenguaje cotidiano, que entusiasma a Silicon Valley, pero que a la vez preocupa por su seguridad y el uso de los datos a muchos analistas y reguladores, desde Estados Unidos hasta Europa.
OpenAI presentó esta semana una nueva versión de ese “chatbot”, que ahora puede mantener conversaciones orales fluidas con sus usuarios, un paso más hacia asistentes de IA cada vez más personales y potentes.