Evaluación de seguridad para OpenAI: ¿Cumple con los estándares necesarios?

Rexa Ginux

Evaluación de seguridad para OpenAI: ¿Cumple con los estándares necesarios?

El mundo de la tecnología cenó colectivamente la semana pasada con Ilya Sutskever, el cofundador de OpenAI que lideró brevemente una rebelión contra Sam Altman, y renunció como director científico. Algunos observadores restaron importancia a la partida, señalando que Sutskever no había estado en el cargo durante meses y que parecía que debería haberlo dejado en términos cordiales.

Pero los comentarios controvertidos de otro destacado ejecutivo han planteado dudas sobre si la empresa, un desarrollador líder de herramientas de inteligencia artificial, es demasiado laxa en materia de seguridad.

“La cultura y los procesos de seguridad han pasado a un segundo plano frente a productos llamativos”. Jan Leike, quien renunció a OpenAI la semana pasada, escribió en las redes sociales

Sutskever dijo en su nota de despedida que estableció la certeza de que OpenAI construiría una inteligencia artificial general (IA tan sofisticada como el cerebro humano) que sería “segura y beneficiosa” para la humanidad. Pero Leike fue mucho más crítico:

Durante los últimos meses, mi equipo ha tenido problemas con el viento y el mar. A veces teníamos problemas con los recursos informáticos y cada vez era más difícil hacer que esta investigación fuera crucial.

Leike lleva el nombre de muchos empleados de OpenAI que priorizaron la seguridad, según Vox. Un ex trabajador, Daniel Kokotajlo, dijo a la publicación en línea que “poco a poco perdió la confianza en el liderazgo de OpenAI y su capacidad para gestionar responsablemente AGI, una vez que renunció”. (Estas preocupaciones fueron la razón por la que Sutskever presidió la junta directiva de OpenAI para despedir a Altman como director ejecutivo el año pasado, pero Sutskever se apresuró a decir que lamentaba esa medida).

Leer más Noticias de negocios en español[class^=’wp-image’]{ancho:100%;alto:automático;}

Source link

Leave a Comment

ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT ArT