Crisis de la Inteligencia Artificial: la apocalíptica advertencia de un ex empleado de OpenAI
El investigador dejó la compañía pues su equipo fue desmantelado y asegura que "la seguridad pasó a un segundo plano".
El desarrollo de la Inteligencia Artificial es uno de los campos donde la tecnología más se ha acelerado. Al frente de estos avances está la compañía OpenAI (los creadores de ChatGPT), pero ahora la empresa parece estar en una crisis y ex empleados aseguran que "la seguridad pasó a un segundo plano".
La crisis se agudizó con la salida de Ilya Sutskever, cofundadora de OpenAI. Sutskever jugó un papel clave en el fallido intento de remover a Sam Altman como CEO de la empresa.
No podrás borrar tu pasado: el error de iPhone por el que reaparecen fotos privadas eliminadas
Un ex investigador de OpenAI su inteligencia artificial ya no es segura
Jan Leike, un investigador clave de OpenAI renunció a principios de esta semana tras la partida del cofundador Ilya Sutskever. El ex empleado publicó en X que "la cultura y los procesos de seguridad han pasado a un segundo plano frente a los productos brillantes" en la empresa.
Las declaraciones de Leike se produjeron después de que Wired informara que OpenAI había disuelto por completo el equipo dedicado a abordar los riesgos de la IA a largo plazo. Leike había estado dirigiendo este equipo para "resolver los desafíos técnicos centrales" en la implementación de protocolos de seguridad mientras OpenAI desarrollaba una IA que puede razonar como un humano.
La idea original de OpenAI era proporcionar abiertamente sus modelos al público, de ahí el nombre de la organización, pero se han convertido en conocimiento propietario debido a las afirmaciones de la compañía de que permitir que cualquiera acceda a modelos tan poderosos podría ser potencialmente destructivo. "En los últimos años, la cultura y los procesos de seguridad han pasado a un segundo plano frente a los productos brillantes", publicó Leike.
Por qué hay una crisis dentro de OpenAI, los creadores de ChatGPT
Las publicaciones de Leike resaltan la creciente tensión dentro de OpenAI. Mientras los investigadores buscan desarrollar inteligencia artificial y administran productos de IA de consumo como ChatGPT y DALL-E, empleados como Leike están expresando preocupación sobre los peligros potenciales de crear modelos de IA superinteligentes. Leike dijo que su equipo no tenía prioridad y no podía conseguir recursos informáticos ni otros recursos para realizar un trabajo "crucial".
"Me uní porque pensé que OpenAI sería el mejor lugar del mundo para realizar esta investigación", escribió Leike y sentenció: "Sin embargo, he estado en desacuerdo con el liderazgo de OpenAI sobre las prioridades centrales de la compañía durante bastante tiempo, hasta que finalmente llegamos a un punto de ruptura".