top of page

Controversia en OpenAI: disolución del equipo de evaluación de riesgos de IA

Redacción Marlone Serrano

En un movimiento que ha levantado preocupaciones sobre su compromiso con la ética, OpenAI ha disuelto su equipo dedicado a evaluar los riesgos a largo plazo de la inteligencia artificial, incluyendo aspectos cruciales como la seguridad y la alineación ética de los modelos futuros. La decisión llega en un momento en que la compañía continúa liderando el campo del desarrollo de IA, pero también enfrenta críticas internas y externas sobre su enfoque y prioridades. 


El equipo, conocido como Superalineamiento, había sido creado con el propósito de asegurar que los sistemas de IA se mantengan alineados con los intereses humanos, especialmente a medida que se acercan a lograr la Inteligencia Artificial General (AGI), una forma de IA que iguala o supera la inteligencia humana en todos los aspectos. Este enfoque ahora parece estar abandonado, lo que ha generado preocupaciones significativas sobre las futuras direcciones de la empresa. 


Jan Leike, hasta hace poco líder de este equipo, expresó su decepción por el cambio de dirección de la compañía. "He estado en desacuerdo con el liderazgo de OpenAI sobre las prioridades centrales de la compañía durante bastante tiempo," afirmó Leike. Sus preocupaciones reflejan un temor creciente de que, al priorizar el desarrollo comercial de productos llamativos, OpenAI podría estar descuidando la preparación necesaria para enfrentar los posibles riesgos que estos avanzados sistemas de IA pueden implicar. 


La disolución del equipo Superalineamiento es vista por muchos como un paso hacia atrás en los esfuerzos de la industria de la IA para auto regularse y prepararse para los desafíos éticos y de seguridad que la tecnología inevitablemente presenta. Este equipo había sido esencial en la promoción de una aproximación cautelosa y consciente al desarrollo de IA, dedicando un sustancial 20% de las capacidades computacionales de la empresa a este objetivo durante los próximos cuatro años. 


La salida de Ilya Sutskever, otro fundador principal y una figura clave en el liderazgo previo de la compañía, junto con la disolución del equipo, marca un punto de inflexión significativo para OpenAI. Esto ocurre en un contexto de intensa competencia en el sector de la IA y crecientes preocupaciones sobre el impacto social y ético de estas tecnologías. 


A pesar de los cambios, OpenAI afirma que continúa comprometida con la concienciación sobre los riesgos y oportunidades de la AGI. Sin embargo, la eliminación de un equipo dedicado a estos esfuerzos sugiere una posible reorientación de sus prioridades hacia objetivos más comerciales y menos orientados a la cautela ética. 


El tiempo dirá si este cambio estratégico beneficia a la compañía en su búsqueda por mantenerse a la vanguardia de la tecnología de IA, o si, como temen algunos críticos, podría llevar a omisiones en la seguridad y ética que podrían tener consecuencias significativas para la sociedad en general. 

0 comentarios

Comments


bottom of page