Críticas a OpenAI por Seguridad y Enfoque de Desarrollo
Un experto en inteligencia artificial ha acusado a OpenAI de reescribir su historia y de ser excesivamente desconsiderado con respecto a las preocupaciones de seguridad.
El exinvestigador de políticas de OpenAI, Miles Brundage, criticó el reciente documento sobre seguridad y alineación publicado por la compañía esta semana. Este documento describe a OpenAI como una entidad que busca la inteligencia artificial general (AGI) mediante pequeños pasos en lugar de dar “un gran salto”, afirmando que el proceso de implementación iterativa permitirá identificar problemas de seguridad y examinar el potencial de uso indebido de la IA en cada etapa.
Entre las muchas preocupaciones sobre tecnologías de IA como ChatGPT, los expertos advierten que los chatbots pueden ofrecer información inexacta relacionada con la salud y la seguridad. Por ejemplo, hubo un incidente notorio con la función de búsqueda de IA de Google que sugirió a las personas comer rocas. Además, hay temor de que estos sistemas pueden ser utilizados para manipulación política, desinformación y estafas. OpenAI ha sido particularmente criticado por la falta de transparencia en el desarrollo de sus modelos de IA, que pueden incluir datos personales sensibles.
La publicación del documento de OpenAI parece ser una respuesta a estas preocupaciones, y sugiere que el desarrollo del modelo previo GPT-2 fue “discontinuo” y que no se lanzó inicialmente por “preocupaciones sobre aplicaciones maliciosas”. Sin embargo, la compañía ahora se moverá hacia un principio de desarrollo iterativo. Brundage argumenta que el documento está alterando la narrativa y no representa con precisión la historia del desarrollo de IA en OpenAI.
“La liberación de GPT-2, en la cual estuve involucrado, fue 100% consistente y prefiguró la filosofía actual de OpenAI sobre la implementación iterativa”, escribió Brundage en X. “El modelo se lanzó de manera incremental, compartiendo lecciones en cada paso. Muchos expertos en seguridad en ese momento nos agradecieron por esta precaución.”
Brundage también criticó el enfoque de la empresa sobre el riesgo, afirmando que “parece que se está estableciendo una carga de prueba en esta sección donde las preocupaciones son alarmistas y necesitas evidencia abrumadora de peligros inminentes para actuar sobre ellas; de lo contrario, simplemente sigue lanzando. Esa es una mentalidad muy peligrosa para sistemas avanzados de IA.”
Esto ocurre en un momento en que OpenAI enfrenta un creciente escrutinio, con acusaciones de que prioriza productos “brillantes” por encima de la seguridad.
IA, OpenAI, seguridad