La llegada de DeepSeek: un llamado a la regulación de la inteligencia artificial
Con la aparición de un nuevo chatbot más rentable en el mercado, que comparte abiertamente los secretos de su éxito, debemos cuestionar si el impacto de DeepSeek será perturbador o democrático.
La semana pasada, DeepSeek, el último competidor de ChatGPT, irrumpió en la escena, causando un gran revuelo entre las empresas tecnológicas de EE.UU. y la recién inaugurada administración Trump. Aunque para el consumidor promedio DeepSeek puede parecer otro chatbot de inteligencia artificial, ha generado ondas de choque a través de Silicon Valley y el mercado de valores gracias a su naturaleza de código abierto, lo que ha provocado un debate sobre la ética en el desarrollo de IA.
A diferencia de la mayoría de los modelos de IA, como ChatGPT Pro, DeepSeek es completamente gratuito. Sin embargo, no hay que subestimar sus conexiones con otros chatbots rivales. Se dice que DeepSeek es un resultado de la destilación, un método recientemente controvertido de entrenamiento de modelos de lenguaje, en el cual un nuevo modelo de IA aprende al interactuar con un modelo "maestro" existente, en este caso ChatGPT.
Las acusaciones de destilación sobre DeepSeek han captado la atención de los medios y la industria tecnológica. Este método permite entrenar modelos de IA mucho más rápido y a un costo significativamente menor, pero depende directamente de la calidad del modelo maestro. Esto plantea una pregunta importante sobre el futuro de la IA en la industria tecnológica: ¿Por qué las grandes empresas gastarían cientos de millones en investigación y desarrollo si los rivales pueden crear modelos casi idénticos a un costo mucho menor?
Las acusaciones sobre la destilación están poniendo a prueba los límites legales de la inteligencia artificial y podrían definir cómo abordamos las regulaciones sobre propiedad intelectual privada en la era de la IA y los grandes datos. Estamos entrando en un paisaje tecnológico donde la replicación puede superar al desarrollo original, y ahora la pregunta es si esta será una época de innovación sin precedentes o de estancamiento tecnológico.
Las recientes inversiones de OpenAI, incluyendo una asociación de $500 mil millones con empresas como Oracle y SoftBank, parecen menos valiosas si su infraestructura de IA continúa apareciendo excesivamente costosa. DeepSeek fue de 16 a 33 veces más barato de entrenar que ChatGPT. Esto plantea problemas más amplios que afectan a la industria tecnológica, ya que la "espionaje corporativa" ha empezado a ser la norma entre un mar de empresas de IA.
Otros inversores de riesgo en la industria argumentan que estos resultados eran esperados en un mercado que madura y se satura. Dario Amodei, CEO de la empresa de IA Anthropic, sostiene que la reducción de costos era predecible, y que DeepSeek solo es un punto de datos en la curva de costos esperada para los modelos de IA. La innovación replicada es un concepto familiar en el siglo XXI, similar al mercado de smartphones hace dos décadas, cuando Samsung y Google produjeron teléfonos que rivalizaban con la tecnología táctil del iPhone.
DeepSeek también ha generado preocupaciones sobre su posible regulación y moderación por parte del Partido Comunista Chino. Cuando el chatbot es cuestionado sobre temas como la Masacre de Tiananmen o las protestas en Hong Kong en 2019, comienza a dar una respuesta pero rápidamente la elimina, indicando: “No estoy seguro de cómo abordar este tipo de preguntas” o “Hablemos de otra cosa”. Con la creciente influencia de DeepSeek en la industria de la IA a nivel mundial, es crucial reconocer las implicaciones de esta censura sobre la libertad de expresión y la formación de una opinión global. Dado que la tecnología fue desarrollada en China, sus operaciones están sujetas a la jurisdicción del Partido Comunista Chino.
Las preocupaciones de seguridad también han sido una fuente importante de ansiedad entre los usuarios al cuestionar las implicaciones éticas de la IA. Con el manejo de datos estadounidenses actualmente en discusión en la Casa Blanca en relación con TikTok, DeepSeek también debe ser examinada. Una diferencia clave entre ambas empresas es que, mientras TikTok almacena datos de usuarios en EE.UU., Malasia y Singapur, DeepSeek almacena su información en servidores ubicados en China. Recientemente, una empresa de seguridad de redes encontró una base de datos expuesta de DeepSeek que filtraba información sensible de usuarios, como su historial de chats. Debido a esta inseguridad cibernética, los hackers podrían no solo acceder a los datos de usuario sino también tomar control más amplio sobre la propia base de datos.
Si un joven analista de fondos puede esencialmente reproducir el modelo de lenguaje más extendido para crear un competidor más barato y de código abierto, ¿qué detiene a otros de hacer lo mismo? Debemos preocuparnos de que la innovación en IA se convierta en un espiral incontrolable de imitación. Sin establecer controles, podríamos encontrarnos incapaces de distinguir entre modelos creados por humanos y la imitación de máquinas.
En lugar de ver a DeepSeek como simplemente otro chatbot, deberíamos reconocerla como una señal de que la industria de la IA está acelerando de manera incontrolada. DeepSeek debería servir como un punto de referencia para el gobierno en el desarrollo y uso de IA. El camino para avanzar en la IA debe ser un delicado equilibrio entre la innovación y la seguridad. En lugar de enfocarse en producir modelos rápidamente, los gobiernos deben establecer controles que garanticen que los modelos de IA cuenten con políticas de privacidad robustas para proteger los datos de los usuarios. La industria de la IA necesita una supervisión y regulación adecuadas antes de que su auge se convierta en una maldición. De lo contrario, corremos el riesgo de que la IA se convierta en una fuerza imparable de mediocridad auto-replicante en lugar de un instrumento definido por y que promueva la innovación.
IA, DeepSeek, regulación