Tecnología

La prohibición de DeepSeek en Australia genera dudas sobre los modelos de IA de EE.UU.

Published February 5, 2025

DeepSeek ha sido prohibido en los dispositivos del gobierno australiano, pero aún no está claro si este producto de inteligencia artificial chino representa un riesgo mayor para los usuarios en comparación con los modelos de grandes lenguajes desarrollados en EE.UU., como ChatGPT o Gemini.

Los funcionarios públicos deben eliminar DeepSeek de sus dispositivos de trabajo inmediatamente. Sin embargo, los políticos y corporaciones estatales como Australia Post, NBN Co y la ABC están exentos de esta medida.

Las razones del ministro de Asuntos Internos, Tony Burke, para esta prohibición son similares a las que se utilizaron para el veto de TikTok en dispositivos gubernamentales en 2023 y la prohibición a Huawei de construir infraestructura 5G. La preocupación principal es el riesgo de tener una empresa de recopilación de datos estrechamente vinculada al gobierno chino.

Burke mencionó que la prohibición es “agnóstica al país”. "Nuestro enfoque se centra en el riesgo para el gobierno australiano”, dijo.

No obstante, los expertos en IA parecen mostrarse menos preocupados por la posibilidad de que una IA construida en China represente un peligro. La mayoría de los 20 expertos en IA australianos encuestados por Scimex estaban más interesados en cómo la tecnología de recursos limitados podría democratizar la IA que en sus riesgos de seguridad potenciales.

Esto se debe principalmente a los costes de hardware significativamente más bajos asociados con el modelo de lenguaje “de razonamiento” utilizado por DeepSeek, así como al hecho de que su código fuente es accesible para el público.

Por el contrario, OpenAI afirma que sus modelos son propietarios y “inseguros” para compartir.

El profesor asociado de Tecnología de Marketing en RMIT, Jason Pallant, dijo que las partes de DeepSeek que son de código abierto tendrán grandes implicaciones para las plataformas de IA comerciales.

“El hecho de que DeepSeek haya hecho que sus modelos sean de código abierto presenta una amplia implicación; es una oportunidad para que empresas o marcas individuales desarrollen su propia IA de maneras no vistas antes”, afirmó.

“DeepSeek es significativamente más barato para interactuar, y algunas partes son incluso de código abierto, lo que representa un desafío para los modelos comerciales existentes; ¿por qué pagar millones por un modelo de otro cuando uno está disponible de forma gratuita?”

“Esto podría tener importantes implicaciones para empresas como OpenAI, que buscan licenciar su plataforma para el desarrollo de productos y servicios de IA. Al mismo tiempo, es de esperar que estos operadores respondan rápida y a gran escala, lo que impulsará aún más el avance en el espacio de la IA.”

Aunque algunos expresaron preocupaciones sobre cómo se podría usar la información sensible por parte del gobierno chino, se está formando un consenso de que su Acuerdo de Licencia de Usuario Final (EULA) es similar al de OpenAI. Es decir, los productos de OpenAI recopilan y utilizan datos de manera parecida a DeepSeek.

Ministros y secretarios están alentando al Servicio Público Australiano (APS) a utilizar herramientas basadas en OpenAI, dentro de límites prescritos. Alrededor de una cuarta parte de los encuestados en la encuesta Frank and Fearless de The Mandarin el año pasado afirmaron que ya lo estaban haciendo. Aproximadamente el 80% de ellos utilizaban ChatGPT o Copilot, que se basan en modelos de OpenAI.

El conferencista de ciberseguridad de la Universidad de Flinders, Saeed Rehman, aseguró que, desde una perspectiva de privacidad y seguridad, DeepSeek es similar a otros proveedores.

“Los datos de entrada serán accesibles a humanos con fines de entrenamiento”, dijo.

“La empresa recopila información extensa, incluidas IDs de dispositivo, ubicaciones y entradas de usuario. Esta información se utiliza no solo para mejorar el modelo, sino también para ‘obligaciones legales, o según sea necesario para realizar tareas en interés público, o para proteger los intereses vitales de nuestros usuarios y otras personas’.

“El hecho de que los datos de usuario se almacenen en servidores en China, un país conocido por sus estrictas políticas de control de datos, podría ser preocupante para los usuarios y gobiernos que desconfían por su privacidad de datos.”

El investigador en IA y toma de decisiones humanas de la Universidad de Salford también comentó a la BBC que tiene “muchas preocupaciones” tanto sobre DeepSeek como sobre los modelos de EE.UU.

Problemas de imparcialidad en la IA

Adicionalmente, surgen preocupaciones sobre la perspectiva centrada en China que presenta DeepSeek. No puede proporcionar información precisa sobre cuestiones políticas delicadas en China como Taiwán o la Plaza de Tiananmén.

Los periodistas de Guardian encontraron una forma alternativa para que DeepSeek respondiera en l337, lo que demuestra que esta información estaba en los datos de entrenamiento de DeepSeek.

Los populares modelos de grandes lenguajes (LLMs) de EE.UU. también han sido acusados de promover una visión occidental del mundo y de generar “información errónea”.

La profesora de psicología de la Universidad de Adelaida, Samantha Newell, afirmó que ninguna IA es neutral. “Nuestros principales modelos de IA generativa están entrenados sobre un conjunto de trabajos que refleja en gran medida una perspectiva occidental (cis/blanco/male)”, dijo.

“Esta perspectiva reproduce y perpetúa sesgos sobre mujeres y algunos grupos minoritarios. La selección de datos de entrenamiento para estos modelos es extremadamente importante y establece la base de las narrativas que los usuarios de estos modelos consumirán.”

“Debido a que los modelos de IA generativa suenan tan convincentes, los usuarios han sido menos propensos a analizar críticamente el resultado. Es posible que futuros ‘actores maliciosos’ exploten la ‘confianza’ de los usuarios en la producción generada por IA y propongan narrativas falsas, o utilicen los modelos para aumentar el poder blando.”

Esta semana, Nueva Gales del Sur también se movió para prohibir a su servicio público el uso de DeepSeek.

Los Estados Unidos, Corea del Sur y varios países europeos han iniciado investigaciones sobre cómo DeepSeek maneja los datos.

DeepSeek, IA, seguridad