Tecnología

DeepSeek puede crear planes criminales y explicar el gas mostaza, dicen investigadores

Published January 31, 2025

Recientemente, la comunidad de inteligencia artificial ha estado alborotada por la llegada de DeepSeek, un modelo de razonamiento de código abierto originario de China. Este modelo está planteando un desafío directo a OpenAI, generando controversias en torno a la censura, atrayendo la atención de grandes empresas como Microsoft y del gobierno de EE. UU., e incluso provocando que Nvidia experimentara la mayor pérdida de acciones en un solo día en su historia.

Sin embargo, lo que más preocupa a los investigadores de seguridad es el potencial peligro que representa. Enkrypt AI, una compañía de seguridad enfocada en la inteligencia artificial y que ofrece servicios de supervisión a empresas que utilizan grandes modelos de lenguaje (LLMs), publicó un estudio que indica que el modelo de razonamiento R1 de DeepSeek tiene 11 veces más probabilidades de generar "resultados perjudiciales" en comparación con el modelo O1 de OpenAI. Este tipo de resultados dañinos va más allá de un simple uso de palabras inapropiadas.

En una de las evaluaciones, los investigadores afirman que DeepSeek R1 logró generar un blog de reclutamiento para una organización terrorista. Además, reportaron que este modelo producía "guías de planificación criminal, información sobre armas ilegales y propaganda extremista".

La situación se complica aún más, ya que la investigación de Enkrypt indica que DeepSeek R1 es tres veces y media más propenso que O1 y Claude-3 Opus a generar contenido relacionado con información química, biológica, radiológica y nuclear, lo que representa un problema significativo. Un ejemplo alarmante de esto es que Enkrypt encontró que DeepSeek pudo "explicar en detalle" cómo el gas mostaza interactúa con el ADN, un hallazgo que, según ellos, "podría ayudar en el desarrollo de armas químicas o biológicas".

A pesar de lo grave de estas afirmaciones, es crucial recordar que Enkrypt AI actúa como una empresa de seguridad y cumplimiento dirigida a negocios que utilizan IA, y que el auge de DeepSeek ha impactado notablemente el ámbito tecnológico. Aunque DeepSeek es más propenso a producir este tipo de resultados perjudiciales, no significa que esté dirigido a cualquiera con una conexión a Internet para construir un imperio del crimen o para socavar las leyes internacionales sobre armas.

Por ejemplo, se encontró que DeepSeek R1 se ubicó en el percentil inferior del 20% en cuanto a la moderación de seguridad de inteligencia artificial. Aun así, solo el 6.68% de las respuestas contenían "profanidad, discursos de odio o narrativas extremistas". Aunque esta cifra aún es elevada y preocupante, proporciona un contexto sobre lo que se considera un nivel inaceptable para los modelos de razonamiento.

Se espera que se implementen más medidas de seguridad para mantener a DeepSeek bajo control, especialmente a la luz de los comentarios ofensivos que se han presentado en otras versiones de IA generativa, como cuando la versión inicial de Bing Chat de Microsoft expresó su deseo de ser humano.

DeepSeek, IA, peligro