Tecnología

El CEO de Anthropic dice que DeepSeek fue ‘el peor’ en una prueba crítica de seguridad de datos sobre armas biológicas

Published February 7, 2025

El CEO de Anthropic, Dario Amodei, expresó su preocupación por DeepSeek, una empresa de IA china que ha captado la atención en Silicon Valley con su modelo R1. Sus inquietudes son más serias que las típicas relacionadas con el envío de datos de usuarios de DeepSeek a China.

En una entrevista en el podcast ChinaTalk de Jordan Schneider, Amodei comentó que DeepSeek generó información poco común sobre armas biológicas durante una prueba de seguridad que realizó Anthropic.

Amodei afirmó que el rendimiento de DeepSeek fue “el peor de prácticamente cualquier modelo que hayamos probado”. Señaló que “no tenía absolutamente ningún bloqueo para generar esta información”.

Esta evaluación es parte de las pruebas rutinarias que Anthropic realiza en diversos modelos de IA para analizar sus riesgos potenciales para la seguridad nacional. Su equipo evalúa si los modelos pueden generar información relacionada con armas biológicas que no se encuentra fácilmente en Google o en libros de texto. Anthropic se posiciona como proveedor de modelos de IA fundamentales que se toman la seguridad en serio.

El CEO subrayó que no considera que los modelos de DeepSeek sean “literalmente peligrosos” al proporcionar información rara y peligrosa en este momento, pero advirtió que podrían llegar a serlo en un futuro cercano. Aunque reconoció que el equipo de DeepSeek está formado por “ingenieros talentosos”, les aconsejó que “tomen en serio estas consideraciones de seguridad en IA”.

Amodei también ha defendido controles de exportación más estrictos sobre chips hacia China, citando preocupaciones de que pudieran dar a su ejército una ventaja.

En la entrevista no se aclaró qué modelo de DeepSeek fue probado por Anthropic, ni se proporcionaron detalles técnicos adicionales sobre estas pruebas. Anthropic no respondió de inmediato a una solicitud de comentarios. Tampoco lo hizo DeepSeek.

El ascenso de DeepSeek ha generado inquietudes sobre su seguridad en otros ámbitos. Por ejemplo, investigadores de seguridad de Cisco señalaron la semana pasada que R1 de DeepSeek no bloqueó ninguna indicación dañina en sus pruebas de seguridad, alcanzando una tasa de éxito del 100% en eludir controles.

Cisco no mencionó armas biológicas, pero indicó que fue capaz de hacer que DeepSeek generara información perjudicial sobre cibercrimen y otras actividades ilegales. Es importante destacar que Llama-3.1-405B de Meta y GPT-4o de OpenAI también tuvieron altas tasas de fallo, del 96% y 86%, respectivamente.

Queda por ver si estas preocupaciones de seguridad afectarán significativamente la rápida adopción de DeepSeek. Empresas como AWS y Microsoft han promocionado públicamente la integración de R1 en sus plataformas en la nube, irónicamente, considerando que Amazon es el mayor inversor de Anthropic.

Por otro lado, hay un número creciente de países, empresas y, especialmente, organizaciones gubernamentales como la Marina de EE. UU. y el Pentágono que han comenzado a prohibir el uso de DeepSeek.

El tiempo dirá si estos esfuerzos prosperan o si la rápida expansión global de DeepSeek continúa. Amodei considera a DeepSeek un nuevo competidor al nivel de las principales empresas de IA de EE. UU.

“El nuevo hecho aquí es que hay un nuevo competidor”, mencionó en ChinaTalk. “En las grandes empresas que pueden entrenar IA —Anthropic, OpenAI, Google, quizás Meta y xAI— ahora DeepSeek puede estar siendo añadido a esa categoría”.

DeepSeek, IA, seguridad