Protestas contra el uso peligroso de la inteligencia artificial
Este fin de semana, los manifestantes saldrán a las calles para protestar contra los usos perjudiciales de la inteligencia artificial (IA) y pedir al gobierno australiano que congele los avances en lo que muchos describen como "la tecnología más peligrosa jamás creada".
Un movimiento global de protestas, llamado PauseAI, se desplegará en ciudades como Melbourne antes de la próxima Cumbre de Acción de Inteligencia Artificial, que se llevará a cabo en París. Los manifestantes argumentan que la cumbre no se centra en la seguridad de la IA.
Tanto China como los Estados Unidos están avanzando rápidamente en el desarrollo de la IA. Millones de australianos utilizan la aplicación de IA de origen chino, DeepSeek, y EE.UU. está invirtiendo 500 mil millones de dólares para acelerar sus propios esfuerzos en IA a través de un proyecto denominado Stargate.
DeepSeek, una plataforma de inteligencia artificial de código abierto de propiedad china, fue desarrollada con mucho menos tiempo, inversión e infraestructura en comparación con sus competidores de grandes tecnologías de EE.UU. Crédito: Bloomberg
Joep Meindertsma, fundador de PauseAI, expresó que empresas como OpenAI y DeepSeek no están tomando suficientes precauciones para garantizar que sus modelos de IA sean seguros antes de ser lanzados al mundo. Los manifestantes exigen la creación de un tratado internacional de pausa en IA, que detendría el entrenamiento de sistemas de IA más potentes que GPT-4, hasta asegurarse de que puedan construirse de manera segura y democrática.
“No es un secreto que la IA podría ser la tecnología más peligrosa jamás creada”, dijo Meindertsma.
Meindertsma agregó: “Nuestros líderes deben actuar sobre la pequeña posibilidad de que las cosas puedan salir muy mal, muy rápido. Nuestra psicología hace que sea difícil creer y actuar sobre estos peligros. Los peligros invisibles, tan abstractos como este, no parecen alarmar a las personas tanto como deberían.”
La protesta refleja las crecientes preocupaciones de que el desarrollo de la IA está avanzando más rápido de lo que la sociedad puede seguirle el ritmo, dado que los expertos aún no entienden completamente el funcionamiento interno de sistemas de IA como ChatGPT. Además, Google revisó silenciosamente sus políticas éticas sobre IA esta semana, ya no descartando el uso militar o de vigilancia.
Según Meindertsma, los tres investigadores más citados en IA, Geoffrey Hinton, Yoshua Bengio e Ilya Sutskever, han manifestado públicamente que la tecnología podría conducir a la extinción humana.
El Ministro de Industria y Ciencia, Ed Husic, anunció en diciembre un Plan Nacional de Capacidades en IA, cuyo resultado está previsto para finales de 2025.
Meindertsma afirmó que la acción en la cumbre global es esencial, en lugar de depender de naciones individuales como Australia para proporcionar medidas de seguridad. “Si los organizadores eligen ignorar la necesidad de seguridad, no obtendremos regulaciones internacionales significativas”, afirmó.
La próxima cumbre sigue a cumbres similares celebradas en Bletchley, Inglaterra, y Seúl, Corea del Sur, que produjeron la Declaración de Bletchley y la Declaración de Seúl. Aunque Husic no asistirá a París, funcionarios de alto rango del gobierno representarán a Australia en la cumbre.
El sábado, la protesta se llevará a cabo a las 2 p.m. en la Biblioteca Estatal de Melbourne. Los organizadores informaron que han tenido una docena de apoyos registrados, pero esperan más participantes el día del evento.
Michael Huang, un apoyo de PauseAI, dijo: “Queremos que el gobierno australiano esté más involucrado en estas negociaciones internacionales y que esto se convierta en un tema de política principal en la discusión pública, en lugar de que solo las empresas determinen el futuro.”
“Los sistemas de IA general podrían usarse para desarrollar nuevos medicamentos y nuevas armas biológicas, y es importante que establezcamos regulaciones globales y realicemos más investigaciones para descubrir si es posible hacer la tecnología segura. Y si resulta que no es posible, entonces necesitamos una moratoria global.”
Mark Brown, co-organizador, agregó que, al mínimo, la protesta tiene como objetivo amplificar la discusión sobre la seguridad en IA. "Si obtienes un sistema que es más inteligente que tu especie y no tienes un plan, tendrás un problema", dijo.
protesta, inteligencia, tecnología, seguridad, gobierno