Tecnología

Visiones Contrapuestas sobre el Futuro de la Inteligencia Artificial

Published January 6, 2025

Esta semana, dos de las voces más influyentes en tecnología presentaron visiones contrastantes sobre el desarrollo de la inteligencia artificial, resaltando la creciente tensión entre innovación y seguridad.

En un blog publicado el domingo por la noche, Sam Altman, CEO de OpenAI, anunció que su empresa ha triplicado su base de usuarios, alcanzando más de 300 millones de usuarios activos semanales mientras avanza hacia la creación de la inteligencia general artificial (AGI).

"Ahora estamos seguros de que sabemos cómo construir AGI en los términos tradicionales", declaró Altman, afirmando que para 2025, los agentes de IA podrían "unirse a la fuerza laboral" y "cambiar de manera significativa la producción de las empresas."

Altman también indicó que OpenAI camina hacia algo más que solo agentes de IA y AGI, mencionando que la compañía ha comenzado a trabajar en "superinteligencia en el verdadero sentido de la palabra."

Sin embargo, el plazo para la entrega de AGI o superinteligencia sigue siendo incierto. OpenAI no respondió de inmediato a una solicitud de comentarios.

Horas antes, Vitalik Buterin, co-creador de Ethereum, propuso utilizar la tecnología blockchain para crear mecanismos de seguridad globales para los sistemas avanzados de IA, incluyendo una capacidad de "pausa suave" que podría restringir temporalmente las operaciones de la IA a gran escala si surgen señales de advertencia.

Mecanismos de Seguridad Basados en Cripto para la Seguridad de la IA

Buterin se refiere a "d/acc" o aceleración descentralizada/defensiva. En términos simples, d/acc es una variación de e/acc, o aceleración efectiva, un movimiento filosófico defendido por figuras destacadas de Silicon Valley como Marc Andreessen de a16z.

La d/acc de Buterin también apoya el progreso tecnológico, pero prioriza los desarrollos que mejoran la seguridad y la agencia humana. A diferencia de la aceleración efectiva (e/acc), que adopta un enfoque de "crecimiento a cualquier costo", d/acc se enfoca primero en construir capacidades defensivas.

"D/acc es una extensión de los valores subyacentes de la criptografía (descentralización, resistencia a la censura, economía y sociedad global abierta) a otras áreas de tecnología", escribió Buterin.

Reflexionando sobre cómo ha progresado la d/acc en el último año, Buterin mencionó que un enfoque más cauteloso hacia AGI y sistemas superinteligentes podría implementarse utilizando mecanismos criptográficos existentes como pruebas de conocimiento cero.

Bajo la propuesta de Buterin, las principales computadoras de IA necesitarían aprobación semanal de tres grupos internacionales para continuar operando.

"Las firmas serían independientes del dispositivo (si se desea, incluso podríamos requerir una prueba de conocimiento cero de que se publicaron en una blockchain), así que sería todo o nada: no habría forma práctica de autorizar a un dispositivo para seguir funcionando sin autorizar a todos los demás", explicó Buterin.

El sistema funcionaría como un interruptor maestro en el que o todas las computadoras aprobadas funcionan, o ninguna lo hace, evitando que alguien implemente sanciones selectivas.

"Hasta que ocurra un momento crítico, simplemente tener la capacidad de hacer una pausa suave no causaría mucho daño a los desarrolladores," señaló Buterin, describiendo el sistema como una forma de seguro contra escenarios catastróficos.

De cualquier manera, el crecimiento explosivo de OpenAI en 2023 —de 100 millones a 300 millones de usuarios semanales en solo dos años— muestra cómo la adopción de la IA está progresando rápidamente.

Pasando de ser un laboratorio de investigación independiente a una empresa tecnológica importante, Altman reconoció los desafíos de construir "una empresa entera, casi desde cero, alrededor de esta nueva tecnología."

Las propuestas reflejan debates más amplios en la industria sobre cómo gestionar el desarrollo de la IA. Los defensores han argumentado que la implementación de cualquier sistema de control global requeriría una cooperación sin precedentes entre los principales desarrolladores de IA, gobiernos y el sector de criptomonedas.

"Un año en 'modo de guerra' puede valer fácilmente cien años de trabajo en condiciones de complacencia", escribió Buterin. “Si tenemos que limitar a las personas, parece mejor limitar a todos en igualdad de condiciones y hacer el trabajo arduo de realmente intentar cooperar para organizar eso en lugar de que una parte busque dominar a todos los demás.”

Editado por Sebastian Sinclair

Boletín de Inteligencia General

Un viaje semanal sobre la IA narrado por Gen, un modelo de IA generativa.

IA, seguridad, blockchain