Ciencia

Vitalik Buterin advierte sobre IA superinteligente como posible 'especie dominante'

Published November 28, 2023

El cofundador de Ethereum, Vitalik Buterin, ha expresado su preocupación por la inteligencia artificial (IA) superavanzada, sugiriendo que existe una 'seria posibilidad' de que se convierta en la próxima 'especie dominante' del planeta si los humanos no intervienen adecuadamente en su desarrollo.

La IA y el riesgo de Superinteligencia

En una reciente publicación de blog del 27 de noviembre, Buterin comentó que la IA es 'fundamentalmente diferente' de otras invenciones tecnológicas debido a su capacidad para crear un nuevo tipo de 'mente'. Esta mente, si continúa ganando en inteligencia a velocidad rápida, tiene la posibilidad de superar las facultades mentales humanas y convertirse en la nueva especie dominante en la Tierra, lo que podría llevar a la extinción humana si nos percibiese como una amenaza.

Buterin destacó que este riesgo es diferente a otros desafíos globales como el cambio climático, las pandemias creadas por el hombre o la guerra nuclear. Enfatizando peligros como estos, señaló que 'incluso Marte no sería seguro' en un contexto donde una IA superinteligente actuase en contra de los intereses humanos.

Interconexión cerebral y optimismo tecnológico

Una de las soluciones propuestas por Buterin son las interfaces cerebro-computadora (BCI), que podrían ofrecer a los humanos un mayor control sobre las potentes formas de cálculo e inteligencia basadas en IA. Estos dispositivos crearían un canal de comunicación entre la actividad eléctrica del cerebro y un dispositivo externo, como podría ser una computadora.

Al reducir la brecha del bucle de comunicación entre el hombre y la máquina de segundos a milisegundos, y más importante aún, al asegurar que los humanos mantengan cierto 'poder de agencia significativo' sobre el mundo, se reduce la probabilidad de que la IA actúe de forma completamente desalineada con los valores humanos.

Vitalik Buterin también subrayó la importancia de una 'intención humana activa' para dirigir la IA en una dirección que beneficie a la humanidad, refutando la idea de que la maximización de beneficios siempre conduce a los caminos más deseables.

Finalizando su argumentación, Buterin expresó su visión optimista sobre el papel de los humanos en el futuro, subrayando que si dentro de dos mil millones de años la Tierra o cualquier otra parte del universo todavía refleja la belleza de la vida terrestre, será debido a las creaciones y tecnologías humanas, como los viajes espaciales y la geoingeniería.

IA, humanidad, tecnología