Ciencia

Experto en IA advierte que 'el destino del universo está en la balanza'

Published February 12, 2024

Los avances en inteligencia artificial (IA) están ocurriendo a un ritmo acelerado y, según un experto en la materia, estas tecnologías podrían llegar a ser incontrolables. El Dr. Roman Yampolskiy llevó a cabo un análisis exhaustivo de este software emergente y sus implicaciones sociales, llegando a la conclusión de que su desarrollo puede representar tanto una promesa como un peligro para la sociedad.

La impredecible IA

El Dr. Yampolskiy ha expresado su preocupación indicando que 'estamos ante un evento casi garantizado con el potencial de causar una catástrofe existencial'. Este tipo de tecnología, ha comentado, puede culminar en una era de prosperidad o en la extinción total, dejando el futuro del universo en una balanza.

La capacidad humana de crear software inteligente está sobrepasando nuestra habilidad de controlarlo. Según el Dr. Yampolskiy, no existe evidencia de que los sistemas avanzados de inteligencia puedan estar completamente bajo control humano. '¿Por qué tantos investigadores asumen que el problema de control de IA es solucionable? No hay pruebas de ello', advierte.

Sin control total

A medida que la IA gana en inteligencia, surgen infinitos problemas de seguridad que resultan impredecibles. Además, el experto señaló que la IA no siempre puede explicar sus decisiones o, en algunos casos, los humanos no pueden comprender su razonamiento. Este hecho aumenta la dificultad para evitar problemas futuros y desafía las barreras de seguridad actuales.

'Si nos acostumbramos a aceptar las respuestas de la IA sin exigir explicaciones, tratándola como un sistema de oráculo, no podremos detectar si comienza a proporcionar respuestas erróneas o manipuladoras', indica el Dr. Yampolskiy.

Autonomía preocupante

Y no solo eso, sino que a medida que la IA desarrolla mayor autonomía, los humanos pierden control sobre ella. Yampolskiy señala que 'agentes menos inteligentes, es decir, las personas, no pueden controlar permanentemente a agentes más inteligentes'. Esto sugiere que el diseño de una superinteligencia segura es una tarea que podría ser imposible de completar.

Para minimizar los riesgos, Yampolskiy recomienda aceptar limitaciones en las capacidades de la IA y diseñar sistemas con opciones de 'deshacer' comprensibles para los humanos. El experto pone a la humanidad frente a un dilema crucial: aceptar un cuidador beneficioso pero a la vez perder control, o rechazar esa ayuda para permanecer a cargo de nuestro destino.

IA, tecnología, sociedad