La palabra 'alucinar' redefine su significado en la industria de la IA
En el diccionario Cambridge, la palabra del año ha sido declarada y lleva consigo un nuevo significado dentro del ámbito de la inteligencia artificial.
Este 15 de noviembre, la organización hizo saber que 'alucinación' adquirirá una acepción adicional que trasciende la idea de ver o escuchar algo inexistente. La nueva definición que se incorporará al diccionario es la siguiente:
Cuando una inteligencia artificial (= un sistema informático que posee algunas cualidades similares al cerebro humano, como la capacidad de producir lenguaje de una manera que parece humana) alucina, genera información falsa.
El término 'alucinación' es frecuentemente utilizado en la industria de la IA para describir situaciones en las que la IA genera errores creíbles como si fuesen verdades, lo cual puede llevar a consecuencias nocivas.
Medios de comunicación como Gizmodo, CNET y Microsoft han tenido problemas por los errores presentes en artículos redactados por IA. Un abogado le indicó a Insider que fue despedido por usar ChatGPT para mejorar un alegato, después de que el bot citase juicios inexistentes.
En febrero, analistas de Morgan Stanley señalaron que uno de los fallos principales de ChatGPT es su tendencia a inventar hechos. Es un problema que, según estos analistas, se espera que persista durante 'los próximos años'. Líderes de negocio y expertos en desinformación también han externado su preocupación sobre cómo la IA podría empeorar el estado actual de la desinformación en línea.
'El hecho de que las IA puedan 'alucinar' nos recuerda que los humanos aún deben emplear sus habilidades de pensamiento crítico al usar estas herramientas', escribió Wendalyn Nichols, gerente de publicaciones del diccionario Cambridge, al anunciar los cambios en el diccionario.
alucinación, inteligencia_artificial, desinformación