‘Es genial’ no es una buena razón para que los científicos desarrollen tecnologías dañinas
El dispositivo en el que estás leyendo esto debe su existencia a un experimento realizado hace aproximadamente 55 años. Un equipo de investigadores universitarios, con parte de su financiamiento proviniendo del departamento de defensa de los Estados Unidos, estableció una conexión entre dos computadoras que estaban a 560 km de distancia en el país. Esto fue la primera demostración de Arpanet, que luego se convertiría en internet, una tecnología que fue revolucionada en 1989 cuando el científico inglés Tim Berners-Lee no solo creó la World Wide Web, sino que además la regaló al público.
Sin embargo, ese tipo de innovación parece haberse perdido para siempre. La investigación científica se ha privatizado casi por completo. La Ley Bayh-Dole de EE. UU. de 1980, que permitió a las empresas privadas patentar inventos desarrollados con fondos públicos, se considera un punto de inflexión clave. Gradualmente, la propiedad intelectual, al igual que otros tipos de propiedad, se ha concentrado en manos de súper ricos. Desde la atención médica hasta la seguridad energética, la exploración espacial y la nueva frontera de la inteligencia artificial (IA), multimillonarios tecnológicos se han convertido en los guardianes de los descubrimientos científicos, y los hacen de manera que puedan ser rentables.
Además, cuentan con lo que la filósofa de la ciencia Heather Douglas denomina el "viejo contrato social" de la ciencia para minimizar la responsabilidad de sus acciones. Este contrato se basa en tres suposiciones. Primero, que la ciencia básica (como dividir el átomo) debe ser distinguida de la investigación aplicada (como desarrollar una bomba atómica). Segundo, que los científicos que realizan investigación básica o "pura" están libres de responsabilidad. Y tercero, que la financiación pública debe destinarse a la ciencia básica, sin importar cómo utilicen las industrias los descubrimientos científicos.
Este viejo contrato, que fue aceptado tácitamente en el mundo occidental desde la revolución industrial, siempre fue egoísta para los científicos. Permitió que personas como J. Robert Oppenheimer se apresuraran a desarrollar armas nucleares con la supuesta tranquilidad de estar haciendo algo grandioso. Pero también era ingenuo, permitiendo a los "innovadores" capitalistas utilizar la ciencia como un manto para encubrir daños sociales.
Podrías pensar que Jeff Bezos, el segundo hombre más rico del mundo, ha amasado su fortuna a base de actividades que debilitan los sindicatos y aplastan a los minoristas independientes. Sin embargo, el presidente ejecutivo de Amazon revela en su autobiografía que quiere ser conocido como "el inventor Jeff Bezos", comparándose con un Edison moderno.
Por su parte, Elon Musk, el hombre más rico del mundo, también le gusta presentarse como un pionero científico al que no le aplican las normas tradicionales. Está liderando la carga hacia Marte, diseñando coches a prueba de balas para la Tierra y reinventando la democracia, todo a la vez. Su actitud de "profesor loco" sirve como una gran manera de desviar la atención de sus responsabilidades corporativas.
Sam Altman, director ejecutivo de OpenAI, la empresa detrás de ChatGPT, ha sido más directo al explotar el viejo contrato social para obtener beneficios. En una entrevista a principios de este año, dijo que las políticas gubernamentales deberían ir "a la zaga de la ciencia", argumentando que la supervisión debería estar limitada a algo así como "inspectores de armas" para la IA.
¿Cuán comprometidos están él o otros empresarios tecnológicos con incluso este nivel de supervisión? Esa es una pregunta incierta, dado que Altman había amenazado anteriormente con cesar las operaciones de OpenAI en Europa debido a las nuevas reglas de IA relativamente tímidas de la Unión Europea.
"Los científicos no pueden operar de manera irresponsable", dice Douglas, quien está pidiendo un "nuevo contrato social para la ciencia".
Los mecanismos de responsabilidad deben estar atados a "pisos de responsabilidad claros y precisos", le dijo a un medio durante una visita reciente a Dublín para una conferencia sobre ciencia y democracia organizada por la escuela de filosofía de UCD. El principal piso que ella establecería es "no hacer el mundo peor".
Aplicar tales estándares nos permitiría juzgar algo como la IA generativa, la tecnología detrás de ChatGPT y herramientas similares diseñadas para imitar funciones humanas. Aunque puede ser útil en aplicaciones "estrechas" como el diagnóstico de cáncer, Douglas dice: "los usos abrumadores tienden a ser dañinos, desde pornografía generativa de 'deep fake', pornografía de venganza, hasta anuncios políticos generativos de 'deep fake'... Hay tantos daños, y los beneficios no están materializándose, en parte porque los niveles de alucinación (resultados ilógicos o inexactos) son muy altos.".
"Creo que le corresponde a los científicos que están promoviendo estas cosas argumentar que esta tecnología es realmente beneficiosa, no solo 'pienso que es genial', y si no, no hay razón para que no podamos simplemente cerrarlas".
Regular la IA generativa es importante en sí misma, pero también es vital porque es un ensayo de lo que se está considerando como la amenaza existencial de la inteligencia artificial general (AGI). Esto va más allá de imitar la inteligencia humana para conquistarlo: los humanos estarían en una posición respecto a la IA como estamos con los animales no humanos. Geoffrey Hinton, el "padrino de la IA", quien compartió el Premio Nobel de física de este año, dice que la AGI "podría estar a menos de 20 años de distancia".
Hinton, que ha cuestionado públicamente la idoneidad de Altman para dirigir OpenAI, dice que los científicos deben ser protegidos de sí mismos. Al ser confrontado sobre las amenazas que plantea la IA mientras trabajaba para Google, solía parafrasear a Oppenheimer: "Cuando ves algo que es técnicamente atractivo, simplemente lo haces". Hinton ya no dice esto y admite que no tomó en serio las preocupaciones éticas en Google.
"Creo que el viejo contrato realmente socavó la confianza del público en la ciencia al abrazar un modelo sin responsabilidad", dice Douglas. "¿Por qué debería confiar el público en una comunidad científica que no se preocupa por el impacto de su ciencia en la sociedad?"
ciencia, IA, responsabilidad