Noticias

Giro impactante en la muerte del denunciante de IA encontrado muerto por 'suicidio' tras hablar

Published December 27, 2024

La madre del denunciante de IA encontrado muerto en un aparente suicidio, solo semanas después de alzar la voz, ha revelado que su hijo "sintió que la IA es un daño para la humanidad".

Suchir Balaji, de 26 años, fue hallado muerto en su casa de San Francisco el 26 de noviembre, tres meses después de acusar a su antiguo empleador, OpenAI, de violar las leyes de derechos de autor en el desarrollo de ChatGPT.

Ahora, la madre de Balaji exige que la policía reabra la investigación sobre su muerte, señalando que "no parece una situación normal".

"Queremos mantener la pregunta abierta," dijo su madre, Poornima Ramarao, en una entrevista con Business Insider, donde discutieron los últimos meses problemáticos de su hijo.

"Él sentía que la IA es un daño para la humanidad," agregó Ramarao.

El joven talento tecnológico se unió a OpenAI con la creencia en su potencial para beneficiar a la sociedad, especialmente atraído por su filosofía de código abierto.

Sin embargo, su madre reveló que su perspectiva cambió drásticamente a medida que la empresa se volvió más enfocada en el comercio tras el lanzamiento de ChatGPT.

Describió el momento aterrador en que se dio cuenta de que su hijo estaba muerto al ver una camilla llegar a su apartamento en San Francisco.

La muerte de Balaji ocurrió solo meses después de su renuncia a OpenAI debido a preocupaciones éticas y semanas después de ser nombrado en la demanda de derechos de autor del New York Times contra la compañía.

En agosto, dejó OpenAI porque "ya no quería contribuir a tecnologías que él creía que traerían más daño que beneficio a la sociedad," según informó el Times.

"Si crees lo que yo creo, tienes que simplemente irte," declaró Balaji en una de sus últimas entrevistas.

La policía inicialmente calificó la muerte como suicidio y le dijo a Ramarao que las grabaciones de CCTV mostraron que Balaji había estado solo.

Sin embargo, sus padres organizaron una autopsia privada, realizada a principios de diciembre, cuyas conclusiones dicen que son preocupantes.

"Queremos dejar la pregunta abierta," reiteró Ramarao. "No parece una situación normal."

Su madre rememoró el aterrador momento en que se dio cuenta de la muerte de su hijo al ver la camilla ingresar a su apartamento en San Francisco.

La familia está trabajando con un abogado para instar a la policía de San Francisco a reabrir el caso para una "investigación adecuada".

En los últimos dos años, compañías como OpenAI han sido demandadas por diversas personas y empresas por reclamos sobre su material protegido por derechos de autor.

Se consideraba que el papel y el conocimiento de Balaji en los procedimientos legales en contra de la compañía eran "cruciales".

El New York Times también estaba involucrado en su propia demanda contra OpenAI y su principal socio, Microsoft, que negaron las acusaciones de haber utilizado millones de artículos publicados para informar la inteligencia y empezar a competir con el medio como resultado.

El 18 de noviembre, el medio presentó una carta en la corte federal que nombraba a Balaji como una persona con "documentos únicos y relevantes" que se usarían en su litigio contra OpenAI.

Su demanda decía: "Microsoft y OpenAI simplemente toman el producto del trabajo de reporteros, periodistas, redactores y otros que contribuyen al trabajo de periódicos locales - todo sin ningún respeto por los esfuerzos, mucho menos por los derechos legales, de aquellos que crean y publican las noticias en las que las comunidades locales confían."

Mientras otros investigadores han advertido sobre los riesgos potenciales futuros de la tecnología, Balaji le dijo al Times que él creía que el riesgo era mucho más "inmediato" de lo que se temía.

"Pensaba que la IA era algo que podría usarse para resolver problemas insuperables, como curar enfermedades y detener el envejecimiento," indicó.

Aunque OpenAI, Microsoft y otras compañías han afirmado que su uso de datos de internet para entrenar la tecnología se encuentra bajo el concepto de "uso justo", Balaji no creía que se cumplieran los criterios.

"Pensé que podríamos inventar algún tipo de científico que pudiera ayudar a resolverlos," observó.

Balaji creía que las amenazas planteadas por chatbots como ChatGPT estaban destruyendo la viabilidad comercial de las personas, empresas y servicios de internet que creaban los datos digitales utilizados para entrenar tales sistemas.

"Este no es un modelo sostenible para el ecosistema de internet en su conjunto," afirmó.

Aunque OpenAI, Microsoft y otras empresas han sostenido que su uso de datos de internet para entrenar la tecnología se ajusta a la normativa de "uso justo", Balaji no creía que se hubiera cumplido con los criterios.

suicidio, IA, OpenAI