OpenAI intensifica la lucha contra los estafadores de ChatGPT
OpenAI ha dejado claro que su servicio de inteligencia artificial, ChatGPT, no está destinado a ser utilizado con fines dañinos.
La compañía ha publicado un informe detallando que ha observado tendencias de actores maliciosos utilizando su plataforma a medida que gana popularidad. OpenAI indicó que ha eliminado docenas de cuentas por sospecha de uso no autorizado de ChatGPT, como para “depurar código o generar contenido para su publicación en diversas plataformas de distribución”.
Recientemente, OpenAI también anunció que ha alcanzado un hito de 400 millones de usuarios activos semanales. La compañía detalló que su base de usuarios ha aumentado en más de 100 millones en menos de tres meses, a medida que más empresas y desarrolladores utilizan sus herramientas. Sin embargo, ChatGPT también es un servicio gratuito que se puede acceder globalmente. Dado que los aspectos morales y éticos de su funcionamiento han sido objeto de debate durante mucho tiempo, OpenAI ha tenido que aceptar que existen entidades con motivos ocultos para utilizar la plataforma.
Las políticas de OpenAI prohíben estrictamente el uso de los resultados de sus herramientas para fraudes o estafas. A través de su investigación sobre esquemas de empleo engañosos, identificaron y prohibieron docenas de cuentas.
En su informe, OpenAI discutió cómo enfrenta acciones nefastas en ChatGPT. La compañía destacó varios casos de estudio en los que ha descubierto y tomado medidas al prohibir las cuentas que estaban usando la herramienta con intenciones maliciosas.
En uno de los casos, OpenAI relató la historia de una cuenta que escribió artículos de noticias despectivos sobre Estados Unidos, publicados en América Latina bajo la apariencia de un artículo de una publicación china.
En otro caso, localizado en Corea del Norte, se encontró una cuenta que generaba currículos y perfiles laborales para solicitantes de empleo ficticios. Según OpenAI, es posible que esta cuenta se haya utilizado para aplicar a trabajos en empresas occidentales.
Otro estudio reveló cuentas que se cree que se originaron en Camboya y que usaron ChatGPT para traducir y generar comentarios en redes de “estafadores románticos”, que infiltraron diversas plataformas de redes sociales, incluyendo X, Facebook e Instagram.
OpenAI ha confirmado que ha compartido sus hallazgos con sus compañeros de la industria, como Meta, quienes podrían verse afectados inadvertidamente por las acciones ocurridas en ChatGPT.
OpenAI, ChatGPT, estafas