La última actualización del chatbot de ChatGPT ha permitido a las personas que lo utilizan replicar el estilo artístico del creador del estudio de animación y legendario cineasta japonés Hayao Miyazaki.
Esta nueva funcionalidad se ha viralizado en redes sociales, con miles de personas compartiendo sus imágenes generadas al estilo de Studio Ghibli.
Pero, ¿qué tan seguro es esto? Sumarse a una tendencia puede derivar en fraudes o suplantación de identidad si la tecnología se ve comprometida, o simplemente si para usarla se aceptan condiciones de privacidad desfavorables, indica ESET, compañía en detección de amenazas.
Según un análisis de esta entidad, la Inteligencia Artificial Generativa, la moderación del contenido y los derechos de autor son los desafíos que impone esta tendencia, por lo que requiere atención inmediata de gobiernos, empresas y usuarios debido a la información que queda registrada en la aplicación.
“El funcionamiento de los modelos de IA depende mayoritariamente del acceso a grandes volúmenes de datos (con los que se entrenan y de los cuales se sirven); muchos de estos contienen información personal, sensible y confidencial”, explicó David González, investigador de seguridad informática.
Dada la gran cantidad de datos que se procesan, se destaca la importancia de que los mismos sean tratados y almacenados de forma segura, ya que, pueden quedar expuestos y sujetos a posibles accesos indebidos, filtraciones o incluso robos de información, destaca la empresa de seguridad.
Esto puede traer como consecuencia que los ciberdelincuentes puedan suplantar la identidad de los vulnerables o generar estafas con identidades reales, ampliando la superficie de ataque y exposición.
Unirse a esta tendencia, además del entusiasmo, puede traer riesgos de la privacidad si no se toman las debidas precauciones.
ESET Latinoamérica ofrece algunas recomendaciones:
1. Revisar las políticas de privacidad del sitio o aplicación: Mantenerse informado sobre cómo funcionan los modelos de IA y cómo tratan la información es fundamental para saber si es fiable subir o no información personal o confidencial.
2. Chequear si la información que se sube a un sitio o aplicación está protegida por alguna ley: Garantizar que los modelos de IA dentro de aplicaciones cumplan con regulaciones internacionales y nacionales pertinentes, así como con los principios éticos de transparencia. En caso de la ausencia de alguno de estos principios, es mejor no subir información personal (rostro del usuario/fotos familiares) o confidencial (lugar de trabajo).
3.Usar aplicaciones web o móviles de fuentes oficiales: Debido al gran uso de aplicaciones o sitios similares a ChatGPT que puedan generar imágenes con el estilo artístico del Studio Ghibli, los ciberdelincuentes aprovechan esta temática para engañar a los usuarios e incitarlos a descargar software que aparentemente cumple con el propósito de generar imágenes con IA; sin embargo, puede contener malware (software malicioso).
4.Usar imágenes seguras o sin derechos de autor: Si no se tiene el conocimiento de que la imagen sea para su uso libre, es mejor no subirla para evitar problemas legales relacionados con los derechos de autor.
No hay comentarios:
Publicar un comentario