Icono del sitio DE REPORTEROS

Conoce los riesgos a la privacidad al crear tu imagen al estilo de Studio Ghibli

* ESET Latinoamérica advierte sobre las consecuencias de exponer imágenes y datos personales en los distintos sitios o aplicaciones web y qué tener en cuenta para evitar riesgos 

La última actualización del chatbot de ChatGPT ha permitido a las personas que lo utilizan replicar el inconfundible estilo artístico del cocreador del estudio de animación y legendario cineasta japonés Hayao Miyazaki. 

Esta nueva funcionalidad se ha viralizado rápidamente en redes sociales, con miles de personas compartiendo sus imágenes generadas al estilo de Studio Ghibli. Sin embargo, desde ESET, compañía líder en detección proactiva de amenazas, advierten que como se ha demostrado en distintas ocasiones, sumarse a una tendencia por mera diversión, puede desencadenar fraudes o suplantación de identidad si la tecnología se ve comprometida o simplemente si para usarla se aceptan condiciones de privacidad desfavorables, o que pueden estar en contra de las regulaciones locales o internacionales. 

Un ejemplo de esto es el caso de Clearview AI que funcionaba desde 2020 como un motor de búsquedas similar a Google, pero de rostros. Debido a que recolectaba la información de fuentes públicas como redes sociales, revistas digitales o blogs, tuvo en 2022 una disputa con la Unión Americana de Libertades Civiles para que restrinja las ventas del software en el mercado estadounidense de servicios de reconocimiento facial a entidades gubernamentales. 

Este tipo de controversias continúa y la empresa sigue operando, no exenta de disputas y reclamos legales, y pago de multas en distintos países. 

Por otro lado, la empresa australiana Outabox, en mayo de 2024 sufrió una filtración que expuso datos de reconocimiento facial y biometría de sus sistemas, que se utilizaban en bares y clubes de Australia. 

Personas que afirmaron ser antiguos desarrolladores de Outabox crearon un sitio web donde confirmaban tener datos biométricos de reconocimiento facial, escaneo de licencia de conducir, firma, datos de membresía de clubes, dirección, fecha de nacimiento, número de teléfono, marcas de tiempo de visitas a clubes y uso de máquinas tragamonedas. Las investigaciones demostraron que los datos se recopilaron de 19 establecimientos en Nueva Gales del Sur y el Territorio de la Capital Australiana, operados por ClubsNSW que había contratado a Outabox.  

“Como analizamos recientemente desde ESET, entre los principales desafíos que impone  la Inteligencia Artificial Generativa, la moderación del contenido y los derechos de autor son dos puntos que toman fuerza por esta tendencia y requieren de la atención tanto de gobiernos, empresas y usuarios. 

El funcionamiento de los modelos de IA depende mayoritariamente del acceso a grandes volúmenes de datos (con los que se entrenan y de los cuales se sirven), muchos de estos contienen información personal, sensible y confidencial. Las diversas fuentes para recolectar información y así entrenar a los modelos de IA pueden provenir de información pública o de fuentes abiertas, información solicitada a los usuarios (quienes la consienten, como lo es en este caso con la tendencia de las imágenes generadas al estilo Studio Ghibli) y también de redes sociales y, más recientemente, de información recopilada por dispositivos IoT.”, explica David Gonzales, Investigador de Seguridad Informática de ESET Latinoamérica. 

Dada la gran cantidad de datos que se procesan, se destaca la importancia de que los mismos sean tratados y almacenados de forma segura, ya que, según ESET, pueden quedar expuestos y sujetos a posibles accesos indebidos, filtraciones o incluso robos de información como en el caso de Outabox. Esto puede traer como consecuencia que los ciberdelincuentes puedan suplantar de forma fácil la identidad de los vulnerados o generar estafas con identidades reales, ampliando la superficie de ataque y exposición. 

Otro desafío recae en la recolección masiva de datos sin el consentimiento informado de los usuarios, quienes muchas veces desconocen el alcance del uso de su información. Ese desconocimiento implica un vicio del consentimiento (a nivel legal) y, por tanto, dichas recopilaciones se tornan grises. 

La falta de transparencia y explicabilidad sobre cómo funcionan los modelos y cómo tratan la información genera también conflictos legales. Aquí es donde se puede tornar una línea delgada entre lo privado y lo invasivo; algunas empresas directamente advierten que los datos serán usados para mejorar el modelo de entrenamiento de su Inteligencia Artificial, con el fin de presentar un producto o servicio de mayor calidad.  

Unirse a esta tendencia además del entusiasmo puede traer riesgos de la privacidad si no se toman las debidas precauciones, por lo que desde ESET Latinoamérica comparten los puntos más importantes a considerar para minimizar los riesgos: 

Para saber más sobre seguridad informática visite el portal de noticias de ESET: https://www.welivesecurity.com/es/privacidad/riesgos-crear-tu-imagen-estilo-studio-ghibli/

Por otro lado, ESET invita a conocer Conexión Segura, su podcast para saber qué está ocurriendo en el mundo de la seguridad informática. Para escucharlo ingrese a: https://open.spotify.com/show/0Q32tisjNy7eCYwUNHphcw

Pie de imagen de portada: Ejemplo de imagen generada con ChatGPT que replica el estilo artístico de Studio Ghibli. Fuente: X.

Fotos: Cortesía ESET

Salir de la versión móvil