Estas son algunas recomendaciones para interactuar con IA

[wpseo_breadcrumb]
Estas son algunas recomendaciones para interactuar con IA

La inteligencia artificial (IA) avanza a pasos agigantados. Esta, se integra cada vez más en la vida cotidiana de millones de personas en todo el mundo. Desde asistentes virtuales hasta plataformas de generación de imágenes personalizadas, la IA promete comodidad, eficiencia y creatividad sin precedentes.

Sin embargo, señalan especialistas, junto con estos beneficios, surgen nuevas preocupaciones sobre la privacidad y la seguridad de los datos. Ello, especialmente, cuando se trata de información sensible como los datos biométricos.

Joey Milgram, COO de Soluciones Seguras, comentó que un ejemplo reciente de esta tendencia es el auge de herramientas de IA que permiten transformar retratos en versiones inspiradas en el Studio Ghibli.

Explicó que esta es “una propuesta atractiva y visualmente encantadora que ha captado la atención de usuarios de todas las edades. Pero al cargar estas imágenes, muchos desconocen que están entregando datos biométricos a plataformas cuya seguridad y uso de datos pueden no estar claramente definidos”, mencionó Milgram.

Riesgos de compartir datos biométricos con IA

El especialista señaló que compartir datos biométricos con plataformas de IA puede tener consecuencias serias. Entre ellas:

  • Robo de identidad. A diferencia de una contraseña, los datos biométricos no se pueden cambiar si se ven comprometidos. Esto puede facilitar la suplantación de identidad.
  • Seguimiento y vigilancia. Estos datos pueden ser utilizados para entrenar algoritmos que permiten rastrear a una persona sin su consentimiento, afectando su privacidad.
  • Suplantación mediante deepfakes. Con solo una imagen o un audio, es posible crear contenidos falsos realistas que pongan en riesgo la reputación de una persona.
  • Acceso no autorizado a sistemas sensibles. Muchos sistemas bancarios, gubernamentales o corporativos usan datos biométricos para verificar la identidad. Si estos son filtrados, pueden abrirse puertas a fraudes o ataques.
  • Falta de regulación clara. Es común que los usuarios no conozcan con certeza cómo se almacenan, procesan o comparten sus datos biométricos, lo que los deja vulnerables ante el mal uso.

“La transformación digital no debe ir en contra de la privacidad. Si bien la IA abre nuevas posibilidades, también representa nuevos vectores de riesgo. Como usuarios, debemos tener claro que, al compartir nuestra imagen, voz o huella digital con una aplicación, estamos entregando datos únicos e irreemplazables. Y eso requiere una gran dosis de consciencia y protección”, afirmó Milgram.

Ataques a modelos de IA

Además, añaden especialistas, los modelos de IA se convirtieron en activos valiosos y en objetivos atractivos para los cibercriminales. Ello debido a la cantidad de información que procesan y por su uso cada vez más frecuente en diversas industrias.

En este contexto, expertos alertan que los ataques a los modelos de IA varían desde el robo de propiedad intelectual, filtrado de información -e incluso su manipulación para generar resultados erróneos, sesgados-, hasta la utilización de su infraestructura para fines maliciosos como. También el uso de servidores comprometidos para comandar redes de bots o ataques similares.

Existen numerosos ejemplos de vulneraciones a modelos de IA. Uno de los más conocidos, señala Eset, es el caso de Tay de Microsoft. En 2016 un chatbot de IA fue manipulado por usuarios para aprender y replicar discursos de odio en menos de 24 horas.

Por otro lado, el ataque a GPT-3/OpenAI, donde se identificaron intentos de extracción de información confidencial de modelos de OpenAI, consultas o peticiones específicas que inducían a revelar datos sensibles utilizados en su entrenamiento. Además, en 2023, el modelo desarrollado por Meta LLaMA fue filtrado antes de su lanzamiento y fue utilizado y accedido por terceros, lo que generó preocupación sobre la protección de modelos propietarios en entornos abiertos.

“Los ataques dirigidos ya han puesto foco en modelos de IA, su funcionamiento e infraestructura. La seguridad debe abordarse desde una perspectiva integral, protegiendo todas las capas del funcionamiento de esta tecnología, partiendo de datos de entrenamiento, implementación del modelo y luego posteriores fases de acceso o interacción con este”, comentó Fabiana Ramírez Cuenca, investigadora de seguridad informática de ESET Latinoamérica.

Principales ataques

  1. Data Poisoning (Envenenamiento de Datos). Consiste en la manipulación de los datos de entrenamiento con el objetivo de alterar el comportamiento del modelo.
  2. Ataques Adversariales. se generan inputs o entradas manipuladas de manera casi imperceptible para los humanos, pero que inducirán errores en el modelo. Por ejemplo, la manipulación de imágenes para hacer que un modelo de reconocimiento facial confunda identidades.
  3. Control del Modelo y Explotación. los cibercriminales toman el control del modelo durante su producción aprovechándolo con distintos fines como ejecución de otros ataques. Por ejemplo, una denegación de servicio aprovechando para generar comando y control (C&C) e incluso mezclarlo con bots.
  4. Model Inversion Attack (Inversión de Modelo). el objetivo es inferir y obtener información sensible a partir de las predicciones del modelo. Por ejemplo, en modelos que identifican datos faciales se podría llegar reconstruir los rostros originales tomando como base los resultados del modelo frente a ciertas peticiones.
  5. Model Extraction Attack (Extracción de Modelo). En este tipo de ataque se envían diferentes consultas al modelo para luego analizar las salidas con el objeto de entender y reconstruir su estructura interna, así como su lógica. De esta manera se podría imitar o replicar un modelo sin necesidad de acceso directo al código fuente o datos de entrenamiento.
  6. Ataque de Evasión (Evasion Attack). para el caso se modifican los inputs de los modelos con el fin de evadir detección de ciertas actividades o generar una clasificación errónea. Se ha utilizado en sistemas de detección de fraudes, por ejemplo, y en modelos de seguridad de tipo antimalware y firewalls basados en IA. Los atacantes utilizan códigos maliciosos que puedan generar que el modelo victima clasifique un archivo como legítimo, por ejemplo, y esto mediante generación de inputs alterados de forma imperceptible.
  7. Malware en Infraestructuras. fuera de ataques directos al modelo, estos están sujetos a que sus servidores sean infectados con diferentes clases de malware que pudiera interrumpir su operatividad, bloquearlos e incluso lograr filtrar información.

Más información y noticias de TENDENCIAS aquí.

Dejar comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Suscríbase a nuestro boletín para mantenerse informado.