Participe de la Encuesta: Empresas Sostenibles de la región 2025
Participe de la Encuesta: Empresas Sostenibles de la región 2025

¿Qué tan seguro es interactuar con modelos de IA?

Abr 25, 2025 | Noticias de Hoy

Revista SUMMA
Somos el principal grupo editorial de revistas en América Central y el Caribe.

Los datos biométricos son especialmente sensibles para las personas al interactuar con estos modelos.

Por Revista Summa

La inteligencia artificial (IA) avanza a pasos agigantados, integrándose cada vez más en la vida cotidiana de millones de personas en todo el mundo. Desde asistentes virtuales hasta plataformas de generación de imágenes personalizadas, la IA promete comodidad, eficiencia y creatividad sin precedentes. Sin embargo, junto con estos beneficios, surgen nuevas preocupaciones sobre la privacidad y la seguridad de los datos, especialmente cuando se trata de información sensible como los datos biométricos.

Un ejemplo reciente de esta tendencia es el auge de herramientas de IA que permiten transformar retratos en versiones inspiradas en el Studio Ghibli, una propuesta atractiva y visualmente encantadora que ha captado la atención de usuarios de todas las edades, pero al cargar estas imágenes, muchos desconocen que están entregando datos biométricos (como rasgos faciales únicos) a plataformas cuya seguridad y uso de datos pueden no estar claramente definidos.

Riesgos de compartir datos biométricos con IA

Compartir datos biométricos con plataformas de IA puede tener consecuencias serias:

● Robo de identidad: A diferencia de una contraseña, los datos biométricos no se pueden cambiar si se ven comprometidos. Esto puede facilitar la suplantación de identidad.

● Seguimiento y vigilancia: Estos datos pueden ser utilizados para entrenar algoritmos que permiten rastrear a una persona sin su consentimiento, afectando su privacidad.

● Suplantación mediante deepfakes: Con solo una imagen o un audio, es posible crear contenidos falsos realistas que pongan en riesgo la reputación de una persona.

● Acceso no autorizado a sistemas sensibles: Muchos sistemas bancarios, gubernamentales o corporativos usan datos biométricos para verificar la identidad. Si estos son filtrados, pueden abrirse puertas a fraudes o ataques.

● Falta de regulación clara: Es común que los usuarios no conozcan con certeza cómo se almacenan, procesan o comparten sus datos biométricos, lo que los deja vulnerables ante el mal uso.

“La transformación digital no debe ir en contra de la privacidad. Si bien la inteligencia artificial abre nuevas posibilidades, también representa nuevos vectores de riesgo. Como usuarios, debemos tener claro que al compartir nuestra imagen, voz o huella digital con una aplicación, estamos entregando datos únicos e irreemplazables. Y eso requiere una gran dosis de consciencia y protección”, afirma Joey Milgram, COO de Soluciones Seguras.

Según el último Informe de Inteligencia sobre Amenazas 2025 de Check Point, las organizaciones en Costa Rica también enfrentan un panorama desafiante en materia de ciberseguridad, con vulnerabilidades que igualmente pueden afectar a usuarios comunes. Por ejemplo, entre los principales tipos de vulnerabilidades identificadas están la revelación de información que afecta al 84% de las organizaciones, y la Ejecución remota de código, que impacta al 76,9%.

Estos datos reflejan un alto nivel de exposición de sistemas y usuarios frente a ataques cibernéticos, muchos de los cuales se originan por interacciones inocentes con plataformas digitales. Por lo tanto, es de suma importancia que la población reflexione sobre los riesgos antes de participar en las tendencias globales; especialmente cuando están en juego datos biométricos que son personales, permanentes y altamente sensibles e imposibles de cambiar si se ven comprometidos. Promover una cultura de prevención en el uso de herramientas de IA —desde el ámbito empresarial hasta el uso personal— es clave. En esta era de avances tecnológicos, la seguridad comienza con una elección informada y responsable.

K

Artículos Relativos