En un mundo donde la Inteligencia Artificial permite clonar voces y rostros en tiempo real, la confianza ciega en los sistemas de reconocimiento facial (RF) se ha convertido en un riesgo crítico.
Maricarmen Sequera, Directora Ejecutiva y Co-Fundadora de TEDIC advierte que estas tecnologías no solo son vulnerables ante el avance de los deep fakes, sino que presentan fallas estructurales desde su diseño que ponen en jaque la privacidad de los ciudadanos en Paraguay.
A diferencia de una contraseña o una tarjeta de crédito, los datos biométricos como el rostro, el iris o la huella dactilar tienen una característica peligrosa: son irreversibles. No se pueden reimprimir ni reemplazar cuando son robados.
Según Sequera, una vez que esta información se filtra, el daño es permanente y estructural. «La identidad biométrica es única y no solo es facial; incluye movimientos, voz e iris. Estos riesgos siempre existieron, y el avance de la suplantación de identidad por IA solo los ha hecho más evidentes», señala la experta.
El fin de las «pruebas de vida» tradicionales
Uno de los mitos que la IA ha derribado es la efectividad de las medidas de seguridad convencionales. Hasta hace poco, pedirle a un usuario que parpadee o mueva la cabeza era suficiente para confirmar su identidad. Hoy, los ataques de «inyección de video» —donde se utilizan imágenes generadas por IA que simulan gestos en tiempo real— han dejado obsoletos estos métodos. Sequera explica que la tecnología no es neutral y que su implementación masiva, lejos de traer seguridad, habilita formas de vigilancia que carecen de garantías procesales.
En el ámbito penal, la vigilancia debería ser específica para resolver un hecho punible; sin embargo, el reconocimiento facial se aplica de forma masiva: «Se vigila todo y después vemos», lo que resulta desproporcional.
Más allá de lo técnico, el impacto de estos sistemas se distribuye de manera desigual. Los modelos entrenados con bases de datos sesgadas generan errores sistemáticos que afectan desproporcionadamente a mujeres, personas trans, indígenas y afrodescendientes. Para TEDIC, el uso de estas herramientas debería ser la «última ratio», aplicada solo en casos de extrema necesidad donde otros métodos de identificación no sean suficientes.
El vacío legal y la ilusión de seguridad
Aunque Paraguay cuenta con su primera Ley Integral de Datos Personales, su reglamentación y ejecución plena aún enfrentan un horizonte de dos años. En este vacío, las empresas que recolectan datos biométricos asumen una responsabilidad que trasciende lo legal, entrando en el terreno de lo político y social. Sequera invita a cuestionar qué entendemos realmente por «seguridad». Muchas veces, estas tecnologías se presentan como soluciones innovadoras para la vía pública o eventos masivos, pero funcionan más como herramientas de control que no atacan las causas estructurales de la inseguridad.
La pregunta final que deja esta conversación no es si el reconocimiento facial puede ser «más seguro», sino qué modelo de convivencia queremos promover en nuestras ciudades.
Antes de ceder nuestros datos biométricos a bases de datos que no sabemos quién administra ni cómo se protegen, es urgente decidir si queremos vivir en entornos organizados en torno a la vigilancia permanente o a la protección real de los derechos humanos.



