Un estudio internacional reveló que bastan unos pocos cientos de archivos manipulados para corromper los sistemas de entrenamiento de modelos de IA. Los expertos advierten que el “envenenamiento de datos” podría alterar desde recomendaciones hasta diagnósticos médicos.
Investigadores de la Universidad de Chicago desarrollaron un experimento en el que inyectaron imágenes alteradas en bases de datos abiertas, logrando que un modelo de visión artificial confundiera objetos y rostros.
El ataque, conocido como data poisoning, consiste en modificar mínimamente los datos que alimentan a la IA, generando sesgos o errores sistemáticos difíciles de detectar. “El riesgo es enorme porque la mayoría de los modelos se entrenan con información pública”, explicó el científico Ben Zhao.
Los especialistas alertan que esta vulnerabilidad podría ser explotada para manipular resultados en áreas críticas como salud, finanzas o seguridad. Empresas tecnológicas ya trabajan en sistemas de verificación para detectar datos contaminados antes del entrenamiento.
El informe concluye que la ciberseguridad del futuro no dependerá solo del código, sino también de la integridad de la información con la que aprenden las máquinas.





