250 archivos maliciosos bastan para envenenar las respuestas de enormes modelos de IA
Un nuevo estudio muestra que los ataques data poisoning son más factibles de lo que se creía: para envenenar un modelo de IA no se requiere amplio acceso a su conjunto de datos de entrenamiento.