Inicio

250 archivos maliciosos bastan para envenenar las respuestas de enormes modelos de IA

Un nuevo estudio muestra que los ataques data poisoning son más factibles de lo que se creía: para envenenar un modelo de IA no se requiere amplio acceso a su conjunto de datos de entrenamiento.

  • play_circle_filled

    Fm Masters
    En Vivo

play_arrow skip_previous skip_next volume_down
playlist_play