Quando l’LLM elabora quel contenuto, può interpretare parti del testo come istruzioni operative, modificando il proprio comportamento. La particolarità è che l’attacco non sfrutta vulnerabilità eseguibili, ma ambiguità linguistiche perché la vulnerabilità non è nel codice, ma nel modo in cui il modello costruisce e interpreta il contesto
L'articolo Prompt ignition: la nuova superficie d’attacco dei modelli linguistici proviene da Cyber Security 360.
📖 Leggi l'articolo completo originale:
https://www.cybersecurity360.it/nuove-minacce/prompt-ignition-la-nuova-superficie-dattacco-dei-modelli-linguistici/ →