LiteLLM: perché la workstation dello sviluppatore diventa l’obiettivo principale
L’incidente LiteLLM dimostra come le postazioni di sviluppo siano oggi il vero perimetro critico: credenziali disperse, supply chain esposta e sicurez...
Leggi tutto →20 articoli in questa categoria
L’incidente LiteLLM dimostra come le postazioni di sviluppo siano oggi il vero perimetro critico: credenziali disperse, supply chain esposta e sicurez...
Leggi tutto →
Nel corso della collaborazione con Mozilla Foundation, Claude Opus 4.6 ha contribuito a individuare 112 bug, tra cui 22 vulnerabilità di sicurezza con...
Leggi tutto →
Un documento pubblicato da OpenAI fuga ogni eventuale dubbio residuo: il rischio prompt injection è un problema strutturale dei LLM e non un bug. Ci s...
Leggi tutto →
I modelli di IA generativa utilizzati in ambienti riservati sono in grado di rispondere alle domande, ma al momento non imparano dai dati che analizza...
Leggi tutto →
Esistono bias linguistici profondi occulti nei large language models (LLM). Ecco le implicazioni concettuali, progettuali e normative, con particolare...
Leggi tutto →
L'era dell'intelligenza artificiale generativa richiede una nuova astrazione difensiva. I vettori di attacco semantici, come la prompt injection e il ...
Leggi tutto →
Quando l’LLM elabora quel contenuto, può interpretare parti del testo come istruzioni operative, modificando il proprio comportamento. La particolarit...
Leggi tutto →
Complice la diffusione di OpenClaw, ritorna attuale il tema della sicurezza degli agenti AI che, prima di essere questione tecnica, è materia prettame...
Leggi tutto →
L’escalation del braccio di ferro fra Anthropic e il Dipartimento della Guerra dell'amministrazione Trump ha avuto un esito imprevisto: l'impiego di C...
Leggi tutto →
Il nuovo numero della rivista IEEE Computer accende un faro sulla convergenza tra reti di agenti AI, la verifica dell'identità delle macchine e la res...
Leggi tutto →
I modelli linguistici di grandi dimensioni (LLM) testimoniano potenzialità in crescita sia nel generare codice che nelle attività cyber. Ecco quali va...
Leggi tutto →
L'integrazione dei Large Language Models (LLM) in applicazioni critiche pone questioni fondamentali riguardo alla sicurezza e all'affidabilità operati...
Leggi tutto →
Secondo il report di Google, gruppi riconducibili a Cina, Russia, Iran e Corea del Nord stanno impiegando modelli generativi come Gemini come supporto...
Leggi tutto →
Affrontare la complessità della sicurezza cyber richiede un approccio che sappia abbandonare l'illusione che tutto possa risolversi in una logica di o...
Leggi tutto →
A differenza dei chatbot statici, gli agenti LLM interagiscono con strumenti esterni, dati e servizi, creando nuovi modelli di minacce. Ecco come supe...
Leggi tutto →
I LLM falliscono sistematicamente nell'interpretazione giuridica: piccole variazioni nei prompt generano risposte opposte. Manca il senso comune giuri...
Leggi tutto →
Gli LLM hanno l'effetto di accelerare il ciclo di vita del ransomware, ma senza trasformarlo in maniera radicale. Ecco i tre cambiamenti strutturali c...
Leggi tutto →
La possibilità di degradazione esiste e le conseguenze potrebbero impattare su più fronti: affidabilità dei dati, sicurezza e modelli economici. Gli e...
Leggi tutto →
Nel cuore dei Security Operations Center, la pressione degli attacchi informatici è diventata travolgente, ma i LLM, pur non sostituendo il processo d...
Leggi tutto →
Dalla tappa milanese dell’Identity Business Day organizzato da Veridas e Sopra Steria emerge un quadro allarmante: il 3% dei processi di onboarding ba...
Leggi tutto →