NM

Il Team di Neomedia

30 aprile 202612 minNews Tech

OpenAI vs Anthropic: la guerra fredda dell'AI che cambia la cybersecurity

Due filosofie opposte per lo stesso problema: accesso aperto o controllo restrittivo ai modelli di intelligenza artificiale più potenti. Ecco cosa cambia per aziende e utenti italiani.

Cosa imparerai

  • Comprendere le differenze fondamentali tra l'approccio 'aperto' di OpenAI e quello 'restrittivo' di Anthropic alla cybersecurity basata su AI
  • Valutare i vantaggi e i limiti concreti di ciascun modello per un'azienda italiana
  • Applicare criteri decisionali per determinare se e quando adottare strumenti AI avanzati nella propria infrastruttura di sicurezza
  • Identificare le alternative esistenti oltre il duopolio OpenAI-Anthropic, incluse soluzioni open source e cloud-native
  • Collegare l'evoluzione degli strumenti AI di cybersecurity alle fondamenta di sicurezza che ogni azienda deve comunque garantire

Condividi

Nell'arco di una sola settimana della primavera 2026, il mondo della cybersecurity è stato scosso da due annunci che, messi uno accanto all'altro, disegnano il più netto bivio strategico che l'industria dell'intelligenza artificiale abbia mai tracciato. Da un lato OpenAI dichiara di voler mettere i propri modelli più avanzati «a ogni livello di governo» per combattere gli hacker; dall'altro Anthropic rilascia Claude Mythos con accesso rigidamente controllato, sostenendo che certi strumenti sono semplicemente troppo potenti per essere distribuiti in modo ampio. Non è una divergenza tecnica: è uno scontro di filosofie che ridefinirà gli equilibri della sicurezza digitale per gli anni a venire.

Per il lettore italiano – che gestisca un'azienda, lavori nella pubblica amministrazione o semplicemente usi Internet ogni giorno – la domanda non è accademica. La scelta tra «aprire» e «chiudere» l'intelligenza artificiale più potente determinerà quali strumenti arriveranno nelle mani dei difensori, quali in quelle degli attaccanti, e con quale rapidità. Ed è una domanda che, come vedremo, ha già bussato alla porta della Casa Bianca.

Due filosofie per lo stesso problema

Il 29 aprile 2026, OpenAI ha ufficializzato l'espansione del programma Trusted Access for Cyber (TAC), rendendo il proprio modello di punta – GPT-5.4-Cyber – disponibile a governi, aziende e ricercatori selezionati. L'annuncio è stato accompagnato da un workshop pratico tenutosi a Washington con rappresentanti del Pentagono, della Casa Bianca, del Department of Homeland Security (DHS) e della DARPA, l'agenzia che per decenni ha finanziato le tecnologie più dirompenti del pianeta [cnn.com](https://www.cnn.com/2026/04/29/tech/openai-cybersecurity).

La tempistica non è casuale. Soltanto una settimana prima, Anthropic – l'azienda fondata da Dario e Daniela Amodei, ex dirigenti OpenAI – aveva presentato Claude Mythos Preview, un modello con capacità di analisi delle vulnerabilità che, secondo l'azienda, «supera di gran lunga gli esperti umani» [bbc.com](https://www.bbc.com/future/article/20260428-ai-companies-want-you-to-be-afraid-of-them). Anthropic ha scelto di distribuire Mythos a circa 40 organizzazioni selezionate – tra cui Amazon, Apple e Microsoft – giustificando la restrizione con un principio tanto semplice quanto controverso: questo modello è troppo efficace nell'individuare e sfruttare falle di sicurezza per essere distribuito senza controllo.

Cosa può fare GPT-5.4-Cyber

GPT-5.4-Cyber non è un modello generico adattato alla sicurezza: è una variante fine-tuned di GPT-5.4, ottimizzata specificamente per flussi di lavoro difensivi. La caratteristica più significativa è il reverse engineering binario: il modello può analizzare software compilato (file binari ed eseguibili) per individuare malware, vulnerabilità e debolezze architetturali senza richiedere accesso al codice sorgente. Una capacità che apre scenari concreti per l'analisi forense di software sospetto e per la valutazione della sicurezza di sistemi closed-source [key4biz.it](https://www.key4biz.it/gpt-5-4-cyber-openai-sfida-anthropic-dopo-il-caso-mythos-al-via-la-competizione-sullai-cyber/569785/).

I numeri raccontano un salto generazionale. GPT-5.4-Cyber raggiunge l'88% di successo nelle simulazioni di attacchi informatici e supera il 73,33% degli scenari nel benchmark Cyber Range, che replica operazioni cyber end-to-end. Per contestualizzare: GPT-5 nell'agosto 2025 si attestava al 27% sullo stesso benchmark; GPT-5.1-Codex-Max a novembre 2025 arrivava al 76% [digitalworlditalia.it](https://www.digitalworlditalia.it/tecnologie-emergenti/intelligenza-artificiale/openai-risponde-a-claude-mythos-con-gpt-5-4-cyber-ad-accesso-ristretto-a-vendor-di-security-178941).

«Questo è uno sport di squadra. Nessuno dovrebbe essere nel business di scegliere vincitori e perdenti quando si tratta di cybersecurity.» – Fouad Matin, ricercatore cyber di OpenAI [techtalking.it](https://techtalking.it/openai-apre-cybersecurity-gpt-5-4-cyber/)

La Casa Bianca convoca le big tech: la cybersecurity diventa banco di prova

La posta in gioco è così alta che, mentre le due aziende si contendevano la narrativa pubblica, la Casa Bianca ha agito d'urgenza. Il 28 aprile 2026 – il giorno prima dell'annuncio OpenAI – il National Cyber Director Sean Cairncross ha convocato un tavolo riservato con rappresentanti di OpenAI, Anthropic, Google e alcune delle principali banche americane per discutere l'impatto dei nuovi modelli di AI sulla cybersecurity nazionale [politico.com](https://www.politico.com/news/2026/04/28/white-house-huddle-cyber-mythos-00896589).

Non è un dettaglio procedurale. È il riconoscimento esplicito che l'intelligenza artificiale ha raggiunto un punto di svolta: non è più soltanto un acceleratore di produttività o un generatore di contenuti, ma uno strumento tecnico con implicazioni dirette sulla sicurezza nazionale. E la cybersecurity – molto più dei chatbot o della generazione di immagini – è il terreno su cui si misureranno le future regolamentazioni dell'AI.

Parallelamente, OpenAI e Anthropic hanno tenuto briefing a porte chiuse con lo staff della Commissione Homeland Security della Camera dei Rappresentanti [axios.com](https://www.axios.com/2026/04/28/openai-anthropic-congress-cyber-briefings). È una delle prime volte che i legislatori statunitensi vengono informati direttamente sulle minacce cyber poste dai modelli di frontiera, segnando un'accelerazione del processo di regolamentazione che fino a pochi mesi fa sembrava destinato a restare indietro rispetto alla tecnologia.

Verifica dell'identità vs controllo dell'accesso: i due modelli a confronto

Per comprendere la posta in gioco, occorre entrare nel merito dei due approcci. La differenza non è di grado, ma di natura.

Il modello OpenAI: accesso ampio, identità verificata

Il programma TAC di OpenAI si articola su tre livelli di verifica. I singoli utenti possono autenticarsi con documento d'identità governativo e controllo biometrico gestito da un fornitore terzo. Le aziende accedono tramite un rappresentante OpenAI dedicato. I ricercatori che necessitano delle capacità più avanzate – incluso il reverse engineering binario – entrano in un programma su invito [techtalking.it](https://techtalking.it/openai-apre-cybersecurity-gpt-5-4-cyber/).

Il principio è: distribuire il più possibile, filtrare chi accede. Un classificatore automatico monitora l'attività in tempo reale, cercando segnali di uso anomalo o offensivo. L'idea di fondo è che legare l'accesso a un'identità reale crei responsabilità legale e reputazionale: chi utilizza il modello per scopi malevoli lascia tracce riconducibili a una persona fisica.

Il modello Anthropic: accesso ristretto, controllo preventivo

Anthropic ha scelto la direzione opposta. Claude Mythos Preview è distribuito a circa 40 organizzazioni – grandi aziende tecnologiche e partner strategici – con l'argomento che il modello è semplicemente «troppo pericoloso per una distribuzione ampia» [bbc.com](https://www.bbc.com/future/article/20260428-ai-companies-want-you-to-be-afraid-of-them).

La logica è preventiva: se un'arma è troppo potente, limitarne la circolazione è più efficace che cercare di controllare chi la impugna. Anthropic ha inserito salvaguardie direttamente nella «Costituzione» di Claude – un insieme di principi etici incorporati nel modello – e chiede ai partner garanzie contrattuali esplicite contro usi offensivi.

Lo scontro con il Pentagono del febbraio 2026 è il caso più emblematico: il Dipartimento della Difesa ha chiesto ad Anthropic di rimuovere ogni restrizione per l'uso militare. Dario Amodei ha rifiutato. Il Pentagono ha designato Anthropic come «rischio per la catena di fornitura» – classificazione mai applicata prima a un'azienda americana – e poche ore dopo ha firmato con OpenAI un accordo apparentemente basato sugli stessi principi [digitalworlditalia.it](https://www.digitalworlditalia.it/sicurezza/cyberwarfare/pentagono-openai-anthropic-contratto-178197).

Vantaggi e limiti: quale modello funziona davvero?

Entrambi gli approcci hanno punti di forza e criticità che meritano di essere valutati pragmaticamente, al di là delle dichiarazioni di principio.

I punti di forza dell'approccio OpenAI

  • Copertura difensiva ampia: mettere strumenti potenti nelle mani di molti difensori riduce l'asimmetria a favore degli attaccanti, che tipicamente hanno accesso a tool avanzati sul dark web senza alcuna verifica.
  • Responsabilità tracciabile: l'identità verificata crea deterrenza. Un ricercatore legittimo ha tutto l'interesse a non abusare di credenziali riconducibili alla propria persona.
  • Velocità di adozione: più organizzazioni possono integrare rapidamente l'AI nei propri flussi di difesa, riducendo il tempo medio di rilevamento delle minacce.

Le criticità dell'approccio OpenAI

  • La verifica biometrica non garantisce le intenzioni: un attore statale o un gruppo criminale ben organizzato può costruire una copertura credibile – azienda registrata, pubblicazioni scientifiche, certificazioni reali – ottenendo accesso legittimo per scopi offensivi.
  • Criteri opachi: OpenAI non ha reso pubblici i criteri specifici di valutazione per l'accesso ai tier avanzati, né i processi di appello per i dinieghi [techtalking.it](https://techtalking.it/openai-apre-cybersecurity-gpt-5-4-cyber/).
  • Rischio di escalation: un'ampia distribuzione di capacità di analisi delle vulnerabilità potrebbe accelerare la corsa agli armamenti digitali, con attaccanti che sviluppano contromisure più rapidamente.

I punti di forza dell'approccio Anthropic

  • Contenimento del rischio: limitare l'accesso ai modelli più potenti riduce la probabilità che cadano nelle mani sbagliate, soprattutto nel breve termine.
  • Garanzie contrattuali esplicite: i partner selezionati devono sottoscrivere impegni vincolanti contro usi offensivi, creando un perimetro legale definito.
  • Principi etici incorporati: la «Costituzione» di Claude rappresenta un tentativo di integrare vincoli morali direttamente nell'architettura del modello.

Le criticità dell'approccio Anthropic

  • Asimmetria a favore degli attaccanti: mentre i difensori rispettano restrizioni etiche, gli attaccanti – che operano al di fuori di qualsiasi framework legale – continueranno a usare strumenti AI sempre più potenti, anche sviluppati da altri attori (stati, criminalità organizzata).
  • Concentrazione del potere: se solo poche organizzazioni hanno accesso agli strumenti più avanzati, si crea un oligopolio della difesa cyber che esclude PMI, enti locali e paesi con minori risorse [bbc.com](https://www.bbc.com/future/article/20260428-ai-companies-want-you-to-be-afraid-of-them).
  • Falsa sicurezza: limitare l'accesso a 40 organizzazioni non garantisce che queste non vengano a loro volta compromesse, fungendo da canale indiretto per attori malevoli.

L'impatto sulle aziende italiane: cosa cambia nella pratica

Per un'impresa italiana – tipicamente una PMI con budget IT contenuto – il confronto tra OpenAI e Anthropic non è una discussione da addetti ai lavori. Ha conseguenze molto concrete.

Con l'approccio OpenAI, un'azienda italiana potrebbe potenzialmente accedere a strumenti di automazione della ricerca di vulnerabilità prima impensabili, utilizzandoli per testare la sicurezza delle proprie applicazioni web, dei sistemi gestionali o delle reti interne. Con l'approccio Anthropic, questi stessi strumenti resterebbero riservati a un club ristretto di grandi organizzazioni globali, creando un doppio binario: difese di livello enterprise per pochi, difese tradizionali per tutti gli altri.

Non è una questione astratta. Già oggi, secondo dati di settore, il 43% degli attacchi informatici prende di mira le piccole imprese, che spesso non dispongono né di personale specializzato né di strumenti avanzati di detection. In Italia, il fenomeno ransomware ha colpito migliaia di realtà produttive, con danni che vanno dal fermo operativo alla perdita irreversibile di dati.

OpenAI ha anche annunciato che introdurrà nuove funzionalità di sicurezza per ChatGPT a consumo, potenzialmente accessibili anche alle PMI italiane senza la necessità di contratti enterprise [cnn.com](https://www.cnn.com/2026/04/29/tech/openai-cybersecurity). Se questa democratizzazione si concretizzasse, potrebbe rappresentare un salto di qualità per tutto l'ecosistema produttivo italiano, riducendo il gap difensivo tra grandi corporazioni e piccole imprese.

Quando conviene e quando no: criteri decisionali per le aziende

Di fronte a questa biforcazione strategica, un responsabile IT o un imprenditore deve porsi domande precise per orientarsi.

Quando ha senso l'approccio OpenAI

  1. L'azienda ha già una postura di sicurezza di base: firewall aggiornati, backup regolari, autenticazione a due fattori attiva. L'AI avanzata non sostituisce le fondamenta, le potenzia.
  2. Il team IT è in grado di interpretare i risultati: GPT-5.4-Cyber può trovare una vulnerabilità, ma serve un professionista per valutare il contesto, assegnare priorità e pianificare la remediation.
  3. I dati sensibili sono già isolati: inviare codice o log a un modello cloud comporta rischi di esposizione. Prima di usare strumenti AI esterni, è essenziale aver mappato e segregato i dati critici, anche con l'aiuto di soluzioni AI locali dove necessario.

Quando NON ha senso (o è prematuro)

  1. L'azienda non ha ancora completato le basi: se mancano patch management, segmentazione di rete e formazione anti-phishing, investire in AI avanzata è come installare un allarme satellitare su una porta senza serratura.
  2. Mancano processi di risposta agli incidenti: identificare 500 vulnerabilità senza un team e un processo per gestirle può essere paralizzante, non utile.
  3. I requisiti di compliance richiedono controllo totale sui dati: settori regolamentati (sanità, finanza, difesa) potrebbero trovare più adatto l'approccio controllato di Anthropic o, meglio ancora, soluzioni edge che mantengono l'elaborazione on-premise.

Alternative e scenari futuri: oltre il duopolio

Ridurre la questione a «OpenAI contro Anthropic» sarebbe un errore di prospettiva. Esistono altre opzioni e lo scenario è in rapida evoluzione.

Google, con il suo modello Gemini, sta investendo massicciamente nella sicurezza enterprise: Macquarie Bank, in Australia, ha risparmiato 130.000 ore di lavoro in sette mesi utilizzando Gemini Enterprise [itnews.com.au](https://www.itnews.com.au/news/macquarie-bank-saves-130000-hours-in-seven-months-of-gemini-enterprise-use-625385). Anche se Google non ha (ancora) preso una posizione pubblica altrettanto netta sull'accesso ai modelli di cybersecurity, la sua presenza al tavolo della Casa Bianca suggerisce che un terzo polo è in formazione.

Sul fronte delle soluzioni open source, OpenAI ha esteso il programma Codex a oltre mille repository con scanning gratuito e ha contribuito con finanziamenti a iniziative di sicurezza open source attraverso la Linux Foundation [digitalworlditalia.it](https://www.digitalworlditalia.it/tecnologie-emergenti/intelligenza-artificiale/openai-risponde-a-claude-mythos-con-gpt-5-4-cyber-ad-accesso-ristretto-a-vendor-di-security-178941). Strumenti come Semgrep, CodeQL e framework di vulnerability scanning open source offrono già oggi capacità significative, seppur non paragonabili a quelle dei modelli di frontiera, per le aziende che preferiscano non dipendere da un singolo vendor.

Un ulteriore fattore da monitorare è lo sviluppo delle difese AI-native: AWS, ad esempio, sta lavorando su architetture che integrano protezioni contro minacce di AI e computazione quantistica direttamente nell'infrastruttura cloud, con l'obiettivo di rendere la sicurezza un attributo della piattaforma piuttosto che uno strato aggiuntivo [csoonline.com](https://www.csoonline.com/article/4164624/aws-leans-on-prior-ingenuity-to-face-future-ai-and-quantum-threats.html).

Il fattore umano: l'anello debole resta tale

In tutto questo dibattito sull'AI, c'è un dato che merita attenzione: l'insoddisfazione dei professionisti della cybersecurity è in aumento. Secondo un report recente, un numero crescente di esperti di sicurezza valuta di cambiare settore a causa del carico di lavoro insostenibile e della pressione psicologica [scworld.com](https://www.scworld.com/brief/job-dissatisfaction-among-cybersecurity-professionals-on-the-rise).

Questo significa che, indipendentemente da quale filosofia prevalga, il fattore umano resta il punto critico. L'AI può automatizzare l'analisi delle vulnerabilità, ma non può sostituire il giudizio umano nella definizione delle priorità di intervento, nella gestione delle crisi e nella comprensione del contesto di business.

Per le aziende italiane, il messaggio è chiaro: investire in strumenti AI senza investire parallelamente nella formazione del personale e nella costruzione di processi di sicurezza è una strategia destinata a fallire. La protezione perimetrale tradizionale va ripensata, ma le fondamenta – consapevolezza del phishing, gestione centralizzata delle identità, backup verificati – restano indispensabili.

Conclusione: la cybersecurity non è una scelta binaria

Lo scontro tra OpenAI e Anthropic non è una partita di tennis in cui si tifa per un giocatore. È un laboratorio globale che sta testando due ipotesi contrapposte sulla sicurezza dell'intelligenza artificiale, e il risultato dipenderà da fattori che nessuna delle due aziende controlla completamente: l'evoluzione delle minacce, le scelte dei regolatori, i comportamenti degli attaccanti.

OpenAI ha pubblicato un «action plan» per coordinare la cybersecurity tra governo e industria e sta progressivamente estendendo l'accesso ai propri strumenti. Anthropic mantiene la sua linea di principio, sostenendo che l'assenza di regole chiare impone alle aziende di essere più prudenti, non meno. La Casa Bianca, dal canto suo, ha capito che non può restare spettatrice e ha avviato un processo di coordinamento che coinvolge aziende, banche e agenzie federali.

Per il lettore italiano, la lezione è pragmatica: nessuno dei due approcci è «quello giusto» in assoluto. La scelta dipende dal profilo di rischio specifico, dalla maturità della propria infrastruttura di sicurezza e dalla capacità interna di gestire strumenti potenti. L'importante è sapere che il bivio esiste, che le conseguenze sono concrete, e che la finestra per prendere decisioni informate – prima che lo scenario evolva ulteriormente – è adesso.

A cura di Il Team di Neomedia

Contenuto generato con AI e revisionato dalla redazione