Anthropic ha appena bloccato l'utilizzo dell'API Claude da parte di OpenAI, incluso Claude Code.
Perché?
Perché credono che OpenAI abbia infranto le regole.
OpenAI ha avuto accesso a Claude e lo ha utilizzato nei propri strumenti di test interni.
Stavano confrontando Claude con i loro modelli, forse addirittura utilizzandolo per migliorare GPT-5.
Ad Anthropic questo non piaceva.
I loro termini stabiliscono che non è possibile utilizzare Claude per costruire o addestrare un modello concorrente.
Quindi hanno escluso OpenAI.
Proprio prima del lancio di GPT-5 .
Cosa dicono le aziende
Anthropic sostiene che OpenAI ha infranto le regole.
Non consentono alle persone di usare Claude per addestrare o migliorare modelli concorrenti, soprattutto non a questa scala.
Hanno detto:
"I paragoni superficiali sono accettabili. Ma usare Claude per migliorare il proprio modello? Non è consentito."
OpenAI non è contenta.
Hanno affermato di essere "delusi" e hanno sottolineato che Anthropic ha ancora accesso all'API di OpenAI.
Hanno anche detto:
“Il benchmarking dei concorrenti è una pratica standard.”
Ma non hanno detto se hanno effettivamente utilizzato Claude per addestrare GPT-5.
Cosa significa (in parole umane)
OpenAI aveva accesso all'API di Claude.
Lo hanno inserito nei loro strumenti interni e lo hanno testato insieme ai loro modelli, probabilmente per vedere come Claude gestiva aspetti come il codice, i messaggi di sicurezza e il ragionamento.
Anthropic lo considerava un superamento del limite.
I loro termini stabiliscono che non è possibile utilizzare Claude per costruire o addestrare un modello concorrente.
Così chiusero la porta.
Non si tratta solo di OpenAI contro Anthropic.
Se stai concedendo l'accesso API al tuo software, questo è importante.
Ti fidi delle persone non solo perché lo usino, ma anche perché non imparino da esso in modi che potrebbero danneggiarti.
Collegare i puntini
Questa è davvero una novità?
Diamo un'occhiata ai fatti.
Cosa dicevano realmente i Termini e Condizioni di Anthropic?
In base ai Termini di servizio commerciali di Anthropic, ai clienti non è consentito:
“Utilizzare i Servizi per creare un prodotto o un servizio concorrente, incluso per addestrare modelli di intelligenza artificiale concorrenti.”
“Effettuare il reverse engineering o duplicare i Servizi.”
Questa clausola è il motivo per cui Anthropic afferma di aver revocato l'accesso all'API di OpenAI.
Fonte: WIRED – Luglio 2025
Qual è lo scopo di concedere a qualcuno l'accesso API?
Un'API (Application Programming Interface) consente ad altri prodotti o servizi di interagire con un modello su larga scala, tramite l'automazione.
Quando le aziende concedono l'accesso all'API, solitamente lo fanno:
Per integrare l'intelligenza artificiale in strumenti, app o flussi di lavoro
Per eseguire attività su larga scala come la sintesi, la codifica o la classificazione
Per consentire agli sviluppatori di testare e creare nuove funzionalità utilizzando le capacità del modello di intelligenza artificiale
L'utilizzo delle API non è quasi mai manuale. Significa accesso in massa, utilizzo ripetuto e solitamente automazione, ed è proprio per questo che le aziende stabiliscono regole su come utilizzarle.
Anthropic sapeva che OpenAI stava utilizzando la sua API?
Sì, e tutti gli indizi indicano che si tratta di una mossa calcolata, non una sorpresa.
OpenAI avrebbe dovuto registrarsi per l'accesso all'API di Claude, il che significa che Anthropic glielo ha concesso consapevolmente. L'utilizzo dell'API è tracciabile e provider come Anthropic monitorano chi chiama i propri modelli e come.
Il fatto che questa revoca sia avvenuta poco prima del presunto lancio di GPT-5, e sia stata resa pubblica, suggerisce una strategia, non un incidente. Anthropic ha anche citato una violazione dei propri Termini di servizio, il che suggerisce che questa non sia stata la prima preoccupazione sollevata.
Quindi, sebbene la dichiarazione pubblica facesse sembrare che si trattasse di un'applicazione della legge, è più probabile che si sia trattato di una linea tracciata deliberatamente, secondo i termini di Anthropic, in un momento da loro scelto.
Conclusione
All'inizio di agosto 2025, Anthropic ha revocato l'accesso API di OpenAI a Claude.
Motivo addotto: violazione dei Termini di servizio di Anthropic.
Questa mossa è avvenuta poco prima del previsto lancio di GPT-5 da parte di OpenAI.
In precedenza OpenAI aveva accusato altri modelli, come DeepSeek , di addestrarsi sui propri output, una preoccupazione crescente nella corsa all'intelligenza artificiale.
L'accesso all'API è concesso consapevolmente; l'utilizzo è tracciabile.
Anthropic ha reso pubblica questa revoca, a dimostrazione di una decisione strategica.
Sollecitalo
Se la tua app fornisce un'API, chiedi al tuo LLM:
"Fornitemi idee per individuare possibili usi impropri della nostra API, in particolare da parte di concorrenti o utenti che raggiungono volumi elevati.
Quali modelli nei log, nell'attività di autenticazione o nel traffico potrebbero segnalare qualcosa di insolito?"
Non fermerà da solo l'abuso,
ma può aiutarti a individuarlo in anticipo e ad agire rapidamente.
Prospettiva del team di Frozen Light
Questa non è una novità. Questa è strategia.
E ora vi lanceremo una teoria del complotto.
Sembra che Anthropic sapesse che OpenAI stava utilizzando la sua API, oppure non vuole ammettere il contrario.
Perché dire "non ce ne siamo accorti" farebbe una brutta figura.
Ma non dicono nemmeno: "Non lo sapevamo". Quel silenzio dice qualcosa.
E ora, proprio prima del lancio previsto di ChatGPT-5, rendono pubblica la "violazione dei termini"?
Mentre OpenAI sostiene che si trattava solo di un accesso standard?
Sembra che Anthropic stia preparando la tavola da surf prima che arrivi l'onda GPT-5.
Se ChatGPT-5 si rivelerà all'altezza delle aspettative, sapete già dove andranno a parare le voci:
Addestrato su Claude?
Codice creato utilizzando i modelli di Anthropic?
Quindi, prima ancora che il giro abbia inizio, Anthropic pagaia e pianta una bandiera.
Davvero? È una strategia intelligente.
E la logica alla base della nostra teoria è semplice:
Se vedessimo un concorrente che interferisce con il nostro Alex tramite un'API, non gli daremmo un secondo.
Li bloccheremmo, senza fare domande.
Quindi il fatto è che Anthropic non l'ha fatto?
Sì... strano.