Anthropic ha appena lanciato Claude 4: non un singolo modello, ma una gamma completa. Ci sono Opus (il peso massimo), Sonnet (il nuovo standard) e Haiku (leggero e veloce).

Questo non è un lancio pubblicitario. È un lancio strutturale.

Stanno implementando strumenti, memoria, livelli di sicurezza e una direzione chiara: un'intelligenza artificiale che si manifesta, rimane attiva e fornisce un aiuto concreto.

Cosa dice l'azienda

Anthropic afferma che Claude 4 è progettato per gestire più attività, più passaggi, più complessità, con maggiore controllo.

  • Può gestire processi più lunghi
    Claude Opus è stato sottoposto a test su attività di codifica della durata di sette ore consecutive.

  • Sta operando con misure di sicurezza più severe
    Opus 4 utilizza ASL-3: lo standard interno di Anthropic che copre la resistenza al jailbreak, la sicurezza informatica e il monitoraggio dei rischi.

  • È fatto per il vero lavoro
    Dotato di strumenti, memoria e API, è strutturato per un uso pratico, non per il divertimento.

L'amministratore delegato Dario Amodei ha descritto il rilascio di Sonnet come un'operazione attesa da "passi significativi".

Cosa significa (in parole umane)

Claude 4 non sta cercando di essere il tuo amico del chatbot. È stato progettato per gestire di più: non solo risposte intelligenti, ma lavoro vero.

Ecco come appare:

  • Utilizza strumenti: può prendere file, cercare cose e chiamare funzioni per svolgere attività reali

  • Contiene più contesto: non solo risposte una tantum, ma lunghe catene di ragionamento

  • Tiene traccia di cose come il tuo tono, i tuoi obiettivi e le cose su cui stai lavorando

  • Rimane stabile, quindi non devi ricominciare da capo quando qualcosa diventa complesso

Questo aggiornamento riguarda meno ciò che Claude dice e più ciò che Claude è ora pronto a fare.

Uniamo i puntini

Concentriamoci su ciò che conta davvero in questa nuova versione: ciò che rende Claude 4 più usabile e affidabile nel lavoro quotidiano.

🧠 Può contenere il contesto (senza renderlo strano)

Claude 4 ora supporta:

  • Fino a 200.000 token di input (~500 pagine)

  • Opus produce fino a 32.000 token; Sonnet può raggiungere 64.000

  • Memoria che tiene traccia del tuo nome, delle tue preferenze, del tono di scrittura e delle attività precedenti

  • Una scheda Memoria visibile in cui è possibile visualizzarla, modificarla o eliminarla

Non si tratta di rendere l'IA personale. Si tratta di renderla utile praticamente. Portando con sé il contesto in modo discreto, senza chiederti di ripeterti.

Claude 4 vs. ChatGPT: confronto tra memoria e contesto

Caratteristica

Claude 4 (Opus e Sonetto)

ChatGPT (GPT-4-turbo)

Finestra di contesto

Fino a 200.000 token

Fino a 128.000 token

Lunghezza di uscita

Opus: 32.000 gettoni

Sonetto: 64.000

Fino a 4.096 token

Disponibilità di memoria

Attivato per impostazione predefinita in Opus e Sonnet

Solo su GPT-4 (a pagamento)

Cosa traccia

Nome, tono, preferenze, file/attività precedenti

Nome, preferenze, obiettivi noti

Controlli della memoria

Scheda Memoria completa per modificare/eliminare in qualsiasi momento

Trovato nelle impostazioni dell'account (meno visibile)

Accesso al piano gratuito

Sì (Sonetto)

Nessuna memoria nel livello gratuito (solo 3.5)

Posizionamento

Incorniciato come supporto per utensili

Inquadrato come comodità per l'utente

🔒 È dotato di limiti integrati: per limiti intendiamo sicurezza

Claude Opus 4 funziona al livello di sicurezza AI 3, il parametro di riferimento interno di Anthropic.

Ecco cosa include realmente:

  • Red-teaming (dentro e fuori)

  • Formazione e filtri anti-jailbreak

  • Protezioni informatiche per strumenti e utilizzo dei file

  • Monitoraggio di pregiudizi, danni o comportamenti sospetti

  • Aggiornamenti promessi e report sulla trasparenza

Non è una certificazione globale. Ma è una linea chiara che stanno tracciando per se stessi e che stanno rispettando.

Sicurezza e protezione dell'intelligenza artificiale: Claude 4 contro il campo

Fornitore

Modello

Quadro di sicurezza

Misure chiave

Note

Antropico

Claude Opus 4

Livello di sicurezza AI 3

Red-teaming, filtri jailbreak, sicurezza informatica, monitoraggio dei rischi

Autodichiarato, include revisione esterna + monitoraggio

OpenAI

GPT-4

garanzie interne

RLHF, moderazione, API crittografate, SOC 2

Nessuna scala di sicurezza pubblica; si concentra sugli output dannosi

Google

Gemelli

Quadro di rischio interno

Test di bias, filtri di strumenti, verifiche dei fatti, valutazioni avversarie

I team di sicurezza sono stati integrati prima del lancio

Meta

LLaMA 3

Strumenti del lama viola

Llama Guard, Prompt Guard, Firewall

Open source; la sicurezza è controllata dallo sviluppatore

Maestrale

Modelli Mistral

API di moderazione

Filtri di lingua, modalità provvisoria, crittografia

Personalizzabile; meno impostazioni predefinite, più aperto per progettazione

Conclusione

  • Cosa c'è ora: Claude Opus (avanzato), Sonnet (predefinito), Haiku (leggero)

  • Usalo qui:
    Disponibile app Web, API e iOS

  • Utilizzo dello strumento: caricamento di file, funzioni e recupero - integrati

  • Memoria: attiva in Opus e Sonetto, modificabile in qualsiasi momento

  • Finestra di contesto: fino a 200.000 token

  • Livello di sicurezza: Opus funziona secondo il livello ASL-3 di Anthropic

  • Prezzi API:
    Opus: circa 15$ in entrata / circa 75$ in uscita per milione di token
    Sonetto: ~$3 in / ~$15 out

  • Livello gratuito: Sì — Claude Sonnet

  • Per saperne di più

Questa versione non ha lo scopo di apparire appariscente. Si tratta di dare all'intelligenza artificiale la struttura per essere davvero d'aiuto.

Prospettiva del team di Frozen Light

Claude ha appena pubblicato una nuova uscita.
Ed è pieno di tutte le parole che abbiamo già sentito.

Ragionamento. Progettato per il codice. Progettato per i compiti.
E naturalmente, una nuova attenzione alla sicurezza.
Ma questa è la loro versione interna di cosa significa "sicuro".
E a quanto pare, stanno rispettando questo standard.
(Nota a margine: se hai scritto lo standard e non lo hai rispettato, quella sarebbe la vera storia.)

Quindi come si fa a dargli un senso?

Guardi l'azienda.
Perché le aziende esistono per generare fatturato attraverso il valore.
E la vera domanda è:
Il valore che creano è realmente in linea con le tue esigenze?

Per contestualizzare, ecco cos'altro è successo questa settimana:

Noi di Frozen Light abbiamo scritto di:

  • Google Build: dove Gemini si è collegato a Gmail, telefoni, generazione video e qualsiasi altra cosa potesse

  • Un nuovo listino prezzi in arrivo nell'ecosistema di Google

  • OpenAI acquisisce un'azienda hardware: si espande dai modelli al modo in cui interagiamo con essi

  • OpenAI si muove rapidamente anche sui plugin di Spotify, sulle integrazioni dell'area di lavoro e altro ancora

Questo dipinge un quadro generale.

Se sei un'azienda LLM con una piattaforma, una distribuzione e degli utenti, sei già integrato.
Costruisci dall'interno. Fai parte del flusso di lavoro delle persone.

Claude non ha questo.

Quindi devono essere i migliori.
Ma migliore in cosa?

Al momento la risposta è questa:
Diventa un LLM sicuro.
Più sicuro.
Più strutturato.
E creare il tipo di esperienza di cui, secondo loro, gli utenti di intelligenza artificiale hanno bisogno ora.

Ed è per questo che il nuovo aggiornamento di Claude è importante:
perché dovevano elaborare le proprie regole e rispettarle (occhiolino, occhiolino).
Ma ehi, è comunque la loro storia da raccontare, anche se la costruiscono strada facendo.

Alla fine, il miglior consiglio che possiamo darti è questo:
Controlla di cosa hai realmente bisogno e verifica se la direzione aziendale di Claude, che segnala chiaramente i suoi obiettivi a lungo termine, è in linea con la tua.

E sì, abituati all'idea che potresti aver bisogno di più di un LLM.
Non si tratta di una questione di uno contro l'altro.
La domanda è: di cosa ho bisogno e chi può effettivamente fornirmelo?

Expert Voices

Max Gibson
Max Gibson

Claude Is Still the King of AI Image Analysis - Here’s Why

Share Article

Get stories direct to your inbox

We’ll never share your details. View our Privacy Policy for more info.