Il 22 maggio 2025, la Camera dei rappresentanti degli Stati Uniti ha approvato un disegno di legge che prevede una moratoria di 10 anni su tutte le leggi statali o locali relative all'intelligenza artificiale.
Se diventasse legge, oltre 1.000 progetti di legge statali sull'intelligenza artificiale, attivi e in sospeso, dalla California al Colorado, verrebbero immediatamente congelati.
Agli Stati non sarà consentito regolamentare in alcun modo l'intelligenza artificiale.
Solo il governo federale può stabilire le regole e, finora, non esiste un piano chiaro o una tempistica per stabilirle.
La chiamano armonia normativa.
Ma sembra piuttosto un silenzio normativo.
🔹 Cosa dice il governo
La linea ufficiale:
“Un regolamento nazionale è meglio di cinquanta regolamenti diversi.”
I legislatori affermano che si tratta di:
Rendere più semplice la conformità per le aziende
Evitare un mosaico di regole confuse
Aiutare l'innovazione dell'intelligenza artificiale a procedere più velocemente senza attriti legali
Sulla carta, sembra un progresso.
Ma progresso per chi?
🔹 Cosa significa (in parole umane)
Questo disegno di legge stabilisce che per i prossimi 10 anni solo Washington potrà decidere come regolamentare l'intelligenza artificiale.
Gli stati perdono ogni voce in capitolo.
Ed ecco come appare nella vita reale:
Il tuo stato vuole vietare i deepfake negli spot elettorali? Non può.
La tua città vuole trasparenza su come la polizia usa la sorveglianza tramite intelligenza artificiale? No.
Il tuo consiglio scolastico vuole regole per gli strumenti di valutazione basati sull'intelligenza artificiale? Non è consentito.
Al momento sono in vigore oltre 1.000 leggi statali sull'intelligenza artificiale: se questa legge venisse approvata, verrebbero tutte eliminate.
Anche quando i rischi sono reali. Anche quando l'azione è urgente.
I sostenitori affermano che questo mantiene le cose pulite e unite.
Ma ecco il problema:
🔸 Il governo federale non ha ancora redatto alcuna vera regola sull'intelligenza artificiale.
🔸 Questo disegno di legge non crea un piano, ma impedisce a tutti gli altri di provarci.
🔸 Comunità con esigenze specifiche? Ignorate.
🔸 Innovazione locale nella sicurezza dell'IA? Congelata.
Quindi questa non è una semplificazione.
Si tratta di una pausa di 10 anni, mascherata da efficienza.
🔹 Conclusione
🟡 Questa non è ancora una legge: necessita ancora dell'approvazione del Senato
❌ Se approvata, bloccherebbe tutte le normative statali e locali sull'intelligenza artificiale fino al 2035
✅ Le aziende ottengono un unico percorso di conformità: meno grattacapi legali
🚫 Le comunità perdono il diritto di rispondere ai propri rischi legati all'IA
⚖️ La legge è oggetto di contestazioni legali (e potrebbe violare le regole del Senato)
❄️ Prospettiva del team di Frozen Light
Non si tratta solo di intelligenza artificiale.
La questione è chi può agire e chi deve aspettare.
I promotori di questa proposta di legge affermano:
"Mettiamo in pausa il caos e facciamolo in un modo: a modo nostro."
Ma lo abbiamo già visto prima.
"Centralizzazione" suona pulito, finché non mette a tacere le voci che contano.
Gli Stati sono sempre stati laboratori di innovazione, soprattutto nei settori della sicurezza tecnologica, dell'istruzione e della privacy.
Questo disegno di legge chiude i laboratori.
E lo fa senza offrire in cambio una soluzione funzionante.
Se il futuro dell'intelligenza artificiale deve funzionare per tutti, non può essere costruito solo da pochi.
Abbiamo bisogno di velocità, certo, ma abbiamo anche bisogno di diversità, adattabilità e risposta locale.
Altrimenti, l'unica cosa che viene regolamentata...
è la libertà di costruire meglio.