La giudice federale Rita Lin annulla la designazione di Anthropic come 'rischio per la catena di approvvigionamento' decisa dal Pentagono a marzo. Lin scrive che la classificazione è 'contraria alla legge e arbitraria'. Il Dipartimento della Difesa non poteva punire Anthropic per le sue restrizioni d'uso su Claude. Ordine preliminare che ripristina lo status quo al 27 febbraio, aprendo strada ai clienti federali USA.
Tag: normativa
24 notizie con questo tag
L'Ordine degli Avvocati della California propone di integrare un modulo obbligatorio sull'AI nei 6 crediti di formazione pratica per i 25 law school dello Stato. L'iniziativa, se approvata, renderebbe la California apripista nel panorama formativo giuridico statunitense e preverrebbe violazioni deontologiche derivanti da usi impropri di strumenti generativi.
Un avvocato milanese è stato condannato per aver utilizzato l'intelligenza artificiale al fine di produrre sentenze false e presentarle in aula. Il caso rappresenta il primo precedente giudiziario in Italia di abuso criminale della tecnologia nel settore legale, sollevando preoccupazioni sulla responsabilità professionale e legale nell'uso di AI.
Il Pentagono ha formalmente designato Anthropic come 'supply-chain risk', vietando ai servizi federali di usare le sue tecnologie. La decisione arriva dopo conflitto tra Anthropic (che voleva cautele sull'uso militare) e l'amministrazione Trump, che ha ordinato l'uso senza limitazioni. Anthropic intende contestare in tribunale la decisione, ritenuta potenzialmente illegale.
Il 9 marzo 2026 è stato presentato alla Camera dei Deputati l'Intergruppo Parlamentare 'AI, Empowerment e Mercati Emergenti', su iniziativa dell'on. Antonio Baldelli con supporto bipartisan. L'organo punta a promuovere il dialogo istituzionale su AI, innovazione tecnologica, empowerment femminile e sviluppo nei mercati emergenti. Cinque commissioni tematiche copriranno aree come energia sostenibile, healthcare, università, finanza e mercati emergenti.
La Commissione Europea ha aperto una consultazione pubblica sul Digital Fitness Check, con scadenza 11 marzo 2026, per valutare l'impatto cumulativo dell'intero corpus normativo digitale europeo sulla competitività UE. Parallelamente, si avvicina il termine cruciale del 2 agosto 2026: data in cui l'AI Act entrerà in piena vigore per i sistemi ad alto rischio. Le linee guida della Commissione per la classificazione dei sistemi AI, pubblicate il 2 febbraio 2026, sono ora operative.
La Legge italiana 132/2025 sull'AI — prima legge nazionale sull'AI nell'UE — continua a generare dibattito sul fronte del lavoro. I datori di lavoro devono garantire trasparenza sugli algoritmi decisionali, tutele per i lavoratori e documentazione verificabile dei sistemi AI usati in azienda. I decreti attuativi attesi entro ottobre 2026 definiranno diritti, obblighi e sanzioni specifici; nel frattempo, le aziende devono già adeguarsi ai principi generali della legge.
Il Ministero del Lavoro e delle Politiche Sociali ha pubblicato il documento fondativo 'Verso l'Osservatorio sull'adozione di sistemi di intelligenza artificiale nel mondo del lavoro', raccogliendo contributi di istituzioni, parti sociali e università per avviare il monitoraggio dell'impatto dell'AI sull'occupazione italiana. L'Osservatorio — istituito con decreto ministeriale dalla ministra Marina Calderone in attuazione della legge italiana sull'AI — è strutturato con un Comitato di indirizzo, una Commissione Etica presieduta da Paolo Benanti, una Consulta delle parti sociali e 4 comitati tecnico-scientifici. Analizzerà impatti su produttività, condizioni lavorative, salute e sicurezza e mobilità professionale.
Nel 2026 entrano nella fase operativa i principali obblighi dell'AI Act europeo per i sistemi classificati ad 'alto rischio', con impatti diretti sulle aziende italiane che utilizzano AI in HR, CRM, marketing e produzione. Le imprese devono oggi mappare i propri sistemi AI, classificare i casi d'uso per livello di rischio, produrre documentazione tecnica adeguata e implementare logging e tracciabilità. La guida di Dgroove per IT manager evidenzia che l'AI Act 2026 impone un cambio di paradigma: i sistemi devono essere tracciabili, controllabili e integrati in un framework di governance coerente, con percorsi verso la certificazione ISO 42001.
L'articolo 4 del Regolamento UE 2024/1689 (AI Act) rende l'AI Literacy un requisito normativo: non solo chi sviluppa sistemi AI, ma anche chi usa strumenti come ChatGPT o Claude per attività professionali è soggetto all'obbligo di formazione. Un nuovo paper del Cefriel chiarisce scadenze e competenze richieste: l'obbligo di garantire AI Literacy è già in vigore dal 2 febbraio 2025, le relative sanzioni dal 2 agosto 2025. Le organizzazioni devono dimostrare tracciabilità delle attività formative svolte.
AgID ha pubblicato l'aggiornamento 2026 del Piano Triennale per l'Informatica nella Pubblica Amministrazione, portando a 22 il numero di strumenti operativi a disposizione delle PA. Le novità principali riguardano la governance dei progetti AI, l'interoperabilità semantica e nuovi accordi di collaborazione con università e istituti di ricerca. Vengono consolidati i progetti sull'IT Wallet e aggiornate le sezioni dedicate all'intelligenza artificiale alla luce dell'AI Act e delle priorità europee.
L'articolo 4 del Regolamento UE 2024/1689 introduce l'obbligo di AI Literacy per tutte le organizzazioni che sviluppano o utilizzano sistemi di intelligenza artificiale. Il centro di innovazione Cefriel ha pubblicato un instant paper che chiarisce scadenze e tipologie di intervento formativo richieste: da percorsi di AI Awareness per manager e funzioni di business, fino a coaching e formazione tecnica specialistica. Con il 2 agosto 2026 come data cruciale per la piena applicazione dell'AI Act, le aziende devono dimostrare di aver adottato misure documentate e tracciabili.
La società italiana Techvisory ha completato un aumento di capitale da 2,5 milioni di euro con investitori istituzionali per accelerare lo sviluppo di TextGenius, piattaforma AI proprietaria pensata per ottimizzare processi in aree critiche come Legal, Compliance e Procurement. A differenza delle soluzioni AI generaliste, TextGenius garantisce percorsi completamente tracciabili e documentati, conformi al GDPR e alla normativa italiana su privacy e proprietà intellettuale. I fondi finanzieranno R&D, espansione commerciale e acquisizioni strategiche.
Il presidente di AGCOM Giacomo Lasorella ha annunciato il 18 febbraio che l'autorità invierà una segnalazione formale alla Commissione Europea riguardo all'AI Mode di Google, disponibile in Italia dall'ottobre 2025. Secondo AGCOM, la funzione — che risponde alle ricerche con riepiloghi generati dall'AI senza rimandare ai siti di origine — comprime la libertà d'informazione e viola l'articolo 3 dell'European Freedom Act. Anche la Federazione Italiana Editori Giornali (FIEG) ha presentato un esposto, definendo Google un 'traffic killer' che sottrae lettori e ricavi agli editori.
Il 19 febbraio il Ministero del Lavoro e delle Politiche Sociali ha reso pubblico il documento 'Verso l'Osservatorio sull'adozione di sistemi di intelligenza artificiale nel mondo del lavoro', una raccolta di contributi multistakeholder che segna l'avvio operativo del nuovo organismo istituzionale. L'Osservatorio — presieduto dal Ministro e composto da un Comitato di indirizzo, una Commissione Etica (guidata da Paolo Benanti), una Consulta delle parti sociali e 4 Comitati tecnico-scientifici — avrà il compito di monitorare gli impatti dell'IA su produttività, occupazione e condizioni di lavoro e di definire la strategia nazionale.
Con l'Avviso 4/2025, Fondimpresa mette a disposizione 5 milioni di euro per finanziare la formazione sull'intelligenza artificiale nelle aziende aderenti. I piani formativi ammissibili vanno da 40.000 a 150.000 euro e devono essere collegati a progetti concreti di adozione AI in azienda. Le domande si apriranno il 25 febbraio 2026: le imprese hanno poche settimane per strutturare la proposta.
Il 2 febbraio 2026 ha segnato una scadenza fondamentale per il Regolamento UE sull'intelligenza artificiale: tutti i sistemi AI a rischio limitato devono ora rispettare gli obblighi di trasparenza e classificazione. Le aziende italiane che non hanno ancora mappato i propri sistemi AI rischiano sanzioni fino a 35 milioni di euro o il 7% del fatturato globale. Il D.lgs. 132/2025 impone inoltre di aggiornare notifiche ai clienti, rivedere i contratti e predisporre processi di verifica ispettiva.
Il Garante per la Protezione dei Dati Personali ha varato il piano delle attività ispettive per il primo semestre 2026, inserendo tra le priorità i controlli sull'utilizzo dell'intelligenza artificiale in ambito scolastico, accanto a data breach, whistleblowing e telemarketing. La mossa segnala una crescente attenzione delle autorità italiane all'uso dell'AI con i minori, in coerenza con i principi GDPR e con le disposizioni dell'AI Act sui sistemi ad alto rischio. I fornitori di strumenti educativi basati su AI sono i soggetti più esposti ai controlli.
La Commissione europea ha avviato un procedimento formale contro xAI ai sensi del Digital Services Act per la generazione, da parte di Grok, di immagini sessualizzate — inclusi contenuti raffiguranti minori. Tra fine dicembre 2025 e inizio gennaio 2026 il chatbot ha prodotto circa 3 milioni di immagini problematiche, di cui circa 23.000 con soggetti minorenni. In caso di violazioni accertate, xAI rischia sanzioni fino al 6% del fatturato globale; l'indagine si estende anche alla piattaforma X per la valutazione dei rischi sistemici dei suoi algoritmi di raccomandazione.
L'AI Act europeo impone alle aziende che sviluppano o utilizzano sistemi di IA — inclusi deployer di ChatGPT, Microsoft Copilot e strumenti analoghi — di garantire che i propri dipendenti abbiano un livello sufficiente di alfabetizzazione sull'AI. I divieti per le pratiche ad alto rischio e gli obblighi di AI literacy sono in vigore dal 2 febbraio 2025, ma molte aziende italiane sono ancora indietro: esperti di Cefriel chiariscono che serve un approccio multilivello — tecnico, culturale, organizzativo ed etico — e che la carenza di talenti è il primo ostacolo per il 39% delle imprese.
Il 28 gennaio, presso la Sala Stampa della Camera dei Deputati, si è tenuta la conferenza «Quando l'AI diventa arma: l'identikit della nuova minaccia digitale», promossa da ANGI con il deputato Alessandro Giglio Vigna. I dati presentati mostrano un aumento del 220% degli attacchi cyber abilitati dall'AI rispetto all'anno precedente, con oltre l'80% delle campagne di phishing globali già supportate da modelli generativi. I relatori hanno sottolineato l'urgenza di una risposta normativa europea coordinata e di investimenti nella cybersicurezza nazionale.
La 56ª edizione del World Economic Forum a Davos (19-23 gennaio) si apre con l'intelligenza artificiale come tema centrale assoluto: oltre 2.500 leader mondiali, tra cui 64 capi di Stato e 850 CEO, discutono dell'impatto dell'AI sul lavoro, sulla competitività europea e sui rischi geopolitici. La domanda chiave è se l'Europa riuscirà a costruire una propria industria AI competitiva o resterà dipendente da USA e Cina.
Annunciato il 9 gennaio, ChatGPT Salute continua a far discutere in Italia nella settimana del 13-19: il servizio permette agli utenti di collegare cartelle cliniche e dati da app di salute (come Apple Health) per ricevere supporto personalizzato su sintomi, esami e percorsi terapeutici. Il servizio è disponibile solo fuori dall'Area Economica Europea, confermando la frizione tra le ambizioni di OpenAI e il GDPR europeo.
Si avvicina la scadenza del 2 febbraio 2026, data in cui entrano in vigore le prime norme operative dell'AI Act europeo per i sistemi AI classificati ad alto rischio. Le categorie incluse riguardano applicazioni in ambito HR (selezione del personale, valutazione performance), credito, istruzione e sicurezza sul lavoro. La legge italiana sull'AI (Legge 132/2025) è già in vigore dal 7 novembre 2025, rendendo l'Italia uno dei primi Paesi europei con un quadro normativo nazionale.