MiniMax lancia M2.7, un modello AI progettato per agenti che usa se stesso per ottimizzare autonomamente i processi di reinforcement learning. Il modello evolve in produzione in cicli di 24 ore, coprendo il 30-50% del workflow tipico di ricerca RL senza intervento umano — un salto oltre la staticità tradizionale dei modelli.
Tag: governance
5 notizie con questo tag
Il 9 marzo 2026 è stato presentato alla Camera dei Deputati l'Intergruppo Parlamentare 'AI, Empowerment e Mercati Emergenti', su iniziativa dell'on. Antonio Baldelli con supporto bipartisan. L'organo punta a promuovere il dialogo istituzionale su AI, innovazione tecnologica, empowerment femminile e sviluppo nei mercati emergenti. Cinque commissioni tematiche copriranno aree come energia sostenibile, healthcare, università, finanza e mercati emergenti.
AgID ha pubblicato l'aggiornamento 2026 del Piano Triennale per l'Informatica nella Pubblica Amministrazione, portando a 22 il numero di strumenti operativi a disposizione delle PA. Le novità principali riguardano la governance dei progetti AI, l'interoperabilità semantica e nuovi accordi di collaborazione con università e istituti di ricerca. Vengono consolidati i progetti sull'IT Wallet e aggiornate le sezioni dedicate all'intelligenza artificiale alla luce dell'AI Act e delle priorità europee.
Il 19 febbraio il Ministero del Lavoro e delle Politiche Sociali ha reso pubblico il documento 'Verso l'Osservatorio sull'adozione di sistemi di intelligenza artificiale nel mondo del lavoro', una raccolta di contributi multistakeholder che segna l'avvio operativo del nuovo organismo istituzionale. L'Osservatorio — presieduto dal Ministro e composto da un Comitato di indirizzo, una Commissione Etica (guidata da Paolo Benanti), una Consulta delle parti sociali e 4 Comitati tecnico-scientifici — avrà il compito di monitorare gli impatti dell'IA su produttività, occupazione e condizioni di lavoro e di definire la strategia nazionale.
Il Garante per la Protezione dei Dati Personali ha varato il piano delle attività ispettive per il primo semestre 2026, inserendo tra le priorità i controlli sull'utilizzo dell'intelligenza artificiale in ambito scolastico, accanto a data breach, whistleblowing e telemarketing. La mossa segnala una crescente attenzione delle autorità italiane all'uso dell'AI con i minori, in coerenza con i principi GDPR e con le disposizioni dell'AI Act sui sistemi ad alto rischio. I fornitori di strumenti educativi basati su AI sono i soggetti più esposti ai controlli.