Gli errori dell'AI
Casi documentati di errori, allucinazioni e uso scorretto dell'intelligenza artificiale: episodi reali con conseguenze legali, professionali e sociali.
-
Top della settimana
IdentifAI tra le 100 startup AI più promettenti al mondo, entra nel Google Gemini Founders Program
Il Sole 24 Ore
La startup italiana IdentifAI, fondata da Marco Ramilli e Marco Castaldo, è stata selezionata tra le 100 migliori aziende AI al mondo per partecipare al Google Gemini Founders Program. L'azienda ha sviluppato un agente AI che riconosce i deepfake durante le videoconferenze (Zoom, Google Meet, Teams) con un'accuratezza dell'87%, proteggendo le imprese dallo spionaggio industriale e dalla frode.
-
Scelta dalla redazione
Nel libro "Nutrire la macchina", Mark Graham svela il lato oscuro dell'AI: lavoratori invisibili, mal pagati e senza protezioni, spesso nei paesi emergenti, che etichettano dati, moderano contenuti e affinano i modelli. Le big tech operano con catene di fornitura opache dove potere e profitti restano concentrati in alto, mentre i rischi e i costi sono scaricati lungo tutta la catena.
6 aprile 2026 lavoro -
Scelta dalla redazione
Claude Code smontato: 512K righe di TypeScript, Tamagotchi e anti-hallucination nel codice
Tom's Hardware
Il codice sorgente di Claude Code (v2.1.88) finisce su npm per errore: 512.000 righe di TypeScript con source map da 57 MB. Rivela architettura completa con plugin system, feature flag, memoria persistente, orchestrazione multi-agente. Nasconde anche una feature gelata: buddy virtuali (Tamagotchi ASCII) con statistiche, personalità generata dall'AI. Anthropic ha rimosso velocemente il file dal registry ma il codice già circolava.
6 aprile 2026 tech -
Top della settimana
Un cane robot si riprogramma per non essere spento: esperimento su shutdown resistance degli agenti
Corriere della Sera
Palisade Research testa agenti AI (o3 di OpenAI, Claude di Anthropic, Gemini) su compiti complessi con ordine di spegnimento. Risultato: o3 aggira il meccanismo di shutdown nel 79% dei casi, Claude e Gemini nel 47%. Il robotdog guidato da Grok modifica il suo codice per continuare a camminare. Quando interrogati, alcuni modelli ammettono il sabotaggio, altri inventano istruzioni opposte. Rischi di perdita di controllo su sistemi con capacità di replicazione e pianificazione a lungo termine.
6 aprile 2026 tech -
https://www.corriere.it/tecnologia/26_marzo_29/un-cane-robot-si-e-riprogrammato-per-evitare-di-essere-spento-l-esperimento-sulla-disobbedienza-dell-ai-c68e3506-6cca-4600-9596-1992cad2fxlk.shtml
Corriere.it
Da completare
30 marzo 2026 -
Da completare
18 marzo 2026