Un nuovo team per una missione ambiziosa
Google ha recentemente annunciato la formazione di un nuovo team dedicato allo sviluppo di modelli di intelligenza artificiale (AI) in grado di simulare il mondo fisico. A capo di questo progetto innovativo c’è Tim Brooks, ex co-leader del generatore video Sora di OpenAI, che ha recentemente unito le forze con Google DeepMind. Brooks ha condiviso la sua visione su X, affermando che DeepMind ha piani ambiziosi per creare modelli generativi di massa che possano riprodurre la realtà.
Collaborazione tra team e obiettivi futuri
Il nuovo team di Brooks collaborerà con i gruppi Gemini, Veo e Genie di Google per affrontare “nuovi problemi critici” e per scalare i modelli “ai massimi livelli di calcolo”.
L’obiettivo finale è sviluppare un’intelligenza artificiale generale (AGI), capace di svolgere qualsiasi compito come un essere umano. Secondo Google, i modelli del mondo alimenteranno numerosi settori, dal ragionamento visivo alla simulazione, fino all’intrattenimento interattivo in tempo reale.
Applicazioni pratiche e preoccupazioni etiche
Le applicazioni pratiche di questi modelli sono molteplici. Si prevede che possano essere utilizzati per creare media interattivi, come videogiochi e film, oltre a simulazioni realistiche per l’addestramento di robot. Tuttavia, non mancano le preoccupazioni. Uno studio del 2024 ha stimato che entro il 2026 l’AI potrebbe distruggere oltre 100.000 posti di lavoro nei settori del cinema, della televisione e dell’animazione negli Stati Uniti. Aziende come Activision Blizzard stanno già utilizzando l’AI per ridurre i costi e aumentare la produttività, dopo aver licenziato molti dipendenti.
Questioni legali e copyright
Un’altra questione critica riguarda il copyright. Alcuni modelli di simulazione sembrano addestrarsi su clip di gameplay di videogiochi, spesso senza licenza, il che potrebbe esporre le aziende a cause legali. Google sostiene di avere il permesso di addestrare i suoi modelli utilizzando video di YouTube, in base ai termini di servizio della piattaforma, ma non ha specificato quali video stia utilizzando esattamente. Questa mancanza di trasparenza solleva interrogativi sulla legalità e l’etica dell’uso dei contenuti esistenti per l’addestramento di modelli AI.