Yaron Singer ha scalato la graduatoria per il posto di professore a pieni voti ad Harvard in sette anni, alimentato dal suo lavoro sull’apprendimento meccanico antagonista, un modo per ingannare i modelli di intelligenza artificiale usando dati fuorvianti. Ora, la startup di Singer, Robust Intelligence, che ha formato con un ex consigliere di dottorato e due ex studenti, sta emergendo dalla furtività per portare la sua ricerca sul mercato.
Il mercato dell’IA e Robust Intelligence
Quest’anno, l’intelligenza artificiale è destinata a rappresentare 50 miliardi di dollari di spesa aziendale, anche se le aziende stanno ancora cercando di capire come implementare la tecnologia nei loro processi di business. Anche le aziende stanno ancora cercando di capire come proteggere la IA buona da quella cattiva, come un deepfake vocale generato in modo algoritmico, in grado di sopraffare i sistemi di autenticazione vocale.
“Nei primi tempi di internet, era stato progettato come se tutti fossero un buon attore. Poi la gente ha iniziato a costruire firewall perché ha scoperto che non tutti lo erano“, dice Bill Coughran, ex vicepresidente senior di Google. “Stiamo vedendo i segni della stessa cosa con questi sistemi di apprendimento automatico. Dove ci sono soldi, i cattivi attori tendono ad entrare in gioco”.
Entra Robust Intelligence, una nuova startup guidata dal CEO Singer con una piattaforma che, secondo l’azienda, è addestrata a rilevare più di 100 tipi di attacchi nemici. Anche se i suoi fondatori e la maggior parte del team hanno un pedigree di Cambridge, la startup ha stabilito la sede centrale a San Francisco e ha annunciato mercoledì che ha raccolto 14 milioni di dollari in un Round seed e uno di Series A round guidato da Sequoia.
Coughran, ora partner della società di venture, è l’investitore principale della raccolta fondi, che ha visto anche la partecipazione di Engineering Capital e Harpoon Ventures. Singer ha svolto il dottorato di ricerca in informatica presso l’Università della California a Berkeley, entrando a far parte di Google come ricercatore post-dottorato nel 2011. Ha trascorso due anni a lavorare su algoritmi e modelli di apprendimento automatico per far funzionare più velocemente i prodotti del gigante della tecnologia, e ha visto quanto facilmente l’intelligenza artificiale potesse uscire dai binari con dati sbagliati.
“Una volta che si inizia a vedere queste vulnerabilità, diventa davvero, davvero spaventoso, soprattutto se pensiamo a quanto vogliamo usare l’intelligenza artificiale per automatizzare le nostre decisioni“, dice.
I truffatori e altri cattivi attori possono sfruttare la relativa inflessibilità dei modelli di intelligenza artificiale nell’elaborazione di dati sconosciuti. Per esempio, dice Singer, un assegno di 401 dollari può essere manipolato aggiungendo alcuni pixel che sono impercettibili all’occhio umano ma che causano un’errata lettura dell’assegno da parte del modello di intelligenza artificiale come 701 dollari.
“Se i truffatori mettono le mani sugli assegni, possono entrare in queste applicazioni e iniziare a farlo in scala”, dice Singer. Modifiche simili agli input dei dati possono portare a transazioni finanziarie fraudolente, così come al riconoscimento vocale o facciale. Nel 2013, dopo essere diventato assistente di un professore ad Harvard, Singer ha deciso di concentrare la sua ricerca sull’ideazione di meccanismi per la sicurezza dei modelli di IA. Robust Intelligence proviene da quasi un decennio in laboratorio per Singer, durante il quale ha lavorato con tre studenti di Harvard che sarebbero diventati i suoi co-fondatori: Eric Balkanski, un dottorando consigliato da Singer; Alexander Rilee, un laureato; e il laureando Kojin Oshiba, che ha collaborato con il professore. In 25 articoli, il team di Singer ha aperto la strada alla progettazione di algoritmi per individuare dati fuorvianti o fraudolenti, e ha contribuito a portare il problema all’attenzione del governo, ricevendo anche una prima borsa di studio Darpa per condurre la sua ricerca. Rilee e Oshiba rimangono coinvolti nelle attività quotidiane di Robust, il primo sul governo e sul go-to-market, il secondo sulla sicurezza, la tecnologia e lo sviluppo dei prodotti.
Robust Intelligence sta lanciando due prodotti, un firewall AI e un’offerta “red team”, in cui Robust funziona come un attaccante avversario. Il firewall funziona avvolgendo il modello di IA esistente di un’organizzazione per la scansione dei dati contaminati tramite gli algoritmi di Robust. L’altro prodotto, chiamato Rime (o “Robust Intelligence Machine Engine”), esegue un test di stress sul modello AI di un cliente inserendo errori di base e lanciando deliberatamente attacchi avversari sul modello per vedere come regge.
La startup sta attualmente lavorando con una decina di clienti, dice Singer, tra cui un importante istituto finanziario e un importante processore di pagamenti, anche se Robust non farà nomi a causa della riservatezza. Lanciandosi in modo furtivo, Singer spera di acquisire più clienti e di raddoppiare le dimensioni del team, che attualmente è composto da 15 dipendenti. Singer, che è in congedo da Harvard, si preoccupa del suo futuro nel mondo accademico, ma dice di essere concentrato sul suo ruolo di CEO a San Francisco in questo momento.
“Per me, ho scalato la montagna del mandato ad Harvard, ma ora penso che abbiamo trovato una montagna ancora più alta, e quella montagna sta assicurando l’intelligenza artificiale”, dice.