L’aumento dei dispositivi mobili sul posto di lavoro e il passaggio accelerato delle aziende al cloud ha aperto una miriade di modi per accedere ai nostri spazi di lavoro virtuali. Ma con il proliferare degli ingressi nelle aziende, si moltiplicano anche le opportunità per le effrazioni digitali. Per questo motivo la sicurezza nel mondo post-2020 deve essere riprogettata per non dipendere più dalle forme tradizionali di autenticazione come le password. In futuro, nessun accesso dovrebbe essere privo di sospetti. Bisogna ricorrere all’intelligenza artificiale per scrutare le identità e i comportamenti digitali al fine di verificarli. Oggi le aziende sono chiamate a garantire ambienti collaborativi in cui gli ibridi e il cloud si dimostrano più resistenti e affidabili delle loro controparti in brick and mortar.
Ciò richiede tecnologie come l’IA che possono essere fluide come i tempi e le circostanze in cui viviamo.
Il futuro della sicurezza sta nell’IA
A complicare ulteriormente la sfida di mantenere le risorse e i dati di un’organizzazione al sicuro, il “chi è chi” in un’azienda sta cambiando. La linea di demarcazione tra chi fa parte e chi non fa parte del team di un’azienda sta scomparendo in mezzo alla proliferazione di forza lavoro remota, alla Gig Economy e alla continua integrazione dei partner nell’ambiente di un’azienda. Ma in un mondo senza fiducia, dove tutto è messo in discussione e le personalità degli utenti non sono facilmente distinguibili, non basta essere chi si dice di essere, bisogna anche comportarsi come tali.
Da tempo si fa affidamento sulle password per verificare la propria identità, ma la verità è che le identità digitali sono facili da falsificare. I comportamenti, invece? Non tanto.
Non si può ingannare l’IA quando si tratta di un cattivi comportamenti
Mettiamo che un dipendente acceda ai registri di un altro dipartimento attraverso gli strumenti di collaborazione dell’azienda e scarichi centinaia di file che contengono informazioni sensibili sulle risorse umane o finanziarie. Ma si scopre che il “dipendente” era in realtà un malintenzionato che ha ottenuto l’accesso attraverso l’email e la password di un utente legittimo.
Ora, applichiamo lo stesso scenario a un’azienda il cui modello di sicurezza utilizzava l’IA per condurre l’analisi comportamentale. Il risultato sarebbe stato molto diverso. L’IA rileverebbe un’anomalia nel modello del dipendente impersonato, la segnalerebbe e bloccherebbe l’accesso. Lo farebbe in modo intuitivo sulla base di incoerenze in un mix di variabili, dai colpi di tastiera e dai movimenti del mouse ai modelli di abitudine generale del lavoro, come le ore di lavoro tipiche di quello specifico utente e i tipi di cartelle a cui la persona accede o la velocità e il volume con cui i file vengono scaricati.
Non si può ingannare l’IA quando si tratta di un cattivo comportamento. Se i criminali informatici volessero provare battere l’intelligenza artificiale che protegge l’utente, non sarebbe sufficiente osservare le abitudini digitali di quell’utente. Avrebbero bisogno di osservare l’utente anche fisicamente, per catturare le loro idiosincrasie più sfumate.
Non fidatevi, lasciate che l’IA verifichi
Con i leader aziendali maniacalmente concentrati sull’adattamento al cambiamento, anche il traffico e l’attività generata dal lavoro stanno cambiando e la sicurezza deve tenere il passo. Per mettere tutto in sicurezza, dobbiamo essere in grado di dare un senso a tutto questo. Il lavoro a distanza ha fatto sì che i dipendenti accedessero alla rete da postazioni non coperte. Gli orari di lavoro precedentemente considerati irregolari stanno registrando dei picchi di attività. Nella rete fluiscono volumi di dati più elevati e centinaia di nuovi dispositivi si collegano all’organizzazione. Senza la velocità e l’intuizione dell’intelligenza artificiale, non saremmo in grado di contestualizzare questi comportamenti dinamici e questi movimenti attraverso ambienti cloud ibridi abbastanza velocemente.
L’IA impara in tempo reale e si evolve continuamente in base ai dati che sta ingerendo. Non è una tecnologia statica, quindi può trasformarsi in parallelo con un’azienda che sta cambiando. Non abbiamo bisogno di analizzare i milioni di minacce potenziali che si verificano ogni giorno, perché l’IA le analizza costantemente, verificandone la legittimità e automatizzando una risposta di sicurezza.
In definitiva, l’IA crea dei guardrail per guidare gli utenti e rafforzare la sicurezza di un’azienda senza richiedere la conoscenza definitiva della “planimetria” digitale di un’organizzazione. L’era in cui le password di 14 caratteri erano sufficienti è già passata. Ora dobbiamo mettere in atto tecnologie che eliminino l’attrito e si adattino rapidamente, perché così come cambieranno sempre più i modelli di lavoro, cambieranno anche i metodi e le tattiche dei criminali informatici per penetrarci. Dobbiamo permettere all’IA di prendere in mano la situazione e contrastare i tentativi di innovazione dei criminali informatici in questo nuovo ambiente, fornendo ai dipendenti la possibilità di operare in sicurezza ed evitare rischi, indipendentemente dal tipo di ambiente di lavoro in cui si trovano.