AI e GenAI: 4 development in azienda che non devono sfuggire al CIO – Cyber Tech
L’IT aziendale non appartiene più soltanto al dipartimento IT: dall’HR al Advertising and marketing, dalle operazioni di fabbrica alla casa dei dipendenti in sensible working, l’data expertise ha ormai stabilmente varcato i confini dell’ufficio del CIO. Questo implica per il Direttore IT perdere il controllo sulle tecnologie che gli utenti aziendali usano? Se si tratta di AI e GenAI un rischio esiste. Un lavoratore su quattro in Italia, già usa l’intelligenza artificiale generativa, come ha svelato il più recente Osservatorio HR Innovation Follow del Politecnico di Milano. E in quale misura questo utilizzo avviene sotto la sorveglianza del CIO? È la vecchia storia del BYOD (Deliver-Your-Personal-System) che si ripete: anche lì per il Chief Info Officer si poneva un problema di controllo su quali dispositivi entravano e uscivano dall’azienda e, quindi, sulla sicurezza dei sistemi e dei dati aziendali. Ora, come evidenziato dallo studio di Microsoft e LinkedIn “2024 Work Pattern Index” [in inglese], “le persone si portano la loro AI al lavoro” (ricordiamo che Microsoft ha investito in OpenAI, sviluppatore di ChatGPT, e integra la sua tecnologia), tanto da far parlare di una tendenza al “Deliver-Your-Personal-AI” o BYOAI. In media, su 31.000 lavoratori intervistati in 31 Paesi, il 75% usa modelli e strumenti di intelligenza artificiale, spesso scelti e gestiti in autonomia, per aiutarli a gestire una mole di lavoro sempre più voluminosa.
Di conseguenza, il controllo resta le parola d’ordine, come hanno evidenziato gli esperti di BearinPoint, multinazionale indipendente di consulenza strategica, manageriale e tecnologica, nella ricerca “AI-driven transformation: Changing into an augmented group”, basata su perception raccolti da 700 dirigenti C-level in Usa, Asia ed Europa (Italia compresa) a giugno 2024.
Per gli govt della prima linea, CIO compresi, stabilire una governance dell’AI “è vitale per diventare una augmented group”; tuttavia, il 44% delle organizzazioni non sa come fare. BearingPoint suggerisce di istituire un quadro di riferimento cross-dipartimentale per assicurare visibilità condivisa su tutti i progetti AI e il loro allineamento con gli obiettivi di enterprise e con usi etici e sicuri anche in termini di knowledge privateness, compliance e trasparenza.