ChatGPT: le aziende italiane sono disattente e non ancora pronte

L’AI, e in particolare ChatGPT, rappresenta uno degli esempi più attuali di innovazione tecnologica applicata ai modelli linguistici. ChatGPT è diventato popolare in pochissimo tempo, e la sua implementazione in ambito lavorativo è una grande opportunità. Ma solo se utilizzato nel rispetto delle linee guida aziendali e delle policy di sicurezza, altrimenti rappresenta un rischio per la privacy dei dati. Secondo la ricerca di Kaspersky, ‘ChatGPT, alleato o nemico in ambito lavorativo?’, condotta su 1.000 dipendenti italiani tra i 18 e i 55 anni, il 53% del campione vorrebbe utilizzare l’Intelligenza artificiale e ChatGPT in ambito professionale, ma solo poco meno del 10% ne sta già sfruttando le potenzialità. 

Poca importanza a privacy e veridicità dei contenuti

I dipendenti italiani considerano la possibilità di utilizzare in ambito lavorativo strumenti di Intelligenza artificiale come ChatGPT, ma oltre il 40% non sa come funzioni l’elaborazione delle informazioni. Inoltre, la maggior parte chi utilizza l’AI non dà grande importanza ai problemi legati alla privacy e alla veridicità dei contenuti. Di fatto, quasi la metà del campione concorda sul fatto che ChatGPT possa essere un valido aiuto nella creazione, revisione e traduzione di testi (48%), così come per annotazioni rapide, appunti presi durante le riunioni o riassunti (46%).  Rimangono invece ancora meno sfruttate attività come sviluppare e migliorare altre applicazioni di IA, come i chatbot (16%) o addirittura la scrittura di codice sorgente (9%).

I dipendenti non informano i dirigenti quando usano l’AI

Circa il 57% dei dirigenti o responsabili non è però a conoscenza dell’utilizzo dei tool di AI in azienda, e il 32% dei dipendenti non ritiene necessario informarli. Un dato che non stupisce, visto che il 77% degli intervistati nasconderebbe ai colleghi il fatto di utilizzare strumenti di AI, o addirittura lo ha già fatto. Del resto, più del 60% delle aziende italiane non ha definito linee guida o regole da seguire nell’utilizzo di questi strumenti, esponendo così l’azienda a possibili rischi. Il 14% dei dipendenti che lavorano in aziende che invece hanno definito regole o linee guida si lamenta perché sono poco chiare e comprensibili. Inoltre, solo il 13% sa esattamente come funziona l’elaborazione delle informazioni da parte di ChatGPT, mentre il 44% ne ha solo una vaga idea, o nessuna conoscenza (43%).

Tendenza a condividere dati sensibili o a uso interno

Inoltre, il 50% dichiara di condividere dati personali, informazioni destinate esclusivamente a uso interno, documenti sensibili e molto altro. Di questi, circa il 20% non ritiene importante mantenere private le proprie ricerche, mentre addirittura il 30% pur sapendo che non bisogna condividere dati sensibili, lo fa ugualmente non anonimizzando le informazioni, e rendendo quindi possibile che vengano ricondotte a un individuo o azienda specifica, con conseguenze importanti su privacy e sicurezza. Anche la veridicità e l’autorevolezza dei contenuti ottenuti dagli strumenti AI non preoccupa troppo i dipendenti: il 49% è disposto a utilizzare le risposte ottenute senza controllare la correttezza delle informazioni.