Possiamo quasi dire con certezza che non esista persona che lavori in ambienti digitali che non abbia provato almeno una volta Chat GPT e in generale sistemi di Intelligenza Artificiale.
Ormai l’AI è qui e non se ne andrà da nessuna parte. Quindi il miglior approccio che possiamo avere con queste nuove tecnologie è imparare a sfruttarle per migliorare il proprio lavoro e, perchè no, anche la propria situazione lavorativa.
Tuttavia ChatGPT non porta solo buone notizie, bensì si porta dietro anche un bagaglio di rischi e minacce per i dati privati ma soprattutto per quelli aziendali. E purtroppo è già successo anche all’interno di grandi aziende come Samsung.
Andiamo a vedere insieme come lavorare senza rischi con le AI.
Data Leaks su ChatGPT: cos’è successo a Samsung?
Quando ChatGPT è entrato nelle nostre vite è stata una continua scoperta: tentativi su tentativi per scoprire cosa questo algoritmo sappia veramente fare.
Nella sperimentazione però qualche errore è stato fatto, e non da poco.
Questo è il caso della multinazionale Samsung che ha visto coinvolti alcuni dei suoi dipendenti in incidenti di fuga di dati aziendali proprio grazie allo strumento di AI:
- Il primo errore è stato commesso copiando e incollando su ChatGPT pezzi di codice sorgente protetto da segreto aziendale per verificare che il codice fosse corretto;
- Il secondo sbaglio, è stato quello di un dipendente che voleva ottimizzare una sequenza di test per i chip che ha quindi condiviso con l’AI;
- Per ultimo, un altro dipendente ha caricato una registrazione privata di una riunione per ricavare una trascrizione scritta degli appunti.
Forse questi dipendenti hanno pensato di essere totalmente protetti dalle leggi di cybersecurity e non ci hanno pensato un secondo a condividere questo tipo di dati.
Eppure se avessero anche solo letto i termini e condizioni di ChatGPT (sì, lo sappiamo che non li legge nessuno) ne avrebbero da subito capito il pericolo:
“Art. 3 (Contenuti): OpenAi può utilizzare i contenuti per fornire e mantenere i servizi, rispettare la legge applicabile e applicare le nostre policy. L’utente è responsabile dei contenuti, anche per garantire che non violi alcuna legge applicabile o questi Termini”.
Scopriamo quindi che la responsabilità di qualsiasi data leak attraverso ChatGPT è imputabile all’utente che ne fa un uso irresponsabile.
Come possiamo evitare la fuga di dati lavorando con l’AI?
Innanzitutto, bisogna essere consapevoli che ogni dato condiviso con queste piattaforme è un contenuto che verrà rielaborato e assimilato, perciò bisogna capire con cura ciò che si può o non si può condividere.
In generale possiamo stilare una serie di best practice da seguire per le aziende che vogliono fare un uso responsabile di ChatGPT:
- Decidere delle linee guida da fornire ai propri dipendenti su come utilizzare la piattaforma o se addirittura vietarla del tutto per determinate funzioni;
- Definire i limiti di utilizzo, stabilendo quale informazioni possono essere processate o meno;
- Disattivare eventualmente la modalità di apprendimento di ChatGPT (qui trovate le indicazioni), quella che attualmente conserva la cronologia delle chat per migliorare la qualità delle conversazioni future, per evitare l’accumulo di dati;
- Implementare misure di sicurezza tecniche come comunicazioni crittografate e modalità di autenticazione sicura solo per i dipendenti che avranno il permesso di utilizzare lo strumento;
- Istruire i propri dipendenti a comunicare con ChatGPT usando dati fac-simili, senza citare dati esatti o sensibili dell’azienda.
Inoltre possiamo dirvi che ChatGPT ha annunciato presto l’uscita di una modalità “business” dell’app che garantirà maggior privacy e controllo sui dati importati dagli utenti, escludendo automaticamente i dati sensibili che solitamente potrebbe usare per allenare l’algoritmo.
Ci sono tutele da parte del Governo per la privacy?
Sia l’Italia che l’UE tutelano i dati sensibili delle aziende attraverso leggi garanti della privacy, a patto però che i dati non siano trapelati a causa dell’azienda stessa.
Infatti andrà fatta prima una verifica per determinare se sono state adottate misure idonee per mantenere la segretezza dei dati, come dice il Codice della Proprietà Industriale nell’art. 98 e ss.
Per cui, come nel caso di Samsung ad esempio, la colpa ricade sull’azienda in quanto le informazioni sono state volontariamente caricate dai dipendenti (anche se probabilmente non ne conoscevano i rischi).
Per non incappare in rischi giudiziari, ricordatevi di fare sempre un uso scrupoloso e responsabile dell’Intelligenza Artificiale.
Che azienda è Copying?
La nostra azienda crede fermamente nell’importanza di una cultura digitale all’interno delle realtà aziendali. Per questo motivo, da anni siamo un punto di riferimento per i nostri clienti.
Se siete una realtà interessata ad intraprendere un percorso di digitalizzazione, noi possiamo supportarvi sotto qualsiasi aspetto con servizi personalizzati e sempre aggiornati, con un’attenzione in più verso la sostenibilità e l’inclusività.
Siamo specializzati in:
- Digitalizzazione e dematerializzazione dei documenti
- Connettività
- Firma e fatturazione elettronica
- Gestione delle infrastrutture IT
- Licenze Microsoft Teams
- Politiche di privacy e cybersecurity
Qui la lista completa dei nostri servizi.
Se desideri iniziare il tuo percorso di digitalizzazione, contattaci.