Studio Industria al seminario “Intelligenza Artificiale al Servizio della Manifattura"

Studio Industria al seminario “Intelligenza Artificiale al Servizio della Manifattura"


Studio Industria si è unita a una serie di esperti nel campo dell'Intelligenza Artificiale (AI) per il seminarioIntelligenza Artificiale al Servizio della Manifattura", a Bologna il 18.04.2024 presso il Museo Patrimonio Industriale.

 

L'evento, in programma per oggi, vedrà la partecipazione del Prof. Avv. Andrea Tatafiore, Senior Partner Fondatore di Studio Industria.

 

Il seminario accoglierà diversi ospiti, ciascuno con il proprio contributo distintivo.

 

Tra di essi:

 

Vincenzo Colla, Assessore alla Regione Emilia-Romagna, esplorerà il modello regionale per sviluppare competenze e guidare la transizione verso un'economia sostenibile;

 

Fabio Ferrari, fondatore di Ammagamma, offrirà un'analisi approfondita sullo stato attuale dell'AI nelle aziende;

 

Michele Poggipolini, Presidente della Fondazione Aldini Valeriani, condividerà il nuovo percorso della Fondazione, focalizzato sulla formazione e sull'innovazione per affrontare le sfide di mercato e sviluppare strategie competitive;

 

Marco Ramilli, fondatore e CEO di Yoroi, fornirà un'importante prospettiva sulla sicurezza informatica, evidenziando i rischi e le soluzioni nell'ambito dell'AI e dell'industria;

 

Prof. Avv. Andrea Tatafiore, Presidente di AIDA (Associazione Intermediari del Diritto d'Autore) e professore di Diritto Commerciale e Industriale, nonché Senior Partner e fondatore di Studio Industria, si concentrerà sulla sfida politica e giuridica nell'affrontare l'evoluzione dell'AI nel mondo della manifattura. La sua partecipazione riflette l'impegno di Studio Industria nel mantenere i propri clienti costantemente informati e aggiornati sulle tematiche cruciali.

 

Moderato da Gabriele Carrer, giornalista e scrittore su Formiche.net, l'evento promette un dibattito stimolante e informativo sulle intersezioni tra AI e industria, offrendo spunti preziosi per navigare con successo nel mondo dell'innovazione.

 

Studio Industria, come sempre, rimane all'avanguardia nell'adattare le proprie competenze legali e industriali alle nuove sfide, garantendo ai clienti un supporto affidabile e aggiornato in un panorama in continua evoluzione, specie nel campo dell’Intelligenza Artificiale quale principale settore in continua trasformazione stante il sempre maggiore impatto rivestito nello svolgimento di attività professionali e non.

 

Abbiamo parlato dell'AI Act nel precedente post.

 

 

 

#studioindustria #nextlevelbusiness #masteringthefuture


L’AI Act e l’Impatto sulle Aziende

L’AI Act e l’Impatto sulle Aziende


L’AI Act e l’Impatto sulle Aziende: Una Guida Essenziale

Il 13 marzo segna una data cruciale per le aziende operanti nel campo dell’intelligenza artificiale (IA) in Europa. Con l’avvio del conto alla rovescia per l’adeguamento al regolamento AI Act, le imprese si trovano di fronte alla necessità di comprendere e conformarsi a nuove normative significative.

 

Chi è Coinvolto?

Il regolamento AI Act si estende oltre i confini tradizionali, influenzando una vasta gamma di entità sia all’interno che all’esterno dell’Unione Europea. Qualsiasi sistema di IA immesso sul mercato dell’UE o utilizzato in relazione a persone situate nell’UE sarà soggetto a questo quadro giuridico. Ciò include i fornitori, come gli sviluppatori di strumenti di screening, e gli utilizzatori, come le banche che adottano tali sistemi.

 

Obblighi e Esenzioni

Gli importatori di sistemi di IA dovranno garantire la conformità dei fornitori esterni, mentre i fornitori di modelli di IA di uso generale si troveranno di fronte a obblighi specifici. Tuttavia, esistono esenzioni importanti, come quelle per i modelli gratuiti e open-source, e per le attività di ricerca e sviluppo.

 

Scadenze da Monitorare

Le aziende devono agire rapidamente. Entro sei mesi dall’entrata in vigore del regolamento, sarà necessario eliminare i sistemi vietati. Entro dodici mesi, si applicheranno gli obblighi per la governance dell’IA, e una scadenza critica di 24 mesi vedrà l’applicazione completa delle norme, inclusi i sistemi ad alto rischio.

 

Sanzioni Potenziali

Le sanzioni previste sono severe e mirate a garantire il rispetto del regolamento. Le infrazioni possono comportare multe fino a 35 milioni di euro o il 7% del fatturato totale annuo. La mancata osservanza di altri requisiti può portare a sanzioni fino a 15 milioni di euro o il 3% del fatturato. Inoltre, la fornitura di informazioni inesatte può risultare in multe fino a 7,5 milioni di euro o l’1,5% del fatturato.

 

Azioni Immediate per le Aziende

Le aziende devono iniziare con un’analisi approfondita del software di IA in uso, identificando i sistemi ad alto rischio. È fondamentale comprendere il proprio ruolo nell’ambito dell’AI Act e prepararsi adeguatamente per evitare sanzioni significative.

 

 

#studioindustria #nextlevelbusiness #masteringthefuture


Le novità della Direttiva NIS 2 sulla cybersecurity

Le novità della Direttiva NIS 2 sulla cybersecurity


La cibersicurezza è una sfida sempre più rilevante per le aziende e le organizzazioni che operano nell’Unione Europea, soprattutto in un contesto di crescente digitalizzazione e interconnessione dei servizi essenziali e delle infrastrutture critiche.

 

Per questo motivo, l’UE ha deciso di rafforzare il suo quadro normativo in materia di sicurezza delle reti e dei sistemi informativi, approvando la direttiva NIS2, che abroga e sostituisce la precedente direttiva NIS del 2016.

 

La direttiva NIS2 ha l’obiettivo di garantire un livello comune elevato di cibersicurezza nell’Unione, migliorando le capacità di prevenzione, rilevamento e risposta agli incidenti informatici, rafforzando la cooperazione tra gli Stati membri e l’UE, e aumentando la resilienza dei soggetti pubblici e privati che forniscono servizi o gestiscono infrastrutture essenziali per il funzionamento della società e dell’economia.

 

Le principali novità introdotte dalla direttiva NIS2 sono le seguenti:

 

  • Ampliamento dell’ambito di applicazione: la direttiva NIS2 estende i requisiti di cibersicurezza a nuovi settori e servizi, tra cui il settore postale, il settore chimico, il settore alimentare, i servizi legali, i servizi contabili, i servizi di architettura, i servizi di ingegneria, i servizi di gestione dei rifiuti, i servizi di social network online, i servizi di data warehouse online, i servizi di condivisione online e i servizi di comunicazione online.
  • Inoltre, la direttiva NIS2 introduce una nuova categoria di soggetti chiamati “operatori importanti”, che sono quelli che hanno un impatto significativo sul mercato interno o sulla sicurezza pubblica o nazionale. Gli operatori importanti sono soggetti a requisiti più stringenti rispetto agli altri soggetti.
  • Armonizzazione dei requisiti minimi: la direttiva NIS2 stabilisce requisiti minimi armonizzati per la cibersicurezza dei soggetti interessati, basati su principi generali come la gestione del rischio, la sicurezza per progettazione e per impostazione predefinita, l’adozione di misure tecniche, operative e organizzative adeguate e proporzionate, la segnalazione degli incidenti alle autorità competenti e ai destinatari dei servizi, la cooperazione con le autorità competenti e gli altri soggetti interessati, la formazione del personale e la sensibilizzazione degli utenti.
  • La direttiva NIS2 prevede anche che gli Stati membri adottino misure per verificare il rispetto dei requisiti da parte dei soggetti interessati, attraverso ispezioni regolari o basate sul rischio.
  • Rafforzamento della cooperazione: la direttiva NIS2 rafforza i meccanismi di cooperazione tra gli Stati membri e l’UE in materia di cibersicurezza, istituendo una rete europea per la cibersicurezza composta dalle autorità competenti nazionali e dal coordinatore dell’UE (la Commissione o un organismo da essa designato), che ha il compito di facilitare lo scambio di informazioni strategiche e operative, coordinare le azioni comuni in caso di incidenti transfrontalieri o a livello dell’UE, fornire orientamenti e raccomandazioni sui requisiti minimi e sulle migliori pratiche, monitorare l’attuazione della direttiva NIS2 e valutarne l’impatto. La direttiva NIS2 prevede inoltre il coinvolgimento dell’Agenzia dell’Unione europea per la cibersicurezza (ENISA) nel supporto alla rete europea per la cibersicurezza e nella promozione della cooperazione tra gli Stati membri.

 

 

La direttiva NIS2 rappresenta quindi un passo importante verso una maggiore armonizzazione e convergenza delle norme sulla cibersicurezza nell’UE, al fine di garantire un livello elevato di protezione dei dati, delle reti e dei sistemi informativi, nonché della sicurezza e del benessere dei cittadini e delle imprese.

 

 

La direttiva NIS2 dovrà essere recepita dagli Stati membri entro 18 mesi dalla sua entrata in vigore, che avverrà dopo la sua pubblicazione nella Gazzetta ufficiale dell’UE.

 

#studioindustria #nextlevelbusiness #masteringthefuture


ChatGPT e altre intelligenze artificiali: i problemi privacy

ChatGPT e altre intelligenze artificiali: i problemi privacy


Parliamo nuovamente dei rischi legati all'Intelligenza Artificiale, approfondendo uno degli argomenti menzionati nel precedente post generale: la privacy.

 

Le intelligenze artificiali (IA) sono sempre più presenti nel mondo del lavoro, offrendo soluzioni innovative e vantaggiose per le imprese di ogni settore. Tuttavia, l’utilizzo di IA di terze parti comporta anche dei rischi legali che non vanno sottovalutati, soprattutto in materia di protezione dei dati personali.

Infatti, se la tua impresa integra una IA di terza parte nella propria attività, devi essere consapevole che potresti essere considerato responsabile dei trattamenti di dati personali effettuati dalla IA, in qualità di titolare o di contitolare del trattamento.

 

Questo significa che devi rispettare le norme previste dal Regolamento generale sulla protezione dei dati (GDPR) e dalla normativa nazionale, e che potresti essere soggetto a sanzioni amministrative o a risarcimenti danni in caso di violazione.

 

Per evitare questi rischi, è importante che tu adotti alcune precauzioni prima di integrare una IA di terza parte nella tua impresa, tra cui:

  1. Verificare la reputazione e l’affidabilità del fornitore della IA, controllando le sue credenziali, le sue referenze e le sue recensioni.
  2. Leggere attentamente i termini e le condizioni del contratto con il fornitore della IA, verificando quali sono le sue responsabilità e le tue in materia di protezione dei dati personali, e quali sono le garanzie offerte in caso di problemi o controversie.
  3. Valutare l’impatto della IA sulla protezione dei dati personali, effettuando una analisi preventiva dei rischi e delle misure da adottare per mitigarli, secondo quanto previsto dall’articolo 35 del GDPR.
  4. Informare i soggetti interessati (clienti, dipendenti, fornitori, ecc.) dell’utilizzo della IA e dei relativi trattamenti di dati personali, fornendo loro tutte le informazioni richieste dall’articolo 13 del GDPR.
  5. Ottenere il consenso dei soggetti interessati, se necessario, per il trattamento dei loro dati personali da parte della IA, secondo quanto previsto dall’articolo 7 del GDPR.
  6. Verificare se la tua azienda assume una decisione basata unicamente sul trattamento automatizzato realizzato tramite l'IA, in potenziale violazione dell'art. 22 GDPR;
  7. Monitorare periodicamente il funzionamento della IA e i suoi effetti sui dati personali, verificando che non vi siano anomalie o violazioni.

 

Con gli opportuni accorgimenti, è possibile integrare una IA di terza parte nella tua impresa in modo sicuro e conforme alla normativa sulla protezione dei dati personali.

Per dubbi o perplessità, siamo a disposizione per una consulenza personalizzata e adeguata alle tue esigenze.

 

#studioindustria #nextlevelbusiness #masteringthefuture


Google Analytics: prima multa importante in Europa

Google Analytics: prima multa importante in Europa


Il 20 luglio 2023, l'autorità per la protezione dei dati svedese (IMY) ha comminato una multa di 12 milioni di corone svedesi (circa 1 milione di euro) a Tele2, un fornitore di telecomunicazioni svedese, per aver utilizzato Google Analytics sulla propria pagina web.

La multa è stata comminata per violazione del Regolamento generale sulla protezione dei dati (GDPR), che vieta il trasferimento di dati personali verso paesi terzi che non garantiscono un livello di protezione adeguato. Google Analytics è un servizio di analisi web fornito da Google che utilizza cookie di terze parti per raccogliere dati sui visitatori di un sito web. Questi dati, che possono includere l'indirizzo IP, il browser e il dispositivo utilizzato, vengono poi trasferiti e archiviati sui server di Google negli Stati Uniti.

L'IMY ha ritenuto che il trasferimento di questi dati personali verso gli Stati Uniti violasse il GDPR, in quanto gli Stati Uniti non garantiscono un livello di protezione dei dati adeguato ai sensi del regolamento. L'autorità ha anche ordinato a Tele2 di cessare l'utilizzo di Google Analytics.

Questa multa è la prima di una serie di sanzioni che potrebbero essere comminate alle aziende che utilizzano Google Analytics nell'Unione Europea. L'autorità austriaca per la protezione dei dati (DSB) ha già aperto un'indagine su Google Analytics, e altre autorità europee potrebbero seguire l'esempio.

Conseguenze per le aziende italiane

Le aziende italiane che utilizzano Google Analytics devono essere consapevoli dei rischi connessi al trasferimento di dati personali verso gli Stati Uniti. In particolare, le aziende devono valutare se il trasferimento di questi dati è necessario per il perseguimento di un legittimo interesse o se è possibile utilizzare alternative che non comportano il trasferimento di dati personali verso paesi terzi.

In caso di dubbio, le aziende dovrebbero contattare un avvocato specializzato in diritto della privacy per valutare la situazione e adottare le misure necessarie per conformarsi al GDPR.

Conclusione

La multa comminata a Tele2 è un segnale importante per le aziende che utilizzano Google Analytics nell'Unione Europea. Le aziende devono essere consapevoli dei rischi connessi al trasferimento di dati personali verso gli Stati Uniti e adottare le misure necessarie per conformarsi al GDPR.

 

#studioindustria #nextlevelbusiness #masteringthefuture


Rischi legali dei cookie banner nelle aziende: l'analisi della Cookie Banner Taskforce dell'UE

Rischi legali dei cookie banner nelle aziende: l'analisi della Cookie Banner Taskforce dell'UE


I Garanti Privacy dell'Unione Europea hanno creato la Cookie Banner Taskforce per verificare se i cookie banner presenti online siano conformi alla legge. E sembra che ci siano ancora troppe aziende che devono fare i conti con problemi legali.

 

La Cookie Banner Taskforce è stata avviata nel settembre 2021, prendendo in considerazione centinaia di reclami ricevuti dall'associazione Noyb di Max Schrems, noto per altre importanti battaglie nel campo della privacy. Ma perché analizzare tutti questi reclami? Semplice: i Garanti Privacy volevano individuare elementi legali comuni per garantire un utilizzo corretto e conforme dei cookie banner. Con così tanti strumenti e servizi sul mercato, è importante sapere cosa è lecito e cosa no.

 

Dopo un'attenta analisi, l'European Data Protection Board (EDPB) ha prodotto il Rapporto sui Cookie Banner, evidenziando ben 7 pratiche illecite comuni nei cookie banner. Se siete proprietari di siti web o aziende che utilizzano cookie banner, leggete attentamente queste informazioni per evitare spiacevoli conseguenze legali.

 

🚫 Pratica 1: Manca il pulsante di rifiuto
Siete mai stati su un sito dove il pulsante "rifiuta" sembra una caccia al tesoro? Un cookie banner corretto deve consentire un consenso libero, consapevole e inequivocabile. In altre parole, il consenso deve essere chiaro e facilmente raggiungibile, non nascosto in qualche angolo remoto della pagina.

 

🚫 Pratica 2: Caselle pre-selezionate
Caselle pre-selezionate? Un no categorico! Le caselle devono essere vuote, dando all'utente la possibilità di scegliere liberamente se acconsentire o meno ai cookies. È l'utente a dover decidere, senza influenze o inganni.

 

🚫 Pratica 3: Design ingannevole e dark patterns
Il design dell'interfaccia è fondamentale. Non si possono utilizzare trucchi visivi per spingere l'utente a prestare il consenso senza una reale comprensione delle sue azioni. È necessario fornire informazioni chiare e facilmente leggibili, evitando colori ingannevoli e contrasti confusi.

 

🚫 Pratica 4: Basarsi sul legittimo interesse
Usare il legittimo interesse come base per i cookie banner? Un'idea da scartare subito! I cookie non possono mai essere basati sul legittimo interesse, ma devono sempre richiedere il consenso dell'utente. Non c'è spazio per l'ambiguità: se Peppino non acconsente, niente cookie.

 

🚫 Pratica 5: Cookies non essenziali definiti come essenziali
Chiariamo una cosa: i cookie essenziali devono essere veramente essenziali e conformi alla legge. Creare un elenco esaustivo di cookie essenziali è difficile, quindi è meglio evitare di usarli. La chiave è mantenere la trasparenza e dimostrare che sono strettamente necessari, in caso di ispezione.

 

🚫 Pratica 6: Manca l'icona per la revoca del consenso
L'utente deve sempre poter revocare il consenso facilmente, altrimenti si rischia di violare la Cookie Law. Inserire un'icona ben visibile in ogni pagina del sito permette di rispettare il diritto dell'utente di revocare il consenso in qualsiasi momento.

 

Queste sono solo alcune delle pratiche illecite dei cookie banner individuate dai Garanti europei. Ricordate che il rapporto è una bozza e non vincolante, ma offre preziose indicazioni per garantire un consenso corretto e conforme alla normativa. Scegliere uno standard comune può aiutarvi a evitare spiacevoli conseguenze legali e a mantenere una reputazione intatta.

 

Studio Industria è impegnata a fornire supporto legale e consulenza in materia di privacy e nuove tecnologie. Se avete domande o necessitate di assistenza riguardo ai vostri cookie banner o altre questioni legali, non esitate a contattarci.

 

Insieme possiamo navigare in questo intricato mondo della privacy e mantenere la vostra azienda al sicuro.

 

#studioindustria #nextlevelbusiness #masteringthefuture


ChatGPT e altre intelligenze artificiali: quali rischi?

ChatGPT e altre intelligenze artificiali: quali rischi?


Oggi parleremo dei rischi associati all'utilizzo delle Intelligenze Artificiali (IA) come ChatGPT nelle aziende.

 

Le AI stanno diventando sempre più diffuse e offrono molteplici vantaggi, ma è fondamentale essere consapevoli delle implicazioni legali che comportano.

 

In questo articolo, esploreremo alcuni aspetti chiave da considerare per garantire la conformità alle leggi e minimizzare i rischi nell'implementazione di AI come ChatGPT nelle attività aziendali.

 

  1. Trasparenza e responsabilità: Quando si utilizzano AI come ChatGPT, è essenziale garantire la trasparenza nelle interazioni con gli utenti. Gli utenti devono essere consapevoli di interagire con un'intelligenza artificiale e comprendere le sue limitazioni. Inoltre, l'azienda deve assumersi la responsabilità per il comportamento delle AI e garantire che rispettino le normative vigenti.
  2. Protezione dei dati: Le AI come ChatGPT richiedono l'accesso e l'elaborazione di grandi quantità di dati per fornire risposte pertinenti e accurate. È fondamentale assicurarsi che l'azienda rispetti le normative sulla protezione dei dati, come il Regolamento Generale sulla Protezione dei Dati (GDPR) dell'Unione Europea. Ciò implica implementare adeguate misure di sicurezza per proteggere tali informazioni.
  3. Discriminazione e bias: Le AI possono essere soggette a discriminazione e bias, poiché imparano dai dati a loro disposizione. È importante adottare misure per evitare che le AI riflettano pregiudizi o discriminazioni presenti nei dati di addestramento. Monitorare costantemente l'output delle AI e apportare le modifiche necessarie per ridurre al minimo tali rischi è un compito cruciale.
  4. Proprietà intellettuale e diritti d'autore: Le AI come ChatGPT possono generare contenuti creativi, come testi o immagini. In questo contesto, è necessario valutare la protezione della proprietà intellettuale e i diritti d'autore associati ai risultati prodotti dalle AI. Chi possiede i diritti su tali contenuti? Come possono essere utilizzati o distribuiti in modo legale? Rispondere a queste domande è fondamentale per evitare controversie legali in futuro.
  5. Responsabilità civile e legale: L'utilizzo di AI come ChatGPT può comportare responsabilità civili e legali. Se l'AI fornisce consigli o informazioni errate che causano danni, l'azienda potrebbe essere ritenuta responsabile. Pertanto, è essenziale definire chiaramente le limitazioni dell'AI, fornire avvertimenti appropriati agli utenti e adottare misure per mitigare i rischi di responsabilità.

 

Conclusione: L'integrazione delle AI come ChatGPT nelle aziende offre vantaggi significativi, ma è fondamentale comprendere i rischi legali associati. La trasparenza, la protezione dei dati, la gestione dei bias, la valutazione della proprietà intellettuale e la definizione della responsabilità sono tutti aspetti cruciali da considerare.

Collaborare con professionisti legali specializzati in diritto delle nuove tecnologie può aiutare a navigare in modo sicuro in questo ambito complesso. Assicurarsi di adottare politiche e procedure appropriate può proteggere la vostra azienda da possibili conseguenze legali e preservare la fiducia dei vostri clienti.

 

#studioindustria #nextlevelbusiness #masteringthefuture


Cosa prevede la legge in caso di violazione di dati personali?

Cosa prevede la legge in caso di violazione di dati personali?


La protezione dei dati personali è diventata una priorità fondamentale nella nostra era digitale. Il Regolamento Generale sulla Protezione dei Dati (GDPR) è stato introdotto per garantire che i dati personali siano trattati in modo sicuro e responsabile.

 

Cosa accade in caso di violazione dei dati personali? Il GDPR stabilisce regole chiare su come gestire tali situazioni. In caso di violazione, è fondamentale agire prontamente per proteggere i dati e mitigare eventuali danni.

 

Ecco alcuni punti chiave del GDPR in caso di violazione dei dati personali:

  1. Notifica tempestiva: Se si verifica una violazione dei dati personali, è necessario notificarla all'autorità di controllo competente entro 72 ore dal momento in cui se ne viene a conoscenza, a meno che la violazione non sia improbabile che comporti un rischio per i diritti e le libertà delle persone interessate.
  2. Comunicazione ai soggetti interessati: Se la violazione dei dati rappresenta un rischio elevato per i diritti e le libertà delle persone interessate, è necessario informarle tempestivamente dell'incidente e delle misure che possono essere prese per proteggere i loro dati.
  3. Valutazione dell'impatto sulla protezione dei dati (DPIA): In determinate circostanze, potrebbe essere necessario condurre una DPIA per valutare l'impatto della violazione sulla protezione dei dati personali e identificare eventuali misure aggiuntive che devono essere adottate.
  4. Cooperazione con le autorità di controllo: È fondamentale collaborare pienamente con le autorità di controllo competenti durante le indagini e fornire tutte le informazioni richieste.
  5. Possibili sanzioni: In caso di violazione del GDPR, possono essere applicate sanzioni finanziarie significative, che dipendono dalla gravità e dalla natura della violazione stessa.

 

 

Presso il nostro studio legale, comprendiamo l'importanza di conformarsi al GDPR e di proteggere i dati personali dei nostri clienti. Siamo pronti ad offrire consulenza esperta e supporto legale in caso di violazioni dei dati personali, aiutandoti a navigare attraverso le complesse normative sulla protezione dei dati.

 

Per ulteriori informazioni sul GDPR e sulle misure di protezione dei dati, non esitare a contattarci.

 

 

#studioindustria #nextlevelbusiness #masteringthefuture


I “controlli difensivi” dopo la modifica dell’art. 4 dello Statuto dei Lavoratori (Legge n. 300 del 1970) - Parte 1

I “controlli difensivi” dopo la modifica dell’art. 4 dello Statuto dei Lavoratori (Legge n. 300 del 1970) - Parte 1 


Il 22 settembre 2021 la Suprema Corte di Cassazione è intervenuta per pronunciarsi sul tema, molto interessante e oggetto di controversia, dei c.d. “controlli difensivi”.

 

Trattasi, in maniera molto sintetica, di modalita di controllo attuate dal datore di lavoro e dirette all’accertamento di “comportamenti illeciti e lesivi del patrimonio e dell’immagine aziendale [1].

Nello specifico, la questione che maggiormente ha interessato la Giurisprudenza di legittimità, oltre che moltissimi addetti ai lavori, è la compatibilità di tali controlli con la sopravvenuta modifica dell’art. 4 dello Statuto dei Lavoratori (antecedentemente alla modifica rubricato come “Impianti audiovisivi”, Legge n. 300 del 1970) in ottemperanza a quanto previsto dall’art. 23 del D. Lgs. n. 151/2015 (“Impianti audiovisivi e altri strumenti di controllo”).

 

L’art. 4, per come previsto anteriormente alla riforma di cui sopra, contemplava due livelli di protezione della sfera privata del lavoratore: il primo, tramite divieto assoluto di impiego di impianti audiovisivi e di altri strumenti ai fini del controllo a distanza dell’attività svolta dai lavoratori; il secondo, meno assoluto, nel caso in cui le ragioni del controllo fossero da ricondurre ad esigenze oggettive dell’impresa (sempre, ovviamente, nel rispetto di alcune procedure di garanzie necessarie ai fini dell’impiego di tali strumenti).

Volendo andare al cuore della scelta legislativa, si può affermare che la ragione che indusse l’introduzione di questo regime fu (ed è tutt’oggi) da ricondursi ad esigenze di “contenimento” del potere direttivo e organizzativo del datore di lavoro, e ciò per “riequilibrare” le posizioni delle parti nel contesto del rapporto di lavoro.

 

Tuttavia, seppur previsti questi limiti, ci si chiese se fosse possibile che ulteriori ragioni (ovvero la tutela del patrimonio aziendale) potessero esonerare il datore di lavoro dalla necessità di ottenere l’accordo sindacale o l’autorizzazione amministrativa.

Fu dunque in relazione a quest’ultima esigenza del datore di lavoro che la Corte di Legittimità elaborò lo strumento dei “controlli difensivi” in deroga a quanto previsto dall’art. 4 dello Statuto dei Lavoratori.

Tuttavia, non potendosi comunque ammettere forma di controllo a distanza che esorbitasse da qualsiasivoglia limite (onde evitare che in nome della tutela del patrimonio aziendale venisse consentito al datore di introdurre forme di controllo generalizzate e generiche), si procedette a esonerare i controlli difensivi al ricorrere di tre condizioni (due necessarie e una facoltativa).

 

La prima condizione riguardava l’esigenza che il controllo datoriale fosse finalizzato all’accertamento di determinati comportamenti illeciti del lavoratore.

La seconda condizione postulava invece la necessità che l’illecito commesso fosse in grado di causare un danno al patrimonio o all’immagine aziendale[2].

La terza, facoltativa, prevedeva che i controlli fossero disposti dopo l’attuazione del comportamento in addebito così da non essere riconducibili alla semplice sorveglianza dell’esecuzione della prestazione del lavoratore.

Inoltre, aspetto molto importante, quest’ultima condizione consentiva di attestare la genuinità dell’intento datoriale, e ciò in quanto avrebbe permesso di appurare la funzionalità del controllo all’accertamento di un fatto specifico consistente (potenzialmente) nell’illecito contestato al lavoratore.

 

[1] Cass., Sez Lav., 28.05.2018, n. 13266

 

[2] Cass., Sez Lav., 23.02.2012, n. 2722

 

Contributo a cura del dott. Sandro Marcelli.