Geißler Legal - Studio legale per la compliance e il diritto commerciale internazionale

Need2Know - Conformità con l'intelligenza artificiale nelle operazioni

Consulenza legale ottimizzata per la conformità delle vostre attività commerciali - olistica, transfrontaliera, efficiente in termini di costi.

Progettazione del diritto del lavoro e introduzione delle linee guida dell'intelligenza artificiale nella tua azienda

Le ultime innovazioni nel campo dell’intelligenza artificiale generativa (“IA generativa”) stanno spingendo molte aziende a sviluppare e implementare le proprie strategie di IA. In questo senso, l'intelligenza artificiale è uno strumento di lavoro che ha numerose implicazioni per il diritto del lavoro. Per motivi di conformità preventiva, con particolare attenzione alla protezione dei dati personali o aziendali, ogni azienda dovrebbe formulare delle linee guida di base per l'uso dell'intelligenza artificiale.

La mancanza di una strategia di intelligenza artificiale in azienda pone rischi per il diritto del lavoro

Considerate le numerose applicazioni di intelligenza artificiale disponibili gratuitamente, come Perplexity, Chat-GPT, Midjourney, DeepL o Copilot, anche i datori di lavoro più scettici non dovrebbero chiudere gli occhi sul fatto che i dipendenti utilizzano già spesso soluzioni di intelligenza artificiale, soprattutto per compiti semplici o creativi. In linea di principio, hanno il diritto di farlo, a meno che all'interno dell'azienda non vi siano disposizioni o istruzioni contrarie. L'obbligo di informazione ai sensi del § 241 comma 2 BGB (codice civile tedesco) sussiste nei confronti dei dipendenti solo se dall'uso concreto potrebbe derivare un danno all'azienda e ciò sia evidente anche al dipendente. Il prerequisito per questo è solitamente la sensibilizzazione della forza lavoro sui limiti tecnici e legali dell'uso dell'intelligenza artificiale. I datori di lavoro dovrebbero pertanto adottare misure proattive. Potenziali rischi dell'uso dell'intelligenza artificiale da parte dei dipendenti Sicurezza dei dati aziendali. Uno dei rischi più grandi, ma anche meno noti, associati all'uso di applicazioni di intelligenza artificiale è la divulgazione di dati aziendali preziosi o riservati tramite l'immissione in un sistema di intelligenza artificiale. Soprattutto con le versioni AI gratuite, si "paga" con i dati. Le prestazioni degli attuali Large Language Models (LLM) delle applicazioni di intelligenza artificiale generativa dipendono dall'addestramento con dati creati dall'intelligenza umana. La riserva di informazioni pubbliche disponibile su Internet è già in gran parte esaurita. Ciò è particolarmente rilevante per le aziende che detengono segreti commerciali e altri dati sensibili.

Protezione dei dati personali secondo il GDPR

Anche la gestione dei dati personali in relazione all'intelligenza artificiale può rivelarsi problematica. Se vengono immessi in un'IA, deve esserci una base giuridica ai sensi della normativa sulla protezione dei dati, come ad esempio il consenso. Quello del

Trattamento dei dati L'interessato deve essere informato anche sul trattamento dei dati. Per i responsabili del trattamento dei dati extraeuropei deve essere garantito anche un trasferimento sicuro verso paesi terzi ai sensi dell'art. 44 e segg. del GDPR. Solitamente questi requisiti non sono soddisfatti se un dipendente utilizza in modo indipendente il proprio account AI privato per svolgere il proprio lavoro. Né si può dare per scontato che i dipendenti siano a conoscenza delle complesse problematiche relative alla protezione dei dati, tanto da provare un senso di disagio e da astenersi da tale comportamento o da segnalarlo al datore di lavoro.

Protezione contro le decisioni automatizzate (art. 22 GDPR) e Regolamento AI

Ai sensi dell'articolo 22(1) del GDPR, le persone fisiche non possono, in linea di principio, essere sottoposte a decisioni basate esclusivamente sul trattamento automatizzato se tali decisioni hanno conseguenze giuridiche per loro o incidono in modo analogo significativamente sulla loro persona.

Ciò renderebbe inammissibile, ad esempio, l'impiego dell'intelligenza artificiale nel settore delle risorse umane per selezionare automaticamente le candidature in base a determinate caratteristiche (eventualmente determinate dall'intelligenza artificiale). Ma anche le decisioni che riguardano gli interessi dei clienti sono regolamentate dall'art. 22 del GDPR. Tuttavia, per quanto riguarda l'art. 22 del GDPR, non è problematico utilizzare l'intelligenza artificiale per raccogliere ed elaborare dati se alla fine sono gli esseri umani a prendere una decisione finale su questa base. Tuttavia, è opportuno sottolineare che le applicazioni HR (assunzioni, licenziamenti, promozioni) devono essere classificate come sistemi ad alto rischio secondo l'approccio basato sul rischio del Regolamento sull'intelligenza artificiale. I fornitori di tali servizi artificiali L'intelligence è quindi soggetta a una gestione del rischio particolare e obblighi di trasparenza.

Proprietà intellettuale e copyright

Esistono anche dei rischi associati all'uso di applicazioni di intelligenza artificiale, in particolare in relazione alla legge sul copyright. In primo luogo, bisogna tenere presente che i risultati di lavori generati esclusivamente dall’intelligenza artificiale sono generalmente protetti da copyright a causa della mancanza di “creazione intellettuale personale” ai sensi dell’articolo 2, paragrafo 2, della legge sul diritto d’autore. non sono protetti da copyright. In secondo luogo, sussistono rischi di responsabilità se i risultati del lavoro prodotti dall’IA – anche inosservati – violano i diritti d’autore di terzi.

opzioni di regolamentazione del datore di lavoro

Divieto assoluto di utilizzo

Nell'ambito del loro diritto generale di direzione ai sensi del § 106 del Codice del commercio tedesco (GewO), i datori di lavoro hanno il diritto di vietare ai propri dipendenti di utilizzare applicazioni di intelligenza artificiale nell'ambito del loro lavoro.

Tuttavia, i rischi esistenti non possono essere esclusi giuridicamente mediante un divieto assoluto. I dipendenti possono ignorare il divieto e quindi arrecare danno all'azienda. Anche la violazione dei diritti di terzi non è esclusi.

Inoltre, potrebbe essere consigliabile non chiudersi completamente alle nuove tecnologie, perché l'interazione con le applicazioni di intelligenza artificiale sviluppa nei dipendenti competenze che molto probabilmente daranno i loro frutti in futuro.

Politiche o linee guida aziendali per l'utilizzo di account AI di proprietà dei dipendentisotto Spesso le aziende non hanno ancora introdotto una propria infrastruttura di intelligenza artificiale. È quindi possibile consentire ai dipendenti di utilizzare il proprio account AI personale e, allo stesso tempo, stabilire linee guida per l'utilizzo tenendo conto dei rischi descritti di seguito.

In questo modo, i dipendenti possono essere sensibilizzati sui rischi e messi in grado di acquisire esperienza nell'uso dei sistemi di intelligenza artificiale. Quando si introducono tali politiche o linee guida sull'intelligenza artificiale, è importante innanzitutto conoscere la situazione di rischio specifica della propria azienda e poi tenerne conto quando si elaborano le regole. È inoltre consigliabile informare i dipendenti sul funzionamento dei sistemi e, se necessario, introdurli alla tecnica del prompting (ovvero la progettazione dei comandi all'IA).

In alcune aziende potrebbe essere opportuno integrare nella sensibilizzazione e nella formazione dei dipendenti anche situazioni di rischio specifiche del reparto. Nel Per il reparto marketing, ad esempio, sarà particolarmente importante garantire che i risultati siano tutelabili ai sensi della legge sul copyright e sensibilizzare sul fatto che le applicazioni di intelligenza artificiale tendono talvolta a produrre risultati discriminatori. Attuazione ai sensi del § 106 della legge tedesca sulla regolamentazione del commercio (GewO) I datori di lavoro possono attuare le linee guida sull'intelligenza artificiale emanando un'istruzione ai sensi del § 106 della legge tedesca sulla regolamentazione del commercio (GewO). A tal fine è necessario rendere le regole accessibili ai dipendenti e informarli del loro carattere vincolante. La prova dell'accesso deve essere documentata.

co-determinazione del consiglio di fabbrica

Il comitato aziendale non ha diritti di codeterminazione, a meno che l'azienda non introduca sistemi di intelligenza artificiale propri. Finché i dipendenti utilizzano i propri account AI personali, è possibile rinunciare alla regolamentazione mediante accordi aziendali. In particolare L'applicazione dell'IA non fa scattare il diritto di cogestione ai sensi dell'art. 87 comma 1 n. 6 della legge sull'organizzazione aziendale se il datore di lavoro non riceve alcuna informazione idonea al monitoraggio. Lo afferma una recente sentenza del Tribunale del lavoro di Amburgo.

Tuttavia, ai sensi dell'art. 90 comma 1 n. 3 della legge sull'organizzazione aziendale, il comitato aziendale deve essere informato tempestivamente mediante la presentazione dei documenti necessari, poiché l'impiego dell'intelligenza artificiale regola le procedure di lavoro e i flussi di lavoro.

Secondo l’articolo 80, paragrafo 3, frasi 2 e 3 della legge sull’organizzazione aziendale, il consiglio aziendale può sempre chiamare un esperto (a spese del datore di lavoro), se, per svolgere i suoi compiti, deve valutare l'introduzione o l'applicazione dell'intelligenza artificiale. 


introduzione di soluzioni AI specifiche per l'azienda

Una gestione efficace dei rischi per quanto riguarda la protezione dei dati e la tutela dei segreti aziendali è possibile solo se viene introdotta una soluzione di intelligenza artificiale interna. Microsoft 365, ad esempio, offre il “Copilot” come un “compagno di intelligenza artificiale quotidiano” relativamente facile da usare. Per le aziende con Per set di dati di grandi dimensioni, può essere interessante disporre di database personalizzati preparati ed elaborati utilizzando una soluzione di intelligenza artificiale sicura.

Tuttavia, i rischi legati al copyright e ad altri diritti di proprietà intellettuale possono essere mitigati solo da soluzioni di intelligenza artificiale interne. ridurre in misura limitata. Se vengono generati dati sull'utilizzo e ciò consente al datore di lavoro di (astratta) possibilità di controllo delle prestazioni e/o del comportamento dei dipendenti, viene pregiudicato il diritto di cogestione ai sensi dell'articolo 87 comma 1 n. 6 della legge sull'organizzazione aziendale. Nella maggior parte dei casi, ciò non sarà evitabile grazie alle soluzioni di intelligenza artificiale attualmente disponibili sul mercato. Inoltre, un diritto di cogestione ai sensi dell'art. 87 comma 1 n. 1 della legge sull'organizzazione aziendale entra in considerazione se viene regolamentato il comportamento ordinato nell'azienda, nel senso di "cooperazione aziendale".

Il tribunale del lavoro di Amburgo ha correttamente affermato che i requisiti per l'utilizzo di ChatGPT e di strumenti analoghi non rientrano nella condotta regolamentare soggetta a cogestione. In definitiva si tratta semplicemente di un nuovo strumento di lavoro: ciò che viene influenzato è il comportamento lavorativo che non è soggetto a cogestione.

In caso di rischi specifici per la salute dei dipendenti, può essere preso in considerazione anche un diritto di cogestione ai sensi del § 87 comma 1 n. 7 della legge sull'organizzazione aziendale (BetrVG), combinato con una valutazione del rischio ai sensi del § 3 dell'ordinanza sull'organizzazione aziendale (BetrSichV) e del § 5 comma 3 n. 6 della legge sulla protezione delle aziende (ArbSchG).

Inoltre, in futuro tutte le soluzioni di intelligenza artificiale interne saranno disciplinate dal Regolamento sull'intelligenza artificiale. Indipendentemente dalla loro classificazione di rischio, questi sistemi di intelligenza artificiale devono quindi rispettare gli obblighi di informazione previsti dall'articolo 50 del regolamento sull'intelligenza artificiale. I dipendenti devono sempre essere in grado di riconoscere che hanno a che fare con un'intelligenza artificiale, a meno che ciò non sia ovvio. Sistemi ad alto rischio, in particolare applicazioni HR relative all’assunzione, al licenziamento, alla promozione o ad altri monitoraggi e valutazioni individuali di Dipendenti – sono anch’essi soggetti a obblighi particolari nei confronti dei fornitori e degli operatori. Il datore di lavoro, in qualità di gestore di un impianto, deve innanzitutto garantire un'organizzazione sicura e un'adeguata supervisione dell'impianto.

Conclusione e prospettive

Se i dipendenti si avvalgono di fornitori esterni di intelligenza artificiale per svolgere il proprio lavoro, ciò comporta significativi rischi reali e legali. Tuttavia, un divieto assoluto di IA è utile solo in misura limitata ed è consigliato principalmente per le aree ad alto rischio. Tutti gli altri dovrebbero Sensibilizzare i dipendenti sui rischi dell'intelligenza artificiale e fornire loro regole adeguate e vincolanti. Una volta introdotte, le linee guida sull'intelligenza artificiale dovrebbero essere verificate a intervalli regolari per verificarne la conformità con gli sviluppi tecnici e, se del caso, con i cambiamenti del quadro giuridico. L'introduzione di linee guida sull'intelligenza artificiale è pertanto raccomandata come misura immediata per tutti i datori di lavoro che non la adottano pienamente. vogliono vietare. Anche nelle aziende dotate di un comitato aziendale, l'introduzione è solitamente possibile mediante un'istruzione "semplice" ai sensi del § 106 del Codice del commercio tedesco (GewO) senza cogestione. Tuttavia, se contemporaneamente viene introdotta una tecnologia AI aziendale interna, si applica la Sezione 87 Paragrafo 1 n. 6 È necessario rispettare la BetrVG. In futuro, nelle aziende saranno sempre più utilizzati sistemi di intelligenza artificiale personalizzati e specifici per ogni applicazione. Non appena entreranno in vigore le disposizioni chiave del regolamento sull'intelligenza artificiale, l'Unione Europea applicherà norme severe. Quando si tratta di sistemi ad alto rischio (come nell'area delle risorse umane), un elevato livello di regolamentazione, soprattutto per i fornitori di queste IA.

Tuttavia, anche le aziende in cui vengono impiegate queste soluzioni di intelligenza artificiale sono soggette a notevoli obblighi in quanto gestori di tale intelligenza artificiale. In vista del regolamento sull'intelligenza artificiale, entrato in vigore il 1° agosto di quest'anno, è necessario avviare l'attuazione operativa per completarla entro il periodo di attuazione di due anni prima dell'entrata in vigore delle disposizioni normative. Saremo lieti di rispondere a qualsiasi domanda in merito all'uso conforme alla legge delle applicazioni di intelligenza artificiale dal punto di vista del diritto del lavoro.

Fai una richiesta ora
Saremo lieti di fornirvi una consulenza completa e personale sulla vostra richiesta.

Avvocato e consulente di conformità certificato

FOTO 3-Mobile

Volentieri a vostra disposizione

Eccoci

Il vostro studio legale Geißler Legal.

Indirizzo

Gertrudenstr. 30-36 (Willy-Millowitsch-Platz)
D-50667 Colonia
Telefono:
0221-42482831
Telefono:
0171-2211612

Orario di lavoro

Lun-sab: 10:00 - 13:00
Lun-Ven: 14:00 - 20:00 
e su appuntamento telefonico

Eccoci

it_ITItalian