Cosa cambia quando uno studio professionale usa l’intelligenza artificiale: responsabilità e metodo

Negli ultimi tempi l’intelligenza artificiale è entrata progressivamente anche nelle attività professionali, inclusi gli studi che si occupano di IP.

 

In questi contesti, l’intelligenza artificiale può assistere il professionista, supportando alcune attività, contribuendo all’analisi di informazioni complesse e producendo elaborazioni utili nel processo di lavoro. C’è una cosa, però, che non può fare: sostituire la competenza del professionista.

 

Ed è proprio su questo punto che il tema diventa interessante per chi si rivolge a uno studio professionale e, nel mio caso, a uno studio di consulenza in proprietà industriale.

 

Quando un cliente chiede un parere, una valutazione o una strategia in materia di brevetti, marchi o altri diritti di proprietà industriale, potrebbe non essere interessato a sapere se il professionista utilizza o meno strumenti di intelligenza artificiale. Ciò che conta davvero è un altro elemento, ossia la solidità della decisione formulata dal professionista in risposta al quesito posto e la responsabilità che egli assume.

 

Il cliente non paga una tecnologia, paga il giudizio professionale di chi la utilizza.

 

Da tempo mi occupo di questi temi, che ho avuto modo di studiare in maniera approfondita, anche attraverso il recente lavoro svolto nel Gruppo di Studio sull’intelligenza artificiale dell’Ordine dei Consulenti in Proprietà Industriale, l’Ordine professionale al cui Albo sono iscritta.

 

Dalla mia esperienza emerge con grande chiarezza un punto che spesso nel dibattito pubblico sull’intelligenza artificiale viene sottovalutato. Quando l’intelligenza artificiale entra nel lavoro di uno studio professionale, non cambia soltanto il modo di lavorare, ma anche il modo in cui devono essere gestite le responsabilità e il controllo delle decisioni che incidono sugli interessi del cliente.

 

Il quadro normativo europeo e nazionale è molto chiaro su questo aspetto.

 

Il Regolamento (UE) 2024/1689 sull’intelligenza artificiale – il cosiddetto AI Act – e la legge italiana 23 settembre 2025, n. 132, che ne accompagna l’attuazione nel diritto interno, partono entrambi da un presupposto molto semplice: l’intelligenza artificiale può essere utilizzata nei processi decisionali, ma la responsabilità della decisione resta sempre in capo a chi utilizza il sistema, quindi – nel nostro caso – al professionista.

 

Il sistema di intelligenza artificiale non decide. La responsabilità non è della tecnologia.

 

Questo significa che quando uno studio professionale utilizza sistemi di intelligenza artificiale, il soggetto che utilizza il sistema (deployer) resta pienamente responsabile del modo in cui quello strumento viene impiegato, del peso attribuito all’output (cioè al risultato prodotto dal sistema) e, soprattutto, della decisione finale che viene comunicata al cliente o che produce effetti per il cliente, per i suoi concorrenti o per il mercato.

 

Per chi esercita professioni ad alto contenuto di responsabilità – come quelle che operano nel campo della proprietà industriale e negli studi professionali in genere – questo significa che l’uso dell’intelligenza artificiale non riduce la responsabilità professionale; in molti casi può addirittura renderla più esigente.

 

Uno dei rischi più discussi nell’uso dei sistemi di intelligenza artificiale riguarda il modo in cui gli esseri umani tendono ad attribuire autorità agli output prodotti dal sistema, soprattutto quando tali output appaiono plausibili o formalmente corretti.

 

Perché il vero problema non è che l’intelligenza artificiale può sbagliare, ma che può sbagliare bene, ossia può produrre risultati che sembrano convincenti, coerenti, perfino sofisticati, ma che non reggono a un’analisi giuridica approfondita o che non tengono conto del contesto concreto in cui la decisione deve essere presa. Se questo accade e l’output viene accettato – quindi recepito – senza un controllo critico, il rischio non riguarda il sistema, ma si riversa sul professionista che ha deciso di utilizzarlo.

 

Ed è qui che entra in gioco il tema della responsabilità.

 

Il Regolamento europeo e la legge italiana insistono molto sul fatto che il controllo umano deve essere reale. Non una supervisione simbolica o meramente formale, ma la capacità effettiva di comprendere il ruolo del sistema, valutarne i risultati e decidere se utilizzarli, modificarli oppure ignorarli.

 

Se una decisione viene contestata, se un parere viene messo in discussione o se una strategia si rivela errata, il professionista deve essere in grado di spiegare come è arrivato a quella decisione. Deve poter dimostrare che il giudizio espresso non è il risultato di un affidamento automatico sull’output di un sistema, ma di una valutazione consapevole e responsabile.

 

Il cliente non si aspetta una risposta prodotta da un sistema. Si aspetta una decisione che possa essere spiegata, difesa e sostenuta da chi l’ha formulata.

 

L’intelligenza artificiale può essere utilizzata come una protesi cognitiva, ossia come uno strumento capace di ampliare la capacità di analisi e di elaborazione delle informazioni. La tecnologia può accelerare alcuni processi, ma non sostituisce il capitale di conoscenze, esperienza e capacità di giudizio che caratterizzano una professione intellettuale.

 

La decisione resta umana. E con essa resta anche la responsabilità.

 

Per chi esercita professioni intellettuali questo non è soltanto un principio giuridico. È una questione di metodo.

 

Gli strumenti possono cambiare. Possono diventare più potenti, più veloci, più sofisticati.

 

Ma il punto decisivo resta lo stesso: la qualità di una decisione professionale non dipende dalla tecnologia utilizzata, ma dalla competenza e dalla responsabilità di chi decide.

 

 

Gaetana Montalto – Managing Partner

Condividi sui social:

Notizie e approfondimenti

MODENA
Viale Corassori, 54 – Modena
T +39 059 359916

MILANO
Via De Amicis, 19 – 20123 Milano
T +39 02 8378190

BOLOGNA
Via Arienti 15/2A – 40124 Bologna
T +39 051 223626

ROMA
Viale dei Parioli, 160, 00197 Roma
T. +39 06 8083302

Follow us