Veure tota l'activitat

13/05/2026

Ús de la intel·ligència artificial generativa en l’exercici professional de l’advocacia

Circular 40/2026

Benvolguts companys, benvolgudes companyes,

La junta de govern de l’Il·lustre Col·legi de l’Advocacia de Girona, considera oportú adreçar-vos aquesta circular informativa, sobre l’ús de la intel·ligència artificial en l’advocacia, i dels comentaris doctrinals que se n’han fet recentment.

La finalitat d’aquesta comunicació no és desaconsellar l’ús de la intel·ligència artificial, sinó recordar que aquestes eines han de ser utilitzades amb criteri professional, diligència, prudència i ple respecte als deures deontològics propis de l’advocacia.

1. La intel·ligència artificial és una eina, no un substitut del criteri professional

Els sistemes d’intel·ligència artificial generativa poden ser útils per preparar esborranys, ordenar informació, resumir documents, formular hipòtesis de treball o ajudar en determinades tasques auxiliars.

Ara bé, aquests sistemes poden cometre errors rellevants: poden inventar jurisprudència, citar normes inexistents o derogades, construir arguments incorrectes o oferir respostes aparentment sòlides però jurídicament equivocades.

Per tant, la IA pot ajudar l’advocat o advocada, però no pot substituir-ne el judici professional.

2. La responsabilitat sempre és de l’advocat o advocada que signa o utilitza el document

El fet que un text hagi estat generat totalment o parcialment amb intel·ligència artificial no altera la responsabilitat professional.

Quan un advocat signa un escrit, l’envia a un client, el presenta davant un tribunal o l’utilitza en una actuació professional, assumeix plenament el seu contingut.

No és admissible justificar un error dient que “l’ha comès la màquina”, “l’ha generat el programa” o “la IA ho ha indicat així”. La decisió d’utilitzar l’eina i de donar validesa al resultat correspon sempre al professional del dret.

3. No es pot presentar ni lliurar cap document generat amb IA sense revisió completa

Tot text elaborat amb ajuda d’intel·ligència artificial ha de ser llegit íntegrament i revisat críticament abans de ser utilitzat.

Aquesta revisió ha d’incloure, com a mínim:

  • La comprovació de les normes citades.
  • La verificació de la jurisprudència esmentada.
  • La revisió de la coherència jurídica del raonament.
  • L’adequació del text al cas concret.
  • La comprovació que no s’han incorporat dades falses, incompletes o inadequades.
  • La protecció del secret professional i de la confidencialitat.
  • Una lectura superficial no és suficient. La revisió ha de ser real, completa i material.

4. Especial atenció al secret professional i a la confidencialitat

L’ús d’eines d’intel·ligència artificial pot comportar riscos en matèria de confidencialitat, especialment quan s’hi introdueixen dades de clients, documents judicials, informes, contractes, converses o informació sensible.

Abans d’utilitzar una eina d’aquest tipus, cal valorar si la informació que s’hi introdueix pot quedar emmagatzemada, reutilitzada o tractada per tercers.

Com a criteri general, no s’hauria d’introduir informació confidencial o identificable de clients en eines d’IA que no ofereixin garanties suficients de seguretat, confidencialitat i control del tractament de les dades.

5. Possibles conseqüències deontològiques

La presentació o lliurament d’un document elaborat amb intel·ligència artificial sense la deguda verificació, si conté errors rellevants, pot tenir transcendència deontològica.

En particular, pot ser considerada una conducta negligent i constituir una infracció disciplinària, especialment quan afecti el client, el tribunal, la part contrària o la dignitat de la professió.

En els casos més greus, si la manca de control provoca indefensió material al client o equival a un abandonament real de la defensa, la responsabilitat podria ser encara més intensa.

No es tracta de sancionar l’ús de la tecnologia, sinó la delegació acrítica del treball professional en una eina que no pot assumir responsabilitat jurídica ni deontològica.

6. Criteris pràctics recomanats

Per a un ús prudent i responsable de la intel·ligència artificial en l’exercici professional, es recomana observar aquests criteris:

  • Utilitzar la IA només com a eina auxiliar.
  • No copiar ni presentar textos generats automàticament sense revisió.
  • Contrastar sempre les cites legals i jurisprudencials amb fonts oficials o bases jurídiques fiables.
  • No utilitzar IA per a matèries que el professional no domini suficientment.
  • No introduir dades confidencials de clients en eines que no garanteixin adequadament la seguretat i la confidencialitat, així com la protecció de dades.
  • Conservar, quan sigui convenient, una mínima traçabilitat interna de l’ús de la IA: per a què s’ha utilitzat, quins documents ha ajudat a preparar i quines comprovacions s’han fet.
  • Recordar que la decisió final, el criteri jurídic i la responsabilitat són sempre del professional.
  • Informar al client de manera clara, prèvia i comprensible, de la possible utilització d’eines auxiliars d’intel·ligència artificial, degudament supervisades amb criteris professionals.

7. Conclusió

La intel·ligència artificial pot ser una eina útil per a l’advocacia, sempre que s’utilitzi amb prudència i sota control humà efectiu.

El que no és acceptable és substituir la diligència professional per una confiança cega en un sistema automatitzat. L’essència de la nostra professió continua essent la mateixa: defensar els drets i interessos dels clients amb independència, lleialtat, competència, secret professional i responsabilitat.

Des de la Comissió de Deontologia de l’ICAG es recomana als col·legiats i col·legiades que incorporin aquestes eines, si ho consideren oportú, amb criteris clars de supervisió, verificació, responsabilitat i prudència professional.

 

Cordialment,

Josep Viella i Massegú
President de la Comissió de Deontologia
Secretari

Il·lustre Col·legi de l’Advocacia de Girona

Girona, el dia 13 de maig de 2026