Responsabilidad ética y legal por emplear la IA
Wendy Salgado, Claudina Canto y Liliana Almendárez
30 de Octubre, 2025

A lo largo de la historia, el ejercicio de la abogacía ha evolucionado de la mano de las herramientas tecnológicas que facilitan la profesión. Desde la invención de la máquina de escribir hasta la sofisticación actual que implica el uso de la Inteligencia Artificial (IA) y los agentes inteligentes, la tecnología ha sido un catalizador constante. Hoy, la Inteligencia Artificial Generativa ha redefinido el panorama. Impulsada por los Modelos de Lenguaje Grande (LLM, por sus siglas en inglés de Large Language Model), esta tecnología no se limita a analizar o clasificar información, sino que produce resultados originales que imitan o expanden el conocimiento preexistente, generando contenido novedoso como texto, imágenes, audio, video o código.


Un LLM es un sistema diseñado para procesar una vasta cantidad de datos de entrada (texto) y transformarlos en una salida textual coherente y contextualizada. Esto permite realizar tareas complejas como responder preguntas, resumir documentos, analizar información y mantener conversaciones, constituyendo el núcleo de la IA que actualmente está transformando el sector legal.


La IA se ha consolidado como una herramienta invaluable para las abogadas y abogados. Sus beneficios operativos radican en la optimización de tareas rutinarias y el análisis eficiente de grandes volúmenes de información. Esto, a su vez, libera tiempo que las personas abogadas pueden invertir en áreas de alto valor, como la educación continua, el aumento de la creatividad y el desarrollo estratégico de la profesión. Estos elementos son cruciales para un ejercicio profesional competitivo y moderno. Es fundamental que las abogadas y abogados adopten una mentalidad abierta, adaptándose y progresando con las tecnologías emergentes. Ser disruptivo y vanguardista al apoyarse en cualquier herramienta que potencie el ejercicio de la profesión ya no es una opción, sino una necesidad.


A pesar de los innegables beneficios, el uso de estas herramientas plantea una pregunta de suma importancia: ¿Cuál es el uso correcto de la Inteligencia Artificial para las abogadas y abogados? Si bien existe un movimiento regulatorio internacional, la cuestión ética sigue siendo el eje central de la discusión sobre la responsabilidad profesional en la era digital. La percepción de la IA como una "maravilla" tecnológica no debe eclipsar la necesidad de establecer límites y directrices claras para su aplicación. A nivel global, ya se han emitido pronunciamientos clave, como la recomendación de la UNESCO en 2021 sobre la ética de la Inteligencia Artificial, enfocada en la protección de los derechos humanos, la dignidad, la transparencia y la equidad. A esto se suman el AI Act de la Unión Europea, la Orden Ejecutiva 14110 de Estados Unidos, y el avance en la legislación regional como el Reglamento de la Ley n.° 31814 en Perú.


La situación en México respecto a la regulación de la IA en el ámbito legal es un punto crítico. Ante la ausencia de un marco regulatorio específico, la carga ética recae directamente sobre las personas abogadas. Esto implica que la ética y la deontología de las abogadas y abogados se convierten en el principal mecanismo de control para el uso responsable de la IA. La IA no crea un nuevo estándar moral; más bien, reafirma los estándares ya existentes. La implementación de esta tecnología en la abogacía nos recuerda que, si bien la herramienta es nueva, los principios de profesionalismo, diligencia y razonamiento lógico siguen siendo inmutables.


En este sentido, los principios éticos tradicionales se traducen en acciones concretas en la era digital. La Diligencia Profesional exige la revisión y verificación humana de todo contenido generado por IA. La Confidencialidad prohíbe compartir información sensible o confidencial con IAs públicas. La Responsabilidad establece que la persona abogada es indelegablemente responsable por los resultados y errores, como sesgos o alucinaciones, de la IA. Finalmente, la Transparencia impone la obligación de ser claro sobre el uso de la IA en los procesos legales.


Es evidente la necesidad de desarrollar e implementar mecanismos y herramientas internas que vigilen y garanticen el uso adecuado y responsable de la Inteligencia Artificial. Estos mecanismos se materializan en políticas internas que regulan el trabajo y fomentan la concientización sobre los riesgos y responsabilidades.


Una política de uso responsable de IA debe ser exhaustiva. Primero, debe incluir una Definición de Alcance y Objetivo para orientar y enfocar lo que se busca proteger, como la información, los derechos humanos y la propiedad intelectual. En segundo lugar, es vital establecer un Control de Herramientas, definiendo qué IAs están permitidas o prohibidas para prevenir riesgos, y prohibiendo categóricamente compartir información confidencial con IAs públicas. Además, es necesaria la Trazabilidad y Autorización, estableciendo procedimientos claros para los dispositivos permitidos, así como su autorización, registro y desvinculación, lo que convierte las acciones en responsabilidad. Finalmente, el Monitoreo y Roles debe definir quién decide y quién responde, garantizando la privacidad y la salvaguarda de los datos. Supervisar el uso de la IA a través de procesos documentados es crucial para evitar poner en riesgo la confianza o el prestigio de la persona abogada o del despacho. Las reglas no limitan la creatividad; la sostienen. No se trata de limitar la innovación, sino de acompañarla con principios y herramientas que la hagan confiable y segura.


En un contexto como el mexicano, donde la regulación aún está en desarrollo, las limitaciones éticas y responsables de la IA son un imperativo moral. El punto central es la responsabilidad indelegable de la persona abogada por los resultados de la IA. Habiendo observado sesgos, errores y "alucinaciones" en distintas Inteligencias, es la persona profesional quien asume la responsabilidad de sus resultados. No se puede atribuir una falta de observación y cuidado a la herramienta; el usuario es el responsable final de sus respuestas y acciones.


Por ello, se recomienda encarecidamente la revisión humana de todo resultado generado por la Inteligencia Artificial, ya que esto es un reflejo directo de la imagen profesional. Para una empresa o despacho, esto abre la necesidad de establecer protocolos internos de análisis, verificación y revisión documental, incluyendo la comprobación de citas y fuentes para el control de calidad. Esto es fundamental para evitar daños reputacionales, errores profesionales y grandes consecuencias económicas. Entender que la IA es una herramienta de apoyo y no un sustituto de la persona profesional o del juicio humano marca la diferencia entre una práctica responsable y una que vulnere los derechos de las personas. La coexistencia entre la tecnología y la ética legal se convierte en el eje central de una práctica moderna, transparente y segura.


*El contenido de este artículo es publicado bajo la responsabilidad de sus autoras y no necesariamente refleja la posición de Abogadas MX.

Wendy Salgado

Abogada egresada de la Universidad Anáhuac, con estudios en Derecho Informático y Derecho Internacional por la Universidad Complutense de Madrid. Es Directora Legal y Fundadora de WS8 Legal Tech, firma especializada en ciberseguridad, propiedad intelectual y transformación digital. Actualmente se desempeña como Coordinadora Nacional de Capítulos de Abogadas MX, donde lidera el Proyecto de Expansión Geográfica y es creadora del primer Curso de Inteligencia Artificial para Abogadas MX. Es también Coordinadora del Comité de Derecho Informático de ANADE, Sección Yucatán, y fue organizadora del primer Seminario de Derecho Digital en el estado.

Claudina Canto

Claudina Canto es Senior Technology Attorney en WS8.

Liliana Almendárez

Liliana Almendárez es Senior Technology Attorney en WS8.

ARTÍCULOS RELACIONADOS.

...
...
...
...
...
...
...