Equipos legales se quedan atrás en la adopción de inteligencia artificial, dejando a las PYME vulnerables

Puntos clave
- El 70% de los trabajadores legales ya utilizan herramientas de inteligencia artificial de propósito general.
- El 43% de las organizaciones carecen de políticas formales de inteligencia artificial y no tienen planes para crearlas.
- La seguridad de los datos es la principal preocupación para los equipos legales (46%).
- Las PYME enfrentan un riesgo mayor debido a los recursos limitados y los cambios invisibles en los flujos de trabajo.
- Los trabajadores a menudo pegan documentos confidenciales en chatbots públicos, exponiendo los datos.
- Una política básica de inteligencia artificial puede definir herramientas aprobadas, restrinjan la información sensible y requerir supervisión humana.
- La aprobación temprana de herramientas de inteligencia artificial y la supervisión antes de su uso pueden alinear la eficiencia con la gobernanza.
- Los productos de inteligencia artificial de nivel empresarial ofrecen una protección de datos más fuerte que las versiones públicas.
Un nuevo estudio de Nexos.ai encuentra que mientras el 70% de los trabajadores legales ya están utilizando herramientas de inteligencia artificial de propósito general, el 43% de las organizaciones no tienen políticas formales de inteligencia artificial ni planes para crearlas. El mayor riesgo para las pequeñas y medianas empresas (PYME) no es el uso temerario de la inteligencia artificial, sino los cambios invisibles en los flujos de trabajo que dejan expuesta la información sensible. Los investigadores instan a las PYME a adoptar políticas simples y claras que definan herramientas aprobadas, restrinjan la información sensible y requieran supervisión humana antes de que se utilice contenido generado por inteligencia artificial en el trabajo legal.
La adopción de inteligencia artificial supera el desarrollo de políticas
Una investigación reciente de Nexos.ai revela una brecha creciente entre la rápida adopción de la inteligencia artificial por parte de los profesionales legales y la creación más lenta de marcos de gobernanza formales. Aproximadamente el setenta por ciento de los trabajadores legales informan que utilizan herramientas de inteligencia artificial de propósito general para sus tareas diarias, sin embargo, el cuarenta y tres por ciento de las organizaciones admiten que no tienen políticas formales de inteligencia artificial en lugar y no tienen planes para desarrollarlas.
Los cambios invisibles en los flujos de trabajo plantean la mayor amenaza
El estudio destaca que el mayor riesgo para las pequeñas y medianas empresas (PYME) no es el uso ostensible de la inteligencia artificial, sino los cambios sutiles e invisibles en los flujos de trabajo que ocurren cuando los empleados adoptan herramientas sin directrices claras. Estos cambios ocultos pueden llevar a la exposición involuntaria de información confidencial, especialmente cuando el personal pega contratos, acuerdos de no divulgación u otra correspondencia legal en chatbots públicos para ahorrar tiempo.
Las preocupaciones de seguridad de los datos dominan la conversación, con el cuarenta y seis por ciento de los equipos legales citando la seguridad como su principal preocupación, seguida de cuestiones éticas en el cuarenta y dos por ciento y el privilegio legal en el treinta y nueve por ciento. Mientras que las soluciones de inteligencia artificial de nivel empresarial prometen una protección robusta de los datos y prohíben el entrenamiento con datos del cliente, las versiones públicas de inteligencia artificial carecen de estas salvaguardias, lo que aumenta el riesgo de fuga de datos.
Las PYME están particularmente expuestas
Las PYME a menudo operan con recursos limitados, tanto en personal como en infraestructura procedimental, lo que las hace especialmente vulnerables a las consecuencias del uso no gobernado de la inteligencia artificial. La investigación sugiere que muchas de estas empresas ya tienen flujos de trabajo impulsados por inteligencia artificial en lugar, pero estos procesos permanecen sin documentar y sin reconocer, lo que deja a las empresas luchando por establecer la gobernanza después de que los empleados ya han integrado las herramientas en sus rutinas.
Recomendaciones para una gobernanza simple y efectiva
El jefe de producto Zilvinas Girenas aconseja que el riesgo para las PYME se deriva de los cambios invisibles en los flujos de trabajo en lugar del despliegue temerario de la inteligencia artificial. Recomienda que las empresas comiencen con una política de inteligencia artificial sencilla que describa herramientas aprobadas, prohíba casos de uso prohibidos y especifique restricciones para el manejo de información sensible. Dicha política no necesita ser compleja; su función principal es mantener la información confidencial fuera de herramientas no aprobadas.
Los pasos clave incluyen aprobar soluciones de inteligencia artificial antes de que los equipos las adopten, requerir supervisión humana antes de que se utilice contenido generado por inteligencia artificial en aplicaciones legales y establecer procedimientos de revisión claros. Al implementar estas salvaguardias básicas temprano, las organizaciones pueden prevenir que los beneficios de eficiencia superen las estructuras de gobernanza.
Mirando hacia adelante
El informe de Nexos.ai subraya la urgencia para que las PYME pongan al día la gobernanza de la inteligencia artificial. A medida que la inteligencia artificial continúa permeando los flujos de trabajo legales, las empresas que definan proactivamente el uso de herramientas, los límites de los datos y los mecanismos de supervisión estarán mejor posicionadas para proteger la información sensible mientras aún se benefician de los mejoramientos de productividad que ofrece la inteligencia artificial.