Equipes Jurídicas Perdem o Passo na Adoção de IA, Deixando PMEs Vulneráveis

Legal Teams Lag Behind AI Adoption, Leaving SMBs Vulnerable

Pontos principais

  • 70% dos trabalhadores jurídicos já usam ferramentas de IA de propósito geral.
  • 43% das organizações não têm políticas ou planos formais de IA.
  • Segurança de dados é a principal preocupação para as equipes jurídicas (46%).
  • PMEs enfrentam risco aumentado devido a recursos limitados e mudanças invisíveis nos fluxos de trabalho.
  • Funcionários frequentemente colam documentos confidenciais em chatbots públicos, expondo dados.
  • Uma política de IA básica pode definir ferramentas aprovadas, restringir dados sensíveis e exigir supervisão humana.
  • Aprovação antecipada de ferramentas de IA e supervisão antes do uso podem alinhar eficiência com governança.
  • Produtos de IA de nível empresarial oferecem proteção de dados mais forte do que as versões públicas.

Um novo estudo da Nexos.ai revela que, embora 70% dos trabalhadores jurídicos já usem ferramentas de IA de propósito geral, 43% das organizações não têm políticas ou planos formais de IA. O maior risco para pequenas e médias empresas (PMEs) não é o uso imprudente de IA, mas as mudanças invisíveis nos fluxos de trabalho que expõem dados sensíveis. Os pesquisadores recomendam que as PMEs adotem políticas simples e claras que definam ferramentas aprovadas, restrinjam dados sensíveis e exijam supervisão humana antes de o conteúdo gerado por IA ser usado em trabalhos jurídicos.

Adoção de IA Avança sobre o Desenvolvimento de Políticas

Pesquisas recentes da Nexos.ai revelam uma lacuna cada vez maior entre a adoção rápida de inteligência artificial por profissionais jurídicos e a criação mais lenta de estruturas de governança formais. Aproximadamente setenta por cento dos trabalhadores jurídicos relatam usar ferramentas de IA de propósito geral para suas tarefas diárias, no entanto, quarenta e três por cento das organizações admitem não ter políticas de IA formais em vigor e não têm planos para desenvolvê-las.

Mudanças Invisíveis nos Fluxos de Trabalho Representam a Maior Ameaça

O estudo destaca que o maior risco para pequenas e médias empresas (PMEs) não é o uso ostensivo de IA, mas as mudanças sutis e invisíveis nos fluxos de trabalho que ocorrem quando os funcionários adotam ferramentas sem diretrizes claras. Essas mudanças ocultas podem levar à exposição inadvertida de informações confidenciais, especialmente quando os funcionários colam contratos, acordos de não divulgação ou outras correspondências jurídicas em chatbots públicos para economizar tempo.

Preocupações com a segurança de dados dominam a conversa, com quarenta e seis por cento das equipes jurídicas citando segurança como sua principal preocupação, seguida por questões éticas em quarenta e dois por cento e privilégio jurídico em trinta e nove por cento. Embora as soluções de IA de nível empresarial prometam proteção robusta de dados e proíbam o treinamento em dados de clientes, as versões públicas de IA carecem dessas salvaguardas, aumentando o risco de vazamento de dados.

PMEs Estão Particularmente Expostas

PMEs frequentemente operam com recursos limitados, tanto em termos de pessoal quanto de infraestrutura procedimental, tornando-as especialmente vulneráveis às consequências do uso não governado de IA. A pesquisa sugere que muitas dessas empresas já têm fluxos de trabalho impulsionados por IA em vigor, mas esses processos permanecem não documentados e não reconhecidos, deixando as empresas se esforçando para estabelecer governança após os funcionários já terem integrado as ferramentas em suas rotinas.

Recomendações para Governança Simples e Eficaz

O chefe de produto Zilvinas Girenas aconselha que o risco para as PMEs decorre de mudanças invisíveis nos fluxos de trabalho, e não do uso imprudente de IA. Ele recomenda que as empresas comecem com uma política de IA direta que especifique ferramentas aprovadas, proíba casos de uso proibidos e especifique restrições ao manuseio de dados sensíveis. Tal política não precisa ser complexa; sua função primária é manter informações confidenciais fora de ferramentas não aprovadas.

Etapa importante inclui aprovar soluções de IA antes que as equipes as adotem, exigir supervisão humana antes que o conteúdo gerado por IA seja empregado em aplicações jurídicas e estabelecer procedimentos de revisão claros. Ao implementar essas salvaguardas básicas desde cedo, as organizações podem prevenir que os ganhos de eficiência ultrapassam as estruturas de governança.

Olhando para o Futuro

O relatório da Nexos.ai destaca a urgência para as PMEs se atualizarem em termos de governança de IA. À medida que a IA continua a permeiar os fluxos de trabalho jurídicos, as empresas que proativamente definem o uso de ferramentas, limites de dados e mecanismos de supervisão estarão melhor posicionadas para proteger informações sensíveis, ao mesmo tempo em que aproveitam os benefícios de produtividade que a IA oferece.

#inteligência artificial#tecnologia jurídica#pequenas empresas#segurança de dados#governança de IA#desenvolvimento de políticas#gerenciamento de fluxos de trabalho#gerenciamento de riscos#IA empresarial#adoção de tecnologia

Também disponível em: