Abuso da Polícia do Reino Unido em Relação à Inteligência Artificial Leva a Proibição Questionável de Torcedores
Pontos principais
- A polícia admitiu que um relatório de inteligência defeituoso foi produzido pelo Microsoft Copilot.
- O erro levou a uma proibição de torcedores de futebol com base em dados imprecisos.
- A Secretária do Interior, Shabana Mahmood, chamou o incidente de "falha de liderança" e retirou a confiança no oficial de polícia.
- Parlamentares e líderes partidários exigiram a renúncia do oficial.
- Críticos apontaram a ausência de uma política de IA, treinamento ou regras para o uso da tecnologia pela polícia.
- O caso destaca os riscos de implantar IA não confiável em decisões de segurança.
Um oficial de polícia sênior admitiu que um relatório de inteligência errôneo sobre torcedores de futebol foi gerado pelo Microsoft Copilot, uma ferramenta de inteligência artificial propensa a "alucinações". O erro levou a uma proibição de torcedores, o que fez com que a Secretária do Interior criticasse a polícia por confiar em inteligência artificial não testada sem política ou treinamento. Parlamentares e líderes partidários pediram a renúncia do oficial, destacando preocupações sobre o uso de tecnologia não confiável em decisões de segurança.
Erro Gerado por IA Desencadeia Controvérsia
Um líder policial sênior reconheceu publicamente que uma avaliação de inteligência defeituosa sobre torcedores de futebol originou-se do uso do Microsoft Copilot, um assistente de inteligência artificial conhecido por produzir resultados imprecisos, frequentemente descritos como "alucinações". A admissão veio após a polícia ter negado o uso de ferramentas de IA na preparação de relatórios de inteligência.
Consequências Políticas
A Secretária do Interior, Shabana Mahmood, abordou a questão no Parlamento, descrevendo o incidente como uma "falha de liderança" e afirmando que não tinha mais confiança no oficial de polícia envolvido. Ela culpou a proibição por "viés de confirmação" e disse que a polícia havia afirmado anteriormente que as informações foram coletadas por outros meios.
Chamados à Responsabilização
Membros do Parlamento, bem como figuras seniores do partido no poder, exigiram a renúncia do oficial de polícia, argumentando que o uso de um sistema de IA não confiável para decisões de segurança sensíveis era inaceitável. Críticos destacaram a falta de uma política de IA, treinamento ou regras claras que governem o uso da tecnologia.
Implicações Mais Amplas
O episódio levantou questões sobre a adoção de tecnologias emergentes por agências de aplicação da lei, especialmente quando essas ferramentas podem produzir saídas errôneas sem supervisão adequada. Isso sublinha a necessidade de diretrizes claras, treinamento e mecanismos de responsabilização antes que os sistemas de IA sejam integrados a operações críticas de segurança pública.