Críticos cuestionan la advertencia de seguridad de AI de Microsoft

Puntos clave
- Microsoft advirtió que su función de AI podría infectar dispositivos y robar datos.
- La protección depende de que los usuarios lean y aprueben los diálogos de permiso.
- Los expertos advierten que los usuarios pueden habituarse e ignorar las solicitudes de seguridad.
- Los ataques "ClickFix" muestran ejemplos en el mundo real de usuarios engañados.
- Los críticos califican la advertencia como un movimiento legal en lugar de una salvaguarda real.
- Los líderes de la industria, incluyendo Microsoft, carecen de soluciones para la inyección de solicitudes y las alucinaciones.
- Las características de AI de las principales empresas de tecnología a menudo desplazan la responsabilidad a los usuarios y se convierten en predeterminadas.
Microsoft advirtió que su nueva función de AI podría infectar computadoras y robar datos, pero expertos dicen que la salvaguarda depende de que los usuarios hagan clic en los permisos, lo que podría ser ineficaz si los usuarios se habitúan a ignorar las advertencias.
La función de AI de Microsoft y la advertencia
Microsoft emitió una advertencia de que su última función de AI podría potencialmente infectar máquinas y sustraer datos. El enfoque de la empresa coloca la responsabilidad en los usuarios de leer ventanas de diálogo que les alertan sobre los riesgos y de otorgar una aprobación cuidadosa antes de proceder.
Preocupaciones de expertos sobre las solicitudes de permiso de los usuarios
Los críticos argumentan que esta dependencia de la interacción del usuario disminuye el valor general de la protección. Earlence Fernandes, un profesor de la Universidad de California en San Diego especializado en seguridad de AI, explicó: "La advertencia usual aplica a tales mecanismos que dependen de que los usuarios hagan clic en una solicitud de permiso. A veces, esos usuarios no entienden completamente lo que está sucediendo, o podrían simplemente habituarse y hacer clic en \'sí\' todo el tiempo. En ese punto, el límite de seguridad no es realmente un límite".
Exploits en el mundo real ilustran el riesgo
Los ataques "ClickFix" recientes demuestran cómo los usuarios pueden ser engañados para seguir instrucciones peligrosas. Mientras que algunos observadores culpan a las víctimas por caer en estafas, los incidentes revelan que incluso los usuarios cuidadosos pueden cometer errores debido a la fatiga, el estrés emocional o la falta de conocimiento.
Críticas a las motivaciones de Microsoft
Varios críticos ven la advertencia como un movimiento legal en lugar de una solución de seguridad genuina. Un crítico la describió como "nada más que un esfuerzo de cubrirse las espaldas" para proteger a la empresa de la responsabilidad.
Desafíos en toda la industria
Reed Mideke, un crítico de tecnología, argumentó que Microsoft y la industria en general no han resuelto los problemas fundamentales de AI, como la inyección de solicitudes o las alucinaciones. Él declaró: "Microsoft (al igual que el resto de la industria) no tiene idea de cómo detener la inyección de solicitudes o las alucinaciones, lo que lo hace fundamentalmente inadecuado para casi cualquier cosa seria. La solución! Desplazar la responsabilidad al usuario. Al igual que todos los chatbots de LLM tienen un aviso de \'oh, por cierto, si usa esto para algo importante, asegúrese de verificar las respuestas\' , sin importar que no necesitaría el chatbot en primer lugar si supiera la respuesta".
Características de AI que se convierten en predeterminadas
Mideke también señaló que integraciones similares están apareciendo en productos de Apple, Google y Meta. Estas características a menudo comienzan como opcionales pero eventualmente se convierten en capacidades predeterminadas, independientemente de la preferencia del usuario.
Perspectiva general
La discusión subraya una creciente tensión entre la innovación de AI y las salvaguardas de seguridad. Mientras que la advertencia de Microsoft tiene como objetivo alertar a los usuarios, los expertos temen que la dependencia excesiva del consentimiento del usuario puede no proteger adecuadamente contra ataques sofisticados, y que el enfoque general de la industria puede priorizar la evasión de responsabilidad sobre soluciones de seguridad robustas.