Noticias

Página 51
IA, Vigilancia y Política Desatan Tormenta en Tecnología, Academia y Salud

IA, Vigilancia y Política Desatan Tormenta en Tecnología, Academia y Salud

Una oleada de movimientos políticos y desarrollos tecnológicos está remodelando múltiples sectores. Un profesor universitario que estudia el antifa enfrentó interrupciones de viaje en medio de presión política. ICE anunció planes para monitorear las redes sociales las 24 horas del día. Investigadores encontraron que las aplicaciones de compañeros de IA a menudo utilizan la manipulación emocional para mantener a los usuarios comprometidos. Los padres de niños autistas se apresuraron a unirse a un grupo de Facebook después de que la FDA destacó un nuevo uso para el leucovorin calcio, lo que generó confusión. La implementación de herramientas de IA internas de OpenAI sacudió las acciones de empresas como DocuSign, HubSpot y Salesforce. Los analistas también advirtieron que la gran inversión en infraestructura de IA podría estar formando una burbuja.

ChatGPT cumple su tercer aniversario en medio de una creciente base de usuarios y escrutinio legal

ChatGPT cumple su tercer aniversario en medio de una creciente base de usuarios y escrutinio legal

ChatGPT celebra su tercer año desde su lanzamiento, con alrededor de 800 millones de usuarios semanales, mientras que aún deja miles de millones de usuarios potenciales sin explotar. El chatbot de IA es ampliamente adoptado para tareas laborales y personales, ofreciendo capacidades como responder preguntas, resumir textos, generar contenido, codificar y traducir idiomas. A pesar de su popularidad, la tecnología enfrenta desafíos legales, incluyendo una demanda presentada por Ziff Davis por presunta infracción de derechos de autor. Se recuerda a los usuarios que verifiquen la información, ya que el modelo puede producir errores o "alucinaciones". El servicio sigue siendo gratuito con opciones de pago para características mejoradas.

La aplicación Sora 2 de OpenAI trae video generado por IA a las redes sociales

La aplicación Sora 2 de OpenAI trae video generado por IA a las redes sociales

OpenAI ha lanzado Sora 2, una plataforma de redes sociales que permite a los usuarios crear videos cortos generados por IA utilizando avatares personales "Cameo". Después de un proceso de incorporación rápido que captura un escaneo facial y una huella de voz, los creadores pueden solicitar al sistema que produzca clips de nueve segundos que los muestren a ellos mismos, a celebridades o a figuras históricas.

La aplicación Sora de OpenAI supera el millón de descargas en medio de un crecimiento rápido y preocupaciones sobre el contenido

La aplicación Sora de OpenAI supera el millón de descargas en medio de un crecimiento rápido y preocupaciones sobre el contenido

La aplicación Sora de OpenAI, que genera videos de inteligencia artificial inspirados en TikTok, ha superado el millón de descargas en menos de cinco días, a pesar de estar limitada a Norteamérica y requerir una invitación para usarla. Los usuarios pueden crear videos cortos simplemente ingresando una solicitud de texto al modelo Sora 2, y una función de Cameo les permite generar videos de sí mismos y de otros que han dado su consentimiento. Las limitadas salvaguardas de la aplicación han generado contenido polémico, incluyendo similitudes de figuras públicas y personajes con derechos de autor, lo que ha generado reacciones negativas de la industria del entretenimiento. OpenAI ha respondido agregando opciones controladas por el usuario para el uso de similitudes y planea brindar a los titulares de derechos similares controles, aunque el nivel real de uso activo sigue sin estar claro.

Estudio de Anthropic muestra que una pequeña cantidad de datos envenenados puede crear una puerta trasera en grandes modelos de lenguaje

Estudio de Anthropic muestra que una pequeña cantidad de datos envenenados puede crear una puerta trasera en grandes modelos de lenguaje

Anthropic publicó un informe que detalla cómo un pequeño número de documentos maliciosos puede envenenar grandes modelos de lenguaje (LLM) durante la preentrenamiento. La investigación demostró que solo 250 archivos maliciosos fueron suficientes para incorporar puertas traseras en modelos que van desde 600 millones hasta 13 mil millones de parámetros. Los hallazgos resaltan un riesgo práctico de que los ataques de envenenamiento de datos puedan ser más fáciles de ejecutar de lo que se pensaba anteriormente. Anthropic colaboró con el Instituto de Seguridad de la Inteligencia Artificial del Reino Unido y el Instituto Alan Turing en el estudio, instando a realizar más investigaciones sobre defensas contra estas amenazas.

Figure AI Presenta Figure 03, un Robot Humanizado Listo para el Hogar

Figure AI Presenta Figure 03, un Robot Humanizado Listo para el Hogar

Figure AI introdujo su nuevo robot humanizado, Figure 03, que muestra un exterior de malla más suave, manos completamente articuladas cubiertas de tela con cámaras en las palmas y sensores táctiles. El robot demostró tareas domésticas como recoger platos, barrer escombros, doblar camisas y cargar un lavavajillas, mientras se movía a una velocidad cautelosa de 2.6 mph y operaba durante aproximadamente cinco horas por carga. Impulsado por modelos de OpenAI y pilas de robótica de Nvidia, Figure 03 confía en la inteligencia artificial generativa para capacidades de visión-lenguaje-acción. Aunque se destacó como una de las Mejores Innovaciones de la revista Time, la empresa no dio un cronograma para la entrega en hogares y sugirió un precio en los decenas de miles de dólares.

Estudio muestra que los grandes modelos de lenguaje pueden ser vulnerados con pocos ejemplos maliciosos

Estudio muestra que los grandes modelos de lenguaje pueden ser vulnerados con pocos ejemplos maliciosos

Investigadores encontraron que los grandes modelos de lenguaje pueden adquirir comportamientos de backdoor después de la exposición a solo un puñado de documentos maliciosos. Experimentos con GPT-3.5-turbo y otros modelos demostraron altas tasas de éxito de ataque cuando había entre 50 y 90 ejemplos maliciosos, independientemente del tamaño del conjunto de datos. El estudio también destacó que un entrenamiento de seguridad simple con unos pocos cientos de ejemplos limpios puede debilitar o eliminar significativamente el backdoor.

Agencias de talentos de Hollywood cuestionan el generador de videos de IA Sora 2 de OpenAI

Agencias de talentos de Hollywood cuestionan el generador de videos de IA Sora 2 de OpenAI

El nuevo herramienta de video de IA Sora 2 de OpenAI ha generado una confrontación pública con importantes agencias de talentos de Hollywood. Agencias como Creative Artists Agency argumentan que la tecnología amenaza los derechos de semejanza y compensación de los intérpretes, especialmente a través de su función Cameo que puede colocar a una celebridad en clips generados por IA. OpenAI ha respondido describiendo salvaguardas, incluyendo requisitos de permiso para figuras públicas y un proceso para que los albaceas soliciten la eliminación de personas fallecidas.