Connect with us
Weather Data Source: pronóstico del tiempo

Tecnología

Bluesky tiene un equipo de moderadores propio, entrenado para revisar las denuncias de usuarios y sistemas automatizados

Published

on

La red social descentralizada Bluesky cuenta con un equipo propio de moderación que trabaja a tiempo completo para revisar las denuncias de los usuarios y los contenidos identificados por los sistemas de automatizados, lo que llevó a la suspensión de cerca de 6.500 elementos, entre cuentas y publicaciones por infringir las normas.

La red social Bluesky ha aprovechado el cambio de rumbo de la antigua Twitter para crecer, hasta alcanzar los 3 millones de usuarios, y para dotar a su servicio de medidas de moderación, tanto internas como en forma de herramientas para los individuos y las comunidades, quienes tienen a su disposición herramientas para denunciar publicaciones, cuentas o listas a través de la aplicación.

Estos contenidos denunciado posteriormente una revisión para comprobar si incumplen las políticas de la plataforma. En este caso, Bluesky asegura que han apostado por un equipo de moderadores humanos, contratado y entrenado a propósito, que desde primavera trabaja las 24 horas del día para comprobar si se incumplen las políticas de la plataforma.

Este grupo ha revisado 358.165 denuncias individuales, como recogen en la nota que compaña su primer Informe de Transparencia, relativo a 2023. En él también informan de que el 5,6 por ciento de sus usuarios activos (esto es, 76.699 cuentas individuales) ha realizado una o más denuncias y que el 45.861 cuentas individuales (el 3,4%) fueron objeto de denuncia, en una o más ocasiones, ya fuese por la cuenta en sí o como alguna de sus publicaciones.

La compañía puede realizar suspensiones, de manera temporal o permanente, en los casos más graves, una acción que llevó a cabo en 4.667 cuentas y 1.817 contenidos individuales.

Para detectar contenido infractores de forma proactiva, Buesky también utiliza herramientas automatizadas para actuar rápidamente sobre ellos, ya que sea para añadir etiquetas de aviso o para derivarlos al equipo de moderación. También pueden eliminar las publicaciones que encuentren, como en el caso del material de abuso y explotación infantil, que no se tolera en la plataforma.

HERRAMIENTAS DE MODERACIÓN

Los trabajos en moderación realizados en 2023 también incluyen el rediseño de algunas características para reducir el abuso y la construcción de componentes para su infraestructura que den soporte los trabajos en el área de confianza y seguridad.

También han anticipado la llegada de funciones de moderación adicionales, como la posibilidad de silenciar palabras y de desactivar temporalmente cuentas, y de un programa colaborativo para combatir la desinformación en las publicaciones, a ejemplo de las Notas de la Comunidad, de X (antigua Twitter), en el que los usuarios participantes añaden contexto para matizar informaciones falsas o engañosas.

Otra novedad será lo que la compañía denomina como moderación componible o acoplable, un enfoque presentado en abril del año pasado basado en un ecosistema de proveedores terceros, en el que habrá una moderación básica por defecto y filtros personalizados adicionales como el sistema de etiquetado, con etiquetas que pueden ser generadas por servicios terceros, los administradores de una comunidad o los propios usuarios.

Asimismo, la red social cuenta permite crear listas de moderación, para silenciar y bloquear cuentas para una comunidad entera. Los autores de las publicaciones, por su parte, pueden añadir etiquetas para advertir del tipo de contenido que los usuarios pueden encontrar, y ajustar la configuración para decidir quién puede responder.

La compañía añade que también cuentan con un marco de herramientas automatizadas que apoya al equipo de moderación en la lucha contra el spam, que identifica patrones de comportamiento, “para marcar proactivamente contenido inaceptable antes de que los usuarios humanos lo vean y lo denuncien”.

Tecnología

La ‘app’ Files de Google contará su propio lector de PDF integrado

Published

on

Google está planeando la implementación de un lector y editor de documentos PDF en la aplicación Files (Archivos) de Google para móviles Android, un servicio con el que se dejaría de depender de un tercero para abrir documentos con este formato.

Archivos de Google es una aplicación de administración de archivos desarrollada por la compañía tecnológica que permite explorar documentos, vídeos, imágenes, clips de audio o descargas, entre otros. Se puede descargar a través de Google Play.

Actualmente, esta aplicación depende de un tercero para abrir archivos con formato PDF. De forma predeterminada, Google ofrece Drive PDF Viewer para ello, que viene preinstalado en terminales con sistema operativo Android, tal y como señala Android Police.

Drive PDF Viewer es, por tanto, un servicio de Google que funciona como lector y editor de este tipo de documentos, que introduce herramientas de edición básicas, como un marcador para resaltar texto con un subrayador o un lápiz para realizar anotaciones.

Google estaría trabajando ahora en una herramienta similar independiente para su app de Archivos. Esto significa que, en lugar de depender de este lector de PDF predeterminado, contará con su propio lector de documentos pdf, tal y como ha avanzado recientemente Assemble Debug a través de Telegram.

El investigador ha comentado que este lector dispondrá de dos botones con flechas para moverse por el documento elegido, lo que evitará que el usuario deba hacer ‘scroll’ en la pantalla. Asimismo, introduce un botón de acción flotante (FAB), que alberga diferentes herramientas de edición.

Según Assemble Debug, el lector de PDF ya se está integrando en Files de Google y debería estar disponible próximamente a través de la tienda oficial de aplicaciones de Android, Play Store.

Continue Reading

Tecnología

Gemini 1.5 Pro de Google puede detectar código malicioso en unos 30 segundos

Published

on

La versión más avanzada del modelo de Inteligencia Artificial (IA) que desarrolla Google, Gemini 1.5 Pro, es capaz de analizar y detectar código malicioso en unos 30 segundos, según ha podido comprobar recientemente el equipo de VirusTotal.

La compañía presentó esta última generación de su modelo el pasado mes de febrero, cuando adelantó que introducía una nueva arquitectura con la que era capaz de realizar tareas complejas de forma más ágil y con un rendimineto y un razonamiento mejorados.

Esta versión de su IA funciona con la arquitectura Mixture-of-Experts (MoE), que divide el modelo en pequeñas redes neuronales, que se activan de forma selectiva dependiendo del tipo de información introducida.

Este modelo también puede analizar, clasificar y comprender contextos largos, ya que tiene la capacidad de procesar hasta un millón de tokens. Por ejemplo, una hora de vídeo, once horas de audio, bases de código con más de 30.000 líneas de código o más de 700.000 palabras.

El equipo de VirusTotal, que pertenece a Google, ha comprobado recientemente la capacidad que tiene este modelo de IA para identificar código malicioso, así como para reconocer amenazas de día cero (‘zero day’).

En primer lugar, ha subrayado en un comunicado que el crecimiento “explosivo” de este tipo de ataques “continúa desafiando los métodos de análisis manuales tradicionales, lo que subraya la necesidad urgente de una mejor automatización y enfoques innovadores”.

En este contexto, Gemini 1.5 Pro se ha diseñado para ayudar a los analistas “a gestionar el volumen asimétrico de amenazas de forma 

más” para clasificar y agrupar el ‘malware’ en función de patrones de comportamiento y anomalías.

Así lo ha querido demostrar con Code Insight, presentado en la feria de ciberseguridad RSA Conference 2023, una plataforma especializada en analizar fragmentos de código y generar informes en lenguaje natural, emulando el enfoque de un analista de ‘malware’.

Para complementar el trabajo de Code Insight, que tiene una capacidad limitada de entrada de tokens, el equipo de VirusTotal ha trabajado con Gemini 1.5 Pro, que admite hasta un millón de tokens y puede analizar algunos ejecutables descompilados “en una sola pasada”, gracias a lo cual se elimina la necesidad de dividir el código en fragmentos más pequeños.

Este modelo también puede interpretar la intención y el propósito del código y no únicamente identificar patrones. Esto es posible gracias a su entrenamiento con un conjunto de datos de código, que abarca el lenguaje de diferentes arquitecturas.

De esta manera, Gemini puede emular el razonamiento y el juicio de un analista de ‘malware’, predecir sus acciones y proporcionar información sobre las amenazas, incluidas aquellas que no se hayan visto anteriormente (‘zero-day’).

or último, Google ha dicho que la última iteración de su modelo de IA puede generar informes resumidos en un lenguaje legible para humanos, lo que hace que el proceso de análisis “sea más accesible y eficiente”.

Para probar la eficacia de Gemini 1.5 Pro en al detección de código malicioso, VirusTotal lo utilizó para analizar código descompilado con una muestra de ‘malware’ representativa. Así, procesó dos archivos binarios del ‘ransomware’ WannaCry -uno de 268 KB y 231 KB- contenedores de más de 280.000 tokens.

Si bien en sus pruebas con otras herramientas de IA generativas similares tuvo que dividir el código en fragmentos para su estudio, lo que generó “resultados vagos y no específicos”, con Gemini 1.5 Pro, en cambio, no se vio en esa necesidad, ya que fue capaz de procesar todo el código desensamblado o descompilado en una sola pasada y entregar un informe con los resultados en tan solo 34 segundos.

La descompilación del código consiste en construir el código fuente original a partir del binario, lo que puede mejorar su legibilidad y la concisión en comparación del código ensamblado, que pasa por un proceso en el que el código binario se convierte en una representación de nivel bajo de la arquitectura del procesador.

Según Google, este análisis inicial fue “notablemente preciso” y mostró su capacidad para manejar conjuntos de datos grandes y complejos de manera transparente y efectiva”. Asimismo, en este comunicado ha aclarado que no se basa en conocimientos previamente entrenados sobre WannaCry. Esto significa que el análisis surge de la capacidad de Gemini de interpretare código desconocido y malicioso de forma independiente.

Los investigadores también han señalado que Gemini 1.5 Pro demuestra la misma capacidad tanto en el procesamiento de lenguajes de alto nivel como en el ensamblaje de diversas arquitecturas, lo que significa que se puede adaptar el análisis de archivos posiblemente maliciosos según las circunstancias específicas de cada caso.

PRUEBAS CON AMENAZAS DE DÍA CERO

El equipo de investigadores también ha probado la capacidad de Gemini 1.5 Pro para identificar amenazas de día cero que no son detectadas por los métodos tradicionales, como pueden ser el antivirus o el ‘sandbox’ de VirusTotal.

Según sus hallazgos, el modelo de Google pudo procesar un archivo de 833 KB descompilado en 189.080 tokens en tan solo 27 segundos, momento en que produjo un informe completo del análisis del ‘malware’ en una sola pasada.

Además de identificar patrones maliciosos, Gemini 1.5 Pro descifró cuál era el objetivo principal de este ‘malware’, que tenía la intención de robar criptomonedas secuestrando transacciones de Bitcoin y evadiendo su detección al desactivar el ‘software’ de seguridad.

Finalmente, Google ha reconocido que si bien el modelo “desbloquea capacidades impresionantes” al poder analizar grandes volúmenes de código descompilado y desensablado, aún quedan desafíos por abordar “para lograr un análisis de ‘malware’ automatizado verdaderamente sólido y de confianza”. Entre ellos, técnicas de ataque en constante evolución, por lo que los desarrolladores deben “aprender y reconocer nuevas amenazas”.

Continue Reading

Tecnología

Facebook ofrece a creadores de Meta Verified nuevas herramientas para potenciar la visibilidad de sus cuentas

Published

on

Meta ha introducido nuevas herramientas en Facebook dirigidas a suscriptores de Meta Verified, con las que busca dar mayor visibilidad y fomentar el descubrimiento de cuentas de creadores de contenido en el apartado de Búsquedas.

Meta Verified es un servicio de pago dirigido a creadores de contenido que la matriz de Facebook e Instagram implementó en España el verano pasado por un precio mensual de 13,99 euros en la web y 16,99 euros en iOS y Android.

Esta suscripción cuenta con una serie de características adicionales, como la insignia azul -que requiere una indetificación previa-, la oportunidad de utilizar ‘stickers’ exclusivos en Stories o Reels y distintas medidas de protección de la cuenta contra la suplantación de identidad.

La compañía ha comenzado a probar dos nuevas características enfocadas a dar mayor visibilidad a las cuentas de los creadores de contenido. Se trata de ‘Optimización de la búsqueda’ y ‘Ayudar en el descubrimiento’, según ha adelantado recientemente Ahmed Ghanem en Threads, respaldado por el analista y consultor Matt Navarra.

Con la primera opción, la plataforma asegura que los suscriptores aparecerán en la parte superior de los resultados de búsqueda, para que los seguidores puedan encontrarles “más fácilmente”.

Con la segunda característica, en cambio, la compañía ofrece a los creadores “disfrutar de más oportunidades para que su contenido y su cuenta sean descubiertos” cuando aparecen como Meta Verified en el ‘feed’ de Facebook.

La firma ha concretado que este “beneficio potencial” se está probando en Meta Verified para añadir “aún más valor” a la experiencia de los suscriptores en la plataforma. Además, ha indicado que se trata de una característica opcional y que, aunque se pueden realizar cambios “en cualquier momento”, estos pueden tardar hasta 24 horas en aplicarse.

Continue Reading

Trending