No siempre el primer resultado es el mejor, detectaron un sitio falso de KeePass

phishing site

Un inteligente ataque de publicidad maliciosa utiliza Punycode para parecerse al sitio web oficial de KeePass

La mayoría de los usuarios que navegan en la red, suelen tener la costumbre de que al realizar una búsqueda, suelen visitar o utilizar los sitios en las primeras posiciones que despliega el buscador. Y es que no es para más, ya que hoy en día los buscadores ofrecen los mejores resultados acordes al criterio de búsqueda (hasta cierto punto) porque existen una gran cantidad de técnicas para poder posicionar una página web para cierto criterio, dígase SEO en general.

Hasta este punto todo puede parecer bien y nada fuera de lo normal en este aspecto, pero hay que recordar que algunos buscadores suelen mostrar en las primeras posiciones «publicidad» que en teoría está orientada al criterio de búsqueda, por ejemplo cuando en Google buscamos Chrome.

El problema con estos resultados, es que no siempre son los más adecuados y que para usuarios sin conocimiento de esto, suelen acceder desde esos enlaces proporcionados en las primeras posiciones y no encontrar lo que buscaban o en el peor de los casos caer en sitios no legítimos.

Tal es el caso reciente que dieron a conocer los investigadores de Malwarebytes Labs, quienes mediante una publicación de blog, dieron a conocer la promoción de un sitio ficticio que se hacia pasar por el administrador de contraseñas gratuito KeePass.

Se descubrió el sitio falso distribuye malware y logro colarse en las primeras posiciones del buscador a través de la red publicitaria de Google. Una peculiaridad del ataque fue el uso por parte de los atacantes del dominio “ķeepass.info”, cuya ortografía a primera vista no se distingue del dominio oficial del proyecto “ keepass.info ”. Al buscar la palabra clave “keepass” en Google, el anuncio del sitio falso aparecía en primer lugar, antes del enlace al sitio oficial.

Detección del sitio falso

Anuncio malicioso de KeePass seguido de un resultado de búsqueda orgánico legítimo

Para engañar a los usuarios se utilizó una técnica de phishing conocida desde hace mucho tiempo, basada en el registro de dominios internacionalizados (IDN) que contienen homoglifos, símbolos que se parecen a las letras latinas, pero tienen un significado diferente y tienen su propio código Unicode.

En particular, el dominio «ķeepass.info» en realidad está registrado como «xn--eepass-vbb.info» en notación punycode y si observa detenidamente el nombre que se muestra en la barra de direcciones, puede ver un punto debajo de la letra » ķ», que la mayoría de los usuarios perciben como una mota en la pantalla. La ilusión de autenticidad del sitio abierto se vio reforzada por el hecho de que el sitio falso se abrió a través de HTTPS con un certificado TLS correcto obtenido para un dominio internacionalizado.

Para bloquear el abuso, los registradores no permiten el registro de dominios IDN que mezclen caracteres de diferentes alfabetos. Por ejemplo, no se puede crear un dominio ficticio apple.com (“xn--pple-43d.com”) reemplazando la “a” latina (U+0061) con la “a” cirílica (U+0430). La mezcla de caracteres latinos y Unicode en un nombre de dominio también está bloqueada, pero hay una excepción a esta restricción, que utilizan los atacantes: se permite la mezcla con caracteres Unicode que pertenecen a un grupo de caracteres latinos que pertenecen al mismo alfabeto en el dominio.

Por ejemplo, la letra «ķ» utilizada en el ataque que estamos considerando es parte del alfabeto letón y es aceptable para dominios en idioma letón.

Para evitar los filtros de la red publicitaria de Google y eliminar los robots que pueden detectar malware, como enlace principal en el bloque publicitario se ha especificado un sitio intermedio keepassstacking.site, que redirige a los usuarios que cumplen determinados criterios al dominio ficticio «ķeepass.info».

El diseño del sitio ficticio fue estilizado para parecerse al sitio web oficial de KeePass, pero se cambió para impulsar de manera más agresiva las descargas de programas (se conservaron el reconocimiento y el estilo del sitio web oficial).

La página de descarga para la plataforma Windows ofrecía un instalador msix con código malicioso, que venía con una firma digital válida emitida por Futurity Designs Ltd y no generaba una advertencia al inicio. Si el archivo descargado se ejecutó en el sistema del usuario, se iniciaba adicionalmente un script FakeBat, que descargaba componentes maliciosos de un servidor externo para atacar el sistema del usuario (por ejemplo, para interceptar datos confidenciales, conectarse a una botnet o reemplazar números de billetera criptográfica en el portapapeles).

Finalmente si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.

from Linux Adictos https://ift.tt/rCJZXHD
via IFTTT

En Chrome se planea ocultar la dirección IP del usuario

IP Protection

La protección IP es una función que envía tráfico de terceros para un conjunto de dominios a través de servidores proxy con el fin de proteger al usuario enmascarando su dirección IP de esos dominios.

Google ha dado a conocer la implementación inicial en su navegador Google Chrome, de una nueva función la cual tiene como finalidad la protección IP del usuario.

Se menciona que la nueva función, «IP Protection» será implementada de manera inicial como un experimento y como su nombre lo indica está diseñada para ocultar la dirección IP del usuario a los propietarios de los sitios web.

Como tal, la nueva función se puede utilizar como un anonimizador integrado, cuyo objetivo principal es evitar el seguimiento de movimientos, pero, entre otras cosas, es adecuado para evitar el bloqueo implementado tanto por parte de los sitios como a nivel de los operadores de telecomunicaciones.

Técnicamente, la característica propuesta se implementa enviando tráfico no directamente, sino a través de un servidor proxy, que redirige la solicitud al servidor de destino, que ve solo la dirección del proxy como una dirección IP entrante, similar al uso de una VPN. Para anonimizar la solicitud, es posible reenviarla secuencialmente a través de varios proxy. En este caso, la información sobre la dirección IP del cliente solo la conocerá el primer proxy, y el segundo proxy de la cadena verá la dirección del primer proxy.

Google planea probar la protección de direcciones IP en un pequeño porcentaje de usuarios en una versión futura de Chrome (119 a 125). Durante la primera fase de prueba, solo se utilizará un servidor proxy propiedad de Google y la ocultación solo estará habilitada para los dominios y redes publicitarias de Google. Esta fase se ofrecerá a sistemas con direcciones IP de EE. UU. y cubrirá no más del 33% de los usuarios de ediciones experimentales de Chrome.

En la segunda fase de prueba, planean introducir una configuración de proxy de dos capas: primero, la conexión se enrutará desde el navegador a través de un túnel cifrado hasta un proxy propiedad de Google, y luego se enrutará a un segundo proxy propiedad de una empresa no afiliado a Google.

El túnel de tráfico se organizará de tal manera que el primer proxy que vea la dirección IP del usuario no verá los parámetros de la solicitud y no podrá determinar el host de destino al que se dirige la solicitud del usuario. El segundo proxy podrá determinar datos sobre el host de destino, pero no verá la dirección IP del usuario. Aquellos. Los servidores proxy verán información sobre la dirección del usuario o sobre el sitio de destino, lo que no permitirá que el lado proxy asocie al usuario con el sitio solicitado.

El tráfico se enrutará al proxy utilizando los métodos CONNECT y CONNECT-UDP y creando un túnel basado en el protocolo TLS, que proporciona cifrado de extremo a extremo. Para evitar abusos, se accederá al primer proxy controlado por Google mediante un token criptográfico que generará el servidor de autenticación de Google cuando Chrome se conecte a la cuenta de Google del usuario (sin la autenticación de Chrome, se denegará el acceso al proxy). El token también tendrá restricciones de tráfico, lo que dificultará el reenvío de tráfico a través de servidores proxy con fines maliciosos.

El modo de ocultación de direcciones IP estará deshabilitado de forma predeterminada y podrá activarse a petición del usuario, ademas de que se menciona que se planea utilizar la ocultación de direcciones no para todos los sitios, sino solo para una lista generada por separado de dominios que se detectan rastreando los movimientos de los usuarios.

Vincular a la lista le permitirá evitar cambios no deseados que interrumpan el comportamiento de los sitios y provoquen problemas con la determinación de la ubicación, la separación de usuarios y la contabilidad del tráfico (por ejemplo, el bloqueo de un intruso en un sitio se puede aplicar a todos los usuarios redirigidos a través de un proxy).

Para resolver problemas con la vinculación de ubicación, que se puede utilizar en un sitio para cumplir con los requisitos de la legislación local y seleccionar parámetros de localización, se propone utilizar un proxy de segundo nivel en el mismo país o incluso ciudad que el usuario (en última instancia, está previsto para implementar una amplia red de servidores proxy (servidores de segundo nivel, construidos en colaboración con varios proveedores y redes de entrega de contenido).

Finalmente si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.

from Linux Adictos https://ift.tt/S4cdeHL
via IFTTT

OpenZFS 2.2 ya fue liberado y estas son sus novedades

openZFS

OpenZFS es un sistema de archivos avanzado y administrador de volúmenes

La nueva versión de OpenZFS 2.2 llega tras poco más de dos años de desarrollo y en esta nueva versión se destacan las mejoras de soporte para Linux, tales como la compatibilidad con las diferentes versiones del Kernel, asi como compatibilidad con contenedores de Linux, asi como también con FreeBSD y mas.

Se menciona que esa nueva versión de OpenZFS ha sido probada con kernels de Linux desde 3.10 hasta 6.5 y todas las ramas de FreeBSD a partir de 12.2-RELEASE, ademas de que cabe mencionar que OpenZFS ya se utiliza en FreeBSD y está incluido en las distribuciones Debian, Ubuntu, Gentoo, NixOS y ALT Linux.

Principales novedades de OpenZFS 2.2

Una de las novedades más importantes de OpenZFS 2.2 es el mecanismo de clonación de bloques, que permite crear una copia de un archivo o parte de él sin duplicar datos, utilizando en la segunda copia referencias a bloques de datos ya existentes del archivo fuente sin copiarlos realmente. Si se realizan cambios en el archivo fuente o sus copias, se copian los bloques y se realizan cambios en las copias creadas (modo de copia en escritura a nivel de archivo). Sobre la base del mecanismo de clonación, se implementa la operación reflink, que se puede utilizar para crear clones automáticamente en varias utilidades de copia, por ejemplo, en nuevas versiones de /bin/cp en Linux.

Otra de las novedades de este lanzamiento es el soporte añadido para tecnologías utilizadas para el aislamiento de contenedores en Linux, como la llamada al sistema renameat, el sistema de archivos overlayfs, la asignación de ID de usuario en montajes y la delegación de espacios de nombres para contenedores.

Ademas de ello, también se destaca que se ha implementado un registro de errores detectados durante las operaciones de verificación de suma de control (scrub). Cuando se ejecuta el comando «zpool status«, se muestra información sobre todos los sistemas de archivos, instantáneas y clones afectados por el bloque dañado. Para intentar recuperar rápidamente bloques defectuosos conocidos, puede utilizar el comando «zpool Scrub -e«.

Ademas de ello, también se destaca la capacidad de usar la función hash criptográfica BLAKE3 para sumas de verificación, que se destaca por su rendimiento de cálculo hash muy alto (tres veces más rápido que Edon-R y significativamente más rápido que sha256 y sha512) al tiempo que garantiza confiabilidad en el nivel SHA-3.

Otro de los aspectos destacados de OpenZFS 2.2 es la mejora en la implementación del caché ARC adaptativo, que mejora el rendimiento de las operaciones de lectura. En este lanzamiento ARC ahora se adapta mejor a cargas elevadas y minimiza la necesidad de optimizar la configuración manualmente.

Se ha implementado la operación «zfs recibir -c», que se puede utilizar para restaurar datos dañados (no metadatos) en el sistema de archivos, instantáneas y clones, en los casos en que exista una copia de seguridad replicada previamente guardada con el comando «zfs send«.

De los demás cambios que se destacan de OpenZFS 2.2:

  • Se agregó soporte para configurar y leer propiedades mediante programación para discos virtuales vdev individuales.
  • Se agregó la capacidad de vincular propiedades personalizadas arbitrarias a vdev y zpool, similar a las propiedades personalizadas para el conjunto de datos zfs.
  • Se agregó soporte para mecanismos de aceleración de hardware para calcular sumas de verificación SHA2.
  • La implementación de las sumas de comprobación de Edon-R ha sido reescrita y optimizada.
    Cuando se utiliza el algoritmo zstd para la compresión de datos, se acelera la determinación de situaciones en las que la compresión no tiene sentido (los datos no se pueden comprimir).
  • Se han realizado mejoras en el mecanismo de captación previa para acelerar el trabajo durante E/S intensivas.
  • Opciones del módulo: los valores predeterminados para las opciones del módulo se seleccionaron para producir un buen rendimiento para la mayoría de las cargas de trabajo y configuraciones. 
  • Se han introducido una serie de optimizaciones generales para mejorar el rendimiento.

Finalmente si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.

from Linux Adictos https://ift.tt/U6SlBwx
via IFTTT

En Gnome ya también se preparan para dejar de lado X11 en favor de Wayland 

Gnome

Gnome continua sus trabajos para la adopción completa de Wayland

Wayland, el protocolo de servidor gráfico sin dudas durante los últimos años ha ganado bastante terreno y ha mejorado a grandes pasos, y aunque varias distribuciones de Linux han apostado por este protocolo, la dependencia con X11 sigue siendo un requisito hoy en día.

Dentro de los diferentes proyectos y referentes en Linux que han dado el salto a Wayland y han estado trabajando para ir eliminando las dependencias con X11 podemos encontrar por ejemplo a Fedora, Gnome, KDE, también a Ubuntu en su momento con Unity, entre otros.

La razon de hablar de ello, es que hace algunos días un miembro del equipo de lanzamiento y control de calidad de Gnome dio a conocer una solicitud de cambio para eliminar los archivos de destino systemd del paquete gnome-session que se utilizan para ejecutarse en entornos X11.

En Gnome ya se han implementado diversos cambios en favor del uso de Wayland, pero cabe señalar que este es el primer paso hacia el abandono del soporte para el protocolo X11 en Gnome. Sin embargo, se menciona que en la etapa actual, la funcionalidad restante requerida para ejecutar una sesión X11 permanece vigente.

Pese a ello, los desarrolladores de Gnome han mencionado que la funcionalidad con X11 está programada para eliminarse en el próximo ciclo de desarrollo para y los usuarios pueden revertir la compatibilidad con X11 agregando manualmente los archivos de destino systemd.

La razón para realizar los cambios es que los desarrolladores prueban cada vez menos X11. La sesión basada en el protocolo Wayland ha sido la predeterminada en GNOME desde 2016, y algunos desarrolladores dicen que es hora de deshacerse por completo de la sesión X11 y centrarse en admitir solo Wayland.

Aunque esta es solo una propuesta, tal parece que a la mayoría de los desarrolladores no les degrada la solicitud, pero como en toda comunidad, hay dos lados de la cara y por su parte Joshua Strobl, un desarrollador clave del entorno de usuario Budgie, se opuso a la eliminación del soporte X11 de gnome-session.

La oposición de Joshua Strobl es lógica, ya que proyectos como Budgie Desktop y Pantheon Desktop están basados ​​en las tecnologías de Gnome, y aunque están en camino de pasar a Wayland, aún tienen dependencias y actualmente solo es totalmente compatible con X11, por lo que si se elimina la compatibilidad con X11 de gnome-session, menciona que tendrán que mantener sus propias bifurcaciones de este componente.

Por otro lado, y aprovechando este espacio en el que estamos hablando de Gnome, también vale la pena mencionar que la Fundación Gnome, que supervisa el desarrollo de Gnome, dio a conocer mediante un anuncio el nombramiento de Holly Million para el puesto de directora ejecutiva, que había estado vacante desde agosto del año pasado tras la partida de Neil McGovern.

Por supuesto, no esperaría que gnome-session mantenga esto hasta el final de los tiempos, pero dentro del próximo ciclo de Gnome, por ejemplo, parece bastante pronto para que esto ocurra, y al menos a nosotros, los Budgie, nos gustaría evitar tener que bifurcar otro componente de Gnome.y gastar esfuerzo de desarrollo que de otra manera se podría poner en elementos como Wayland solo para garantizar que nuestros usuarios en una amplia gama de sistemas operativos con diferentes ciclos de lanzamiento no se vean afectados negativamente por esta eliminación.

El Director Ejecutivo es responsable de la gestión y el desarrollo de la Fundación Gnome como organización, así como de la interacción con la Junta Directiva, el Consejo Asesor y los miembros de la organización.

Se menciona que Holly Million tiene una amplia experiencia en la gestión de organizaciones sin fines de lucro y es una persona diversa y apasionada que se ha distinguido como productora de documentales, escritora, herbolaria, artista y educadora.

Holly ha pasado de consultora de una organización sin fines de lucro a directora de desarrollo, miembro de juntas directivas de varias organizaciones, directora ejecutiva de la Fundación BioBricks, que desarrolla proyectos abiertos en el campo de las biotecnologías, y fundadora de Artists United, que une artistas y amantes del arte, promoviendo la idea de que a través de Aprender a apreciar el arte se pueden resolver muchos problemas sociales.

Finalmente si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.

from Linux Adictos https://ift.tt/OfCVlN4
via IFTTT

Google liberó Falcon, una capa de transporte asistida por hardware de baja latencia

Falcon Google

Falcon está diseñado para ser confiable, de alto rendimiento y baja latencia

Durante la OCP Global Summit (que se llevo a cabo hace unos días) Google dio a conocer mediante un anuncio la decisión de liberar su tecnología de transferencia de datos Falcon y la transferencia de su desarrollo posterior al proyecto Open Compute, cuyo objetivo es el desarrollo conjunto de especificaciones de hardware abiertas para equipar centros de datos.

Falcon (transporte de hardware, capa de transporte acelerado por hardware) se promociona como la próxima generación de Ethernet, ya que Google presume que es capaz de aumentar el rendimiento y la eficiencia de la transferencia de datos en las redes estándar existentes basadas en Ethernet y TCP/IP que son fundamentales para el rendimiento y la latencia, como las redes para computación de alto rendimiento e inteligencia artificial.

Las cargas de trabajo como el almacenamiento han necesitado algunos de estos atributos durante mucho tiempo; sin embargo, con casos de uso más nuevos, como la capacitación de IA/ML a gran escala y la computación de alto rendimiento (HPC), la necesidad ha aumentado significativamente. En el pasado, hemos compartido abiertamente nuestros aprendizajes sobre configuración del tráfico, control de congestión, equilibrio de carga y más con la industria al contribuir con nuestras ideas a la Association for Computing Machinery and Internet Engineering Task Force.

Para lograr este objetivo, desarrollamos Falcon para habilitar una función escalonada en el rendimiento sobre transportes solo de software. 

Sobre Falcon

En la descripción del protocolo se menciona que Falcon está diseñado para poder adaptarse a las redes de centros de datos y está diseñado para proporcionar un alto rendimiento predecible, baja latencia, flexibilidad y extensibilidad.

Por la parte de su característica de ofrecer una baja latencia en redes Ethernet de alta velocidad que toleran la pérdida de paquetes, Falcon utiliza tres principios: medición detallada de los retrasos entre el envío de una solicitud y la recepción de una respuesta (RTT, tiempo de ida y vuelta), recorte de tráfico implementado por hardware en relación con individuos flujos y retransmisión de paquetes rápida y precisa. Estas propiedades se complementan con medios para el acceso simultáneo a través de varios canales (Multipath) y soporte para cifrado de conexiones.

Además de esta base, Falcon ha sido diseñado desde cero como un transporte multiprotocolo capaz de admitir ULP con requisitos de rendimiento y semántica de aplicaciones muy variables. La capa de mapeo ULP no solo proporciona compatibilidad inmediata con Infiniband Verbs RDMA y NVMe ULP, sino que también incluye innovaciones adicionales críticas para aplicaciones a escala de almacén, como semántica de pedidos flexible y manejo elegante de errores. 

Por último, pero no menos importante, el hardware y el software están diseñados conjuntamente para trabajar juntos y ayudar a lograr los atributos deseados de alta velocidad de mensajes, baja latencia y alto ancho de banda, manteniendo al mismo tiempo la flexibilidad para la programabilidad y la innovación continua.

Por la parte de la base de Falcon, se menciona que las siguientes tecnologías están involucradas:

  • Carrusel: un mecanismo de limitación de tráfico (Traffic Shaping), que permite regular el rendimiento y la intensidad del flujo de paquetes en el contexto de hosts individuales.
  • Snap: un subsistema de red basado en microkernel que se puede ampliar con módulos a través de los cuales se pueden agregar funciones avanzadas, como virtualización de red, limitación de tráfico y funciones de entrega de mensajes.
  • Swift: un mecanismo de control de congestión para redes a nivel de centro de datos, que permite lograr una latencia de menos de 50 microsegundos para mensajes RPC cortos mientras se mantiene un rendimiento de 100 Gbps por servidor con una carga cercana al 100%.
  • RACK-TLP: un algoritmo para determinar la pérdida de paquetes para TCP.
  • PLB: es un mecanismo de equilibrio de carga que utiliza señales de congestión.
  • CSIG: un protocolo de intercambio de telemetría que se utiliza para enviar señales de congestión y control de tráfico.
  • PSP: protocolo de cifrado de tráfico.

El soporte Falcon estará disponible por primera vez en la serie Intel IPU E2000 de aceleradores de red, que combinan un adaptador Ethernet con un procesador programable que puede manejar operaciones que normalmente se realizan en la pila de red o en el lado del sistema, como la gestión del tráfico y la congestión control y análisis de protocolos de alto nivel.

Finalmente si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.

from Linux Adictos https://ift.tt/uYlTINR
via IFTTT

OpenSilver 2.0 llega con soporte para VB.NET, nuevas funciones y mas

OpenSilver_Logo

OpenSilver, el marco de código abierto y sin complementos que utiliza WebAssembly, C#, XAML y .NET

Hace pocos días se dio a conocer en lanzamiento de la nueva versión de OpenSilver 2.0, la cual con el soporte para VB.NET, asi como también con mejoras de integración, nuevas funciones, mejoras de rendimiento y muchas cosas más.

Para quienes desconocen de OpenSilver, deben saber que este es un proyecto que continúa con el desarrollo de la plataforma Silverlight que permite crear aplicaciones web interactivas utilizando tecnologías C#, XAML y .NET y la cual en 2021 Microsoft dejó de desarrollar y mantener.

Las aplicaciones Silverlight compiladas con OpenSilver se pueden ejecutar en cualquier navegador de escritorio y móvil que admita WebAssembly, pero actualmente la compilación solo es posible en Windows usando Visual Studio.

En su forma actual, OpenSilver ya ha ido más allá de una capa para extender la vida útil de Silverlight y puede considerarse como una plataforma independiente para crear nuevas aplicaciones.

Por primera vez, los entusiastas de VB.NET pueden unirse a la diversión y crear aplicaciones web con Visual Basic y XAML. ¡Pero espera hay mas! Aproveche la integración fluida con marcos populares como Blazor , React y Angular : ¡no es necesario iniciar su aplicación OpenSilver desde cero! Sea testigo de cómo sus creaciones cobran vida con una vista previa XAML en vivo y salude nuevamente a un clásico de los días de Silverlight.

Principales novedades de OpenSilver 2.0

En esta nueva versión que se presenta de OpenSilver 2.0, una de sus características más importantes es la compatibilidad con VB.NET, la cual fue añadida para el desarrollo de aplicaciones web utilizando el lenguaje de programación Visual Basic para definir la lógica y el lenguaje de marcado XAML para la interfaz. Se menciona que esta nueva característica ofrece un mensaje positivo a la comunidad de Visual Basic, brindándoles la seguridad de que su lenguaje preferido se mantiene firme en entornos de desarrollo de vanguardia.

Esta actualización proporciona una opción muy necesaria para aquellos apasionados por VB.NET para continuar creando aplicaciones web innovadoras o migrar aplicaciones heredadas a la web moderna.

Otra de las novedades que se destaca, es la integración con los frameworks web Blazor, React y Angular, junto con la cual se agregó el componente XAML para Blazor, el cual tiene como finalidad permitir a los desarrolladores el poder integrar OpenSilver en proyectos Blazor existentes.

Ademas de ello, también se destaca el soporte añadido para la vista previa de XAML, esto es gracias a la función Live XAML Preview, con ello se puede obtener una vista previa de la interfaz que se está desarrollando a medida que se desarrolla, sin tener que iniciar la aplicación.

RIA es otra de las novedades que acompaña a OpenSilver 2.0, ya que gracias a esta plantilla de aplicaciones empresariales se puede simplifican el desarrollo de aplicaciones web para empresas, pues RIA permite que se generen automáticamente objetos en el servidor para su ejecución en el lado del cliente, ademas de que permite manejar una variedad de tareas, que incluyen consultas, validación, almacenamiento en caché de entidades del lado del cliente, seguimiento de cambios y actualizaciones por lotes, simplificando así el proceso de desarrollo y fortaleciendo la solidez de las aplicaciones.

De los demás cambios que se destacan:

  • Se agregó SampleCRM : un ejemplo de una aplicación abierta con la implementación de un sistema CRM funcional para organizar la interacción con los clientes en una empresa y garantizar el trabajo del servicio de ventas.
  • Se agregó la capacidad de crear sus propios diseños de interfaz (Layout) y usar conjuntos de elementos de interfaz suministrados por separado, como Telerik UI para Silverlight.
  • Se ha aumentado significativamente el rendimiento del simulador (hasta 10 veces) y se han ampliado las capacidades de depuración.

Finalmente, se menciona que se tienen planes futuros en los cuales se espera poder proporcionar un entorno de diseño visual que permita crear interfaces XAML en modo WYSIWYG, soporte para WPF y una integración mejorada con el editor de código VS Code. 

Si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.

from Linux Adictos https://ift.tt/OZ3KcD2
via IFTTT

Google mitigó el mayor ataque DDoS de la historia hasta el momento

DDOS attack

DDoS, es un ataque a un sistema de computadoras o red que causa que un servicio o recurso sea inaccesible a los usuarios legítimos

Hace pocos días se dio a conocer la noticia de que Google registró el mayor ataque DDoS a su infraestructura, cuya intensidad fue de 398 millones de RPS (solicitudes por segundo). Los ataques se llevaron a cabo utilizando una vulnerabilidad previamente desconocida (CVE-2023-44487) en el protocolo HTTP/2, que permite enviar un gran flujo de solicitudes al servidor con una carga mínima para el cliente.

Se menciona que la nueva técnica de ataque llamada «Rapid Reset» aprovecha el hecho de que los medios de multiplexación de canales de comunicación proporcionados en HTTP/2 permiten formar un flujo de solicitudes dentro de una conexión ya establecida, sin abrir nuevas conexiones de red y sin esperando confirmación de recepción de paquetes.

La vulnerabilidad se considera consecuencia de un fallo en el protocolo HTTP/2 , cuya especificación establece que si se intenta abrir demasiados flujos, sólo se deben cancelar los flujos que superen el límite, pero no toda la red.

Dado que un ataque del lado del cliente se puede llevar a cabo simplemente enviando solicitudes sin recibir respuestas, el ataque se puede llevar a cabo con una sobrecarga mínima. Por ejemplo, un ataque de 201 millones de solicitudes por segundo registrado por Cloudflare se llevó a cabo utilizando una botnet relativamente pequeña de 20 mil computadoras.

En el lado del servidor, el costo de procesar las solicitudes entrantes es significativamente mayor, a pesar de su cancelación, ya que es necesario realizar operaciones como asignar estructuras de datos para nuevos subprocesos, analizar la solicitud, descomprimir el encabezado y asignar la URL al recurso. Al atacar servidores proxy inversos, el ataque puede extenderse a los servidores, ya que el proxy puede tener tiempo para redirigir la solicitud al servidor antes de que se procese la trama RST_STREAM.

Un ataque solo se puede llevar a cabo en servidores vulnerables que admitan HTTP/2 (un script para verificar la manifestación de vulnerabilidades en los servidores, herramientas para realizar un ataque). Para HTTP/3, los ataques aún no se han detectado y la posibilidad de que ocurran no se ha analizado completamente, pero los representantes de Google recomiendan que los desarrolladores de servidores agreguen medidas de seguridad a las implementaciones de HTTP/3 similares a las implementadas para bloquear ataques en HTTP/2.

De manera similar a los métodos de ataque utilizados anteriormente en HTTP/2, el nuevo ataque también crea una gran cantidad de subprocesos dentro de una sola conexión. La diferencia clave del nuevo ataque es que en lugar de esperar una respuesta, cada solicitud enviada va seguida de un marco con el indicador RST_STREAM, que cancela inmediatamente la solicitud.

Cancelar una solicitud en una etapa temprana permite deshacerse del tráfico inverso hacia el cliente y evitar las restricciones en la cantidad máxima posible de transmisiones que se abren simultáneamente dentro de una única conexión HTTP/2 en servidores HTTP. Así, en el nuevo ataque, el volumen de solicitudes enviadas al servidor HTTP deja de depender de los retrasos entre el envío de la solicitud y la recepción de la respuesta (RTT, tiempo de ida y vuelta) y depende únicamente del ancho de banda del canal de comunicación.

Se menciona que la ola de ataques más reciente comenzó a finales de agosto y continúa en la actualidad. Se dirige a los principales proveedores de infraestructura, incluidos los servicios de Google, la infraestructura de Google Cloud y sus clientes. 

Aunque estos ataques estuvieron entre los más grandes que Google haya visto, su equilibrio de carga global y su infraestructura de mitigación de DDoS permitieron que sus servicios siguieran funcionando. 

Para proteger a Google, sus clientes y el resto de Internet, ayudaron a liderar un esfuerzo coordinado con socios de la industria para comprender la mecánica del ataque y colaborar en las medidas de mitigación que se pueden implementar en respuesta a estos ataques.

Además de Google, Amazon y Cloudflare también se enfrentaron a ataques con una intensidad de 155 y 201 millones de RPS. Los nuevos ataques superan significativamente la intensidad del anterior ataque DDoS, que batió récords, en el que los atacantes lograron generar un flujo de 47 millones de solicitudes por segundo. A modo de comparación, se estima que todo el tráfico en toda la Web es de entre 1.000 y 3.000 millones de solicitudes por segundo.

Finalmente si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.

from Linux Adictos https://ift.tt/c5G0VXI
via IFTTT