Ebury ha estado activo desde 2009 y actualmente afecta mas de 400,000 servidores Linux

Imagen de  ESET que muestra las iteracciones entre los perpetradores de Ebury y un honeypot

Hace pocos días, Investigadores de ESET realizaron una publicación en la cual abordan las actividades asociadas al rootkit «Ebury». Según el informe, Ebury ha estado en activo desde 2009 y ha infectado más de 400,000 servidores que corren Linux, así como varios cientos de sistemas basados en FreeBSD, OpenBSD y Solaris. ESET informa que a finales de 2023, aún había alrededor de 110,000 servidores afectados por Ebury.

Este estudio es particularmente relevante debido al ataque a kernel.org en el que Ebury estuvo involucrado, revelando nuevos detalles sobre la infiltración de la infraestructura de desarrollo del kernel de Linux en 2011. Además, Ebury se ha detectado en servidores de registro de dominios, intercambios de cifrado, nodos de salida Tor y varios proveedores de alojamiento anónimos.

Hace diez años creamos conciencia sobre Ebury mediante la publicación de un documento técnico que llamamos Operación Windigo , que documentaba una campaña que aprovechaba el malware de Linux para obtener ganancias financieras. Hoy publicamos un artículo de seguimiento sobre cómo ha evolucionado Ebury y las nuevas familias de malware que sus operadores utilizan para monetizar su botnet de servidores Linux.

Inicialmente se pensó que los atacantes que comprometieron los servidores de kernel.org permanecieron indetectados durante 17 días. Sin embargo, según ESET, este período se calculó desde la instalación del rootkit Phalanx.

Pero esto no fue asi, ya que Ebury, que ya estaba presente en los servidores desde 2009, y esto permitió el acceso root durante aproximadamente dos años. Ebury y Phalanx fueron instalados como parte de diferentes ataques realizados por grupos de atacantes distintos. La instalación de la puerta trasera Ebury afectó al menos a 4 servidores en la infraestructura de kernel.org, dos de los cuales estuvieron comprometidos y sin ser detectados durante unos dos años y los otros dos durante un período de 6 meses.

Se menciona que los atacantes lograron acceder a los hashes de contraseñas de 551 usuarios almacenados en /etc/shadow, incluidos los mantenedores del kernel. Estas cuentas se utilizaban para acceder a Git.

Después del incidente, se realizaron cambios en las contraseñas y se revisó el modelo de acceso para incorporar firmas digitales. De los 257 usuarios afectados, los atacantes lograron determinar las contraseñas en texto claro, probablemente mediante el uso de hashes y la interceptación de contraseñas utilizadas en SSH por el componente malicioso Ebury.

El componente malicioso Ebury se propagó como una biblioteca compartida que interceptaba las funciones utilizadas en OpenSSH para establecer conexiones remotas con sistemas con privilegios de root. Este ataque no fue dirigido específicamente a kernel.org y, como resultado, los servidores afectados se convirtieron en parte de una botnet utilizada para enviar spam, robar credenciales para su uso en otros sistemas, redirigir el tráfico web y llevar a cabo otras actividades maliciosas.

La propia familia de malware Ebury también ha sido actualizada. La nueva actualización principal de la versión, 1.8, se vio por primera vez a finales de 2023. Entre las actualizaciones se encuentran nuevas técnicas de ofuscación, un nuevo algoritmo de generación de dominio (DGA) y mejoras en el rootkit de usuario utilizado por Ebury para ocultarse de los administradores del sistema. Cuando está activo, el proceso, el archivo, el socket e incluso la memoria asignada (Figura 6) están ocultos.

Para poder infiltrarse en los servidores, los atacantes explotaron vulnerabilidades no parcheadas en el software del servidor, como fallos en los paneles de alojamiento y contraseñas interceptadas.

Además de ello, se presume que los servidores de kernel.org fueron hackeados tras comprometer la contraseña de uno de los usuarios con acceso al shell y vulnerabilidades como Dirty COW se utilizaron para escalar privilegios.

Se menciona que las versiones más recientes de Ebury, además del backdoor, incluían módulos adicionales para Apache httpd, permitiendo enviar tráfico mediante proxy, redirigir usuarios e interceptar información confidencial. También contaban con un módulo del kernel para modificar el tráfico HTTP en tránsito y herramientas para ocultar su propio tráfico de los firewalls. Además, incluían scripts para llevar a cabo ataques Adversary-in-the-Middle (AitM), interceptando credenciales SSH en redes de proveedores de alojamiento.

Finalmente si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.

from Linux Adictos https://ift.tt/CXgnqFZ
via IFTTT

Ya fue publicada la 63ª edición del Top 500

TOP500

TOP500 clasifica y detalla los 500 sistemas computación no distribuida más potentes del mundo.

Hace pocos días se publicó la 63ª edición del ranking «Top 500» que clasifica los ordenadores con mayor rendimiento del mundo. Esta lista se basa en la medida del rendimiento de los sistemas utilizando la prueba de referencia LINPACK, que calcula la velocidad a la que un sistema puede resolver un conjunto de ecuaciones lineales.

Y en esta nueva edición que se presenta, en comparación con la publicación anterior (la edición 62)  los clusters que ocuparon los primeros cinco lugares en el ranking anterior mantuvieron sus posiciones.

  1. El primer lugar del Top 500 lo sigue manteniendo el «Frontier», quien ha estado liderando el puesto durante 2 años consecutivos. Ubicado en el Laboratorio Nacional Oak Ridge del Departamento de Energía de Estados Unidos, este clúster cuenta con 8.7 millones de núcleos de procesador (AMD EPYC 64C de 2 GHz) y ofrece un rendimiento de 1206 exaflops. El clúster está potenciado por HPE Cray OS (SUSE Linux Enterprise Server edición 15).
  2. El sistema Aurora en Argonne Leadership Computing Facility en Illinois, EE.UU., ha conseguido el segundo puesto en el TOP500. Este cluster ha aumentado su número de núcleos de procesador (Xeon CPU Max 9470 52C 2.4 GHz) de 4.8 a 9.2 millones, lo que resulta en un rendimiento de 1012 exaflops. Bajo el capo se encuentra SUSE Linux Enterprise Server 15 SP4.
  3. En el tercer lugar se posiciona el «Eagle» instalado en Microsoft Azure Cloud en EE. UU. recuperando su poscion que había alcanzado después de su primera aparición en la lista anterior. El «Eagle» es un clúster desplegado por Microsoft para la nube Azure y contiene 2 millones de núcleos de procesador (CPU Xeon Platinum 8480C 48C 2GHz), ofrece un rendimiento máximo de 561 petaflops. El software del clúster está basado en Ubuntu 22.04.
  4. Fugaku: Ubicado en el Instituto RIKEN de Investigaciones Físicas y Químicas en Japón, este clúster utiliza procesadores ARM (158976 nodos basados en el SoC Fujitsu A64FX, equipados con una CPU Armv8.2-A SVE de 2,2 GHz de 48 núcleos) y ofrece 442 petaflops de rendimiento. Fugaku ejecuta Red Hat Enterprise Linux.
  5. LUMI: Situado en el Centro Europeo de Supercomputación (EuroHPC) en Finlandia, este cluster ofrece un rendimiento de 379 petaflops. Está construido sobre la plataforma HPE Cray EX235a e incluye 2.2 millones de núcleos de procesador (AMD EPYC 64C 2GHz, acelerador AMD Instinct MI250X, red Slingshot-11). Utiliza HPE Cray OS como sistema operativo.

Además, el sexto lugar lo ocupó el nuevo cluster Alps, lanzado en el Centro Nacional Suizo de Supercomputación. Este clúster cuenta con 1,305,600 núcleos de procesador NVIDIA Grace 72C de 3.1 GHz y proporciona un rendimiento de 270 petaflops.

En cuanto a los superordenadores domésticos, se menciona que los clusters Chervonenkis, Galushkin y Lyapunov creados por Yandex tuvieron un descenso en el ranking. Pasaron del puesto 36, 58 y 64 al 42, 69 y 79 respectivamente. Estos clústeres están diseñados para resolver problemas de aprendizaje automático y proporcionan un rendimiento de 21.5, 16 y 12.8 petaflops respectivamente. Ejecutan Ubuntu 16.04 y están equipados con procesadores AMD EPYC 7xxx y GPU NVIDIA A100.

Por la parte de las nuevas tendencias del ranking de supercomputadoras se menciona que:

  • En América del Norte se encuentran 181 supercomputadoras (171 hace seis meses).
  • Europa: 157 supercomputadoras (143 hace seis meses).
  • Asia: 147 supercomputadoras (169 hace seis meses).
  • América del Sur: 9 supercomputadoras (10 hace seis meses).
  • Oceanía: 5 supercomputadoras (6 hace seis meses).
  • África: 1 supercomputadora (sin cambios).
  • Intel domina el ranking con una preferencia del 62.8% (67.9% hace seis meses).
  • CPUs AMD: 31.4% (28% hace seis meses).
  • IBM Power: 1.2% (1.4% hace seis meses).
  • Todos los sistemas en el ranking utilizan Linux como sistema operativo desde noviembre de 2017.
  • El umbral mínimo de rendimiento para ingresar al Top500 aumentó a 2,13 petaflops.
  • El rendimiento total de todos los sistemas en la clasificación aumentó de 7 a 8,2 exaflops en los últimos seis meses.

Y en cuanto al uso de distribuciones, se menciona que:

  • El 42.4% (44.6% hace seis meses) utiliza sistemas basados ​​en Linux, pero no especifica la distribución.
  • El uso de RHEL aumento ahora hasta el 16.8% (antes era el 12.6%)
  • CentOS disminuyo a un 9.4% (antes era el 11%)
  • Cray Linux con un 9,2% (9.6%)
  • Ubuntu ganó un poco de participación subiendo a un 8.4% (7,8%)
  • SUSE se manutuvo 4,4% (4,4%)
  • Rocky Linux aumentó al 3% (2%)
  • Alma Linu 1,2% (1%)
  • Amazon Linux; 0.2% (0.2%)
  • Scientific linux 0.2% (0.2%)

Finalmente si estás interesado en poder conocer más al respecto, te invito a que consultes la publicación del Top 500 en el siguiente enlace.

from Linux Adictos https://ift.tt/tSf2Gix
via IFTTT

RHEL AI, la nueva a puesta de Red Hat para tareas de aprendizaje automático

Logo de RHEL AI

Hace pocos días Red Hat dio a conocer, mediante una publicación de blog, el lanzamiento de su nueva distribución de Linux llamada «Red Hat Enterprise Linux AI» (RHEL AI), la cual está diseñada específicamente para tareas de aprendizaje automático.

RHEL AI simplifica la creación de soluciones de servidor que utilizan grandes modelos conversacionales y proporciona una selección de herramientas y marcos para el aprendizaje automático. También incluye controladores para diversos aceleradores de hardware de AMD, Intel y NVIDIA, y componentes que aprovechan las capacidades de servidores optimizados para sistemas de inteligencia artificial de Dell, Cisco, HPE, Lenovo y SuperMicro.

Sobre RHEL AI

RHEL AI está diseñado para el desarrollo, prueba y ejecución de sistemas de aprendizaje automático basados en el gran modelo de lenguaje Granite el cual puede manejar hasta 4 mil tokens y cubrir 7 mil millones de parámetros al generar texto.

Para interactuar con el modelo Granite, la distribución integra InstructLab, que admite la metodología LAB (Alineación a gran escala para chatBots) para personalizar y optimizar modelos, así como agregar conocimientos adicionales e implementar nuevas habilidades en modelos previamente entrenados.

RHEL AI incluye modelos de código y lenguaje Granite desarrollados en colaboración , con licencia de código abierto y de alto rendimiento de la comunidad InstructLab, totalmente respaldados e indemnizados por Red Hat. Estos modelos de Granite tienen licencia de Apache 2 y brindan acceso transparente a fuentes de datos y pesos de modelos.

Los usuarios pueden crear su propio LLM personalizado entrenando los modelos base con sus propias habilidades y conocimientos. Pueden optar por compartir el modelo entrenado y las habilidades y conocimientos agregados con la comunidad o mantenerlos en privado. Vea más sobre eso en la siguiente sección.

En el anuncio, se menciona que el principal objetivo de RHEL AI y el proyecto InstructLab es capacitar a los expertos en el dominio para que contribuyan directamente a los modelos de lenguajes grandes con conocimientos y habilidades. Esto permite a los expertos en el campo crear aplicaciones basadas en IA de manera más eficiente (como chatbots). RHEL AI incluye todo lo que necesita:

  • Aprovechar la innovación comunitaria a través de modelos de código abierto y habilidades y conocimientos de código abierto para la capacitación.
  • Proporcionar un conjunto fácil de usar de herramientas de software y flujo de trabajo dirigido a expertos en el dominio sin experiencia en ciencia de datos y les permite realizar capacitación y ajustes.
  • Software de empaquetado y sistema operativo con habilitación de hardware de IA optimizada.
    apoyo empresarial e indemnización de propiedad intelectual

Además de ello, se menciona que la plataforma puede utilizarse para desarrollar aplicaciones de IA para necesidades corporativas e implementar servicios para generar contenido, crear sistemas de diálogo e integrar asistentes virtuales en aplicaciones.

Estas aplicaciones pueden realizar tareas como responder preguntas en lenguaje natural, resolver problemas matemáticos, generar texto significativo sobre un tema determinado, redactar resúmenes de contenido, corregir errores en textos, reescribir en otras palabras, ayudar a escribir código en varios lenguajes de programación, y generar cartas y documentos usando plantillas.

Por otra parte, también vale la pena mencionar que Red Hat ha introducido un nuevo modo para crear y administrar imágenes del sistema basado en Red Hat Enterprise Linux: el «image mode». Este modo permite utilizar las herramientas y tecnologías empleadas para crear y ejecutar contenedores de aplicaciones en la implementación del sistema operativo.

El nuevo modo maneja imágenes monolíticas del sistema, generadas con rpm-ostree y actualizadas de manera atómica, sin dividirse en paquetes separados. Las compilaciones pueden generarse como imágenes en diversos formatos, como OCI (usado en Docker), ISO, QCOW2, entre otros formatos, además de que el contenido de la imagen se selecciona editando el Containerfile.

Para crear y gestionar imágenes, se pueden utilizar herramientas estándar de gestión de contenedores como Podman y OpenShift Container Platform. Para instalar las imágenes, se puede emplear el instalador estándar de Anaconda o bootc-image-builder, que permite convertir una imagen de contenedor en una imagen de disco de arranque. Bootc se utiliza para actualizar imágenes de arranque de contenedores que incluyen el kernel de Linux y pueden arrancar de la misma manera que las compilaciones normales del sistema.

Finalmente, si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.

from Linux Adictos https://ift.tt/LdlJvZ3
via IFTTT

Firefox prepara una nueva página de nueva pestaña: fondos de pantalla y widget de meteorología

Firefox Nightly

Firefox prepara cambios visuales. Hay usuarios que se lo han pedido, y Mozilla está respondiendo. Entre lo que se está cociendo, al menos dos novedades que saltarán a la vista, ambas en lo que se muestra al abrir una nueva pestaña: podremos elegir fondos de pantalla para conseguir algo como lo de la captura de cabecera, y también será posible activar un widget de meteorología, algo que por lo menos en mi caso no he podido comprobar.

Ambas opciones se pueden probar desde la página about:config de Firefox, también conocida como la de configuración avanzada. Para poder ver los fondos de pantalla, hay que acceder a dicha configuración, buscar browser.newtabpage.activity-stream.newtabWallpapers.enabled y cambiarlo a «true». Una vez hecho, no requiere reinicio, abrimos una nueva pestaña, algo que podemos hacer con Ctrl+T o haciendo clic en el símbolo de suma y eso sería todo.

Firefox prepara retoques visuales

Por defecto no se ve nada, pero al hacer clic en la rueda dentada veremos algo como lo siguiente:

Selección de fondos de pantalla para nueva pestaña

En la parte superior de las opciones hay varios fondos de pantalla a elegir. En estos momentos hay seis opciones, pero no se pueden añadir personalizados. Quizá en el futuro.

El widget del tiempo es lo que no he podido probar. En este enlace del blog de Mozilla explican que hay que ir a la configuración avanzada y activar tanto browser.newtabpage.activity-stream.showWeather como browser.newtabpage.activity-stream.system.showWeather. Cuando lo he hecho yo, primero he visto en la parte superior izquierda un aviso de que el tiempo no estaba disponible en la actualidad, pero se me ha actualizado el navegador y ahora no veo ni ese mensaje. Lo que están preparando se ve así:

Widget de tiempo de Firefox

Hasta que no lancen todo esto en una versión estable no podremos saber exactamente cómo quedarán las nuevas pestañas, pero se espera que no llegue ni se acerque a mostrar algo tan cargado como lo que vemos en Microsoft Edge.

Actualmente, Firefox 126 es la versión estable más actualizada, y todos estos cambios se están probando en Firefox 128.

kbd {color: white; background-color: #353535; padding:3px 5px; border-radius: 7px; border: 4px double white;}

from Linux Adictos https://ift.tt/GKaVN8x
via IFTTT

GPT-4o se deja querer por algunos usuarios gratuitos. Impresiona, pero habrá que tener paciencia

GPT-4o

Mirad la captura anterior. Eso es lo que me he encontrado al abrir ChatGPT hace unos instantes. «Bien», he pensado, pero no me he fijado en la parte que reza «acceso limitado». OpenAI dejará que todos los usuarios, incluidos los gratuitos, usemos GTP-4o, la «O» de «Omni», en el futuro y hay algunos afortunados, como un servidor, que ya han podido catarlo. El problema es que se ha quedado en cata, o más bien degustación.

Quería probarlo, lógico, y también compartir lo bien que funciona. Es lo que voy a hacer aquí, aunque, como no estoy suscrito, tengo ese acceso limitado, lo que me obligará a dosificar mi uso de esto que están comparando con Samantha de la película Her. En esa película, Sam, cuya voz aporta Scarlett Johansson, es un «sistema operativo» de inteligencia artificial capaz de hablar con nosotros exactamente igual a como lo haría un humano, aunque eso es algo que no está disponible ahora mismo en GPT-4o.

Mis pruebas con GPT-4o

He visto lo de la captura de cabecera minutos antes de las 13h en España. Tras hacerle algunas preguntas, y comprobar que busca las respuestas en Internet e incluso cita fuentes, me he fijado en que podía adjuntar archivos. Por lo tanto, el siguiente paso has sido coger mi móvil y ver de qué era capaz en él.

Aunque GPT-4o ha empezado a estar disponible, todo lo que puede aportar se está liberando gradualmente. En un hilo de OpenAI en X podemos ver qué podremos hacer en el futuro, como por ejemplo que vea en tiempo real que estamos frente a una tarta y felicitarnos el cumpleaños. Lo que sí he podido hacer yo es una foto a mi camisa, preguntarle de qué color es y que me diga «amarillo». Le he preguntado si podía darme el código y me lo ha dado. Eso ha sido minutos después de que le hiciera una foto a mi navegador, se la pase para que me diga qué estoy haciendo y ha acertado al afirmar que estaba frente a, bueno, ChatGPT.

Y llegó el aviso…

Poco más he podido probar. Mi intención era compartir con todos vosotros una experiencia real con GPT-4o, poner a prueba ese modelo, pero tras unas primeras consultas me ha informado de que deberé esperar varias horas para poder volver a usarlo.

Esto recuerda un poco a cómo era ChatGPT en sus inicios, cuando la afluencia de gente hacía que a veces no fuera capaz de responder o cuando te tirabas un rato largo en una conversación. Hay límites, y es comprensible. Serán menos en el futuro, y sin lugar a dudas cambiará la manera en la que interactuamos con nuestros dispositivos.

Si yo fuera Google no podría sentir otra cosa que no fuera preocupación. No sólo tiene en frente a la IA más potente que existe, sino que ahora también puede buscar en Internet. Si en el futuro podremos hablar con ella, ¿quién va a querer usar un buscador normal?

from Linux Adictos https://ift.tt/oZMD9RP
via IFTTT