Manjaro en la encrucijada: ¿hacia una nueva era o una bifurcación inevitable?


La comunidad de Linux ha seguido con interés el pulso de Manjaro durante años. Con su promesa de “Disfruta la sencillez” y una rama estable que prioriza la fiabilidad, Manjaro ha sido para muchos usuarios una puerta de entrada amable al ecosistema Arch sin el tirón de una configuración manual constante. Sin embargo, recientes corrientes en la comunidad indican que el proyecto podría estar atravesando un periodo de cambios profundos que podrían modificar su esencia tal como la conocíamos. Este artículo explora el contexto, las señales y las posibles direcciones que podría tomar Manjaro a partir de ahora, desde la perspectiva de un usuario y observador veterano.

El punto de inflexión parece haber llegado en 2019, cuando algunos usuarios comenzaron a afirmar que Manjaro habría dejado de ser «solo una distribución» y se aproximaría a convertirse en una entidad de mayor alcance. Aunque estas piezas de análisis deben tratarse con cautela, es innegable que la comunidad ha percibido un cambio de ritmo: se habla de mayor centralización, de nuevas dinámicas de contribución y de una relevancia institucional que no se limitaba a la comunidad de usuarios, sino que se extendía hacia foros, repositorios y, en algunos casos, hacia la percepción pública de la marca.

El reciente Manifesto de Manjaro 2.0, publicado por Aragorn en el foro oficial, llega para situar el debate en un plano más estructurado. En él se plantea la necesidad de cambios en el proyecto, con la finalidad de recuperar confianza, atraer colaboradores y revertir una tendencia de caída que, según algunos usuarios, iba más allá de simples errores puntuales. Entre las prioridades se menciona volver a una filosofía centrada en la comunidad, manteniendo las tres ramas clásicas (unstable, testing y stable) y la base Arch, pero con una organización y una visión que respondan a las exigencias del momento. Este giro, si se consolida, podría marcar un nuevo capítulo para la distribución sin perder la esencia que le dio popularidad.

¿Qué podría ocurrir a partir de ahora? Las opciones se debaten en dos grandes líneas. Por un lado, los desarrolladores podrían obtener una licencia que permita sostener la marca Manjaro y asegurar continuidad sin dañar la experiencia de usuario; por otro, la posibilidad de una bifurcación (fork) se mantiene como una opción menos deseable para muchos, pero no descartable ante posibles divergencias en la visión de futuro. En cualquier escenario, se espera que la comunidad publique guías sobre cómo seguir utilizando Manjaro con la menor fricción posible, incluso si el rumbo evoluciona hacia una distribución resultante de una reconfiguración o reorientación de la marca.

En cuanto a alternativas viables, desde mi punto de vista hay dos candidatas que podrían encajar con la necesidad de una experiencia Arch-like, pero con enfoques diferentes. EndeavourOS continúa destacándose por su cercanía a Arch, con un instalador y un flujo de trabajo que simplifica el proceso para usuarios que quieren control y frescura sin perder estabilidad. Por otro lado, CachyOS se presenta como una opción interesante para usuarios que valoran optimización y rendimiento, manteniendo la base Arch y una filosofía de eficiencia que podría complementar la experiencia de quienes buscan personalización avanzada sin abandonar el ecosistema familiar de Manjaro.

En definitiva, el futuro de Manjaro podría depender de la capacidad de la comunidad para consolidar una visión compartida que combine la cercanía al usuario, la transparencia del desarrollo y una gestión de riesgos que preserve la confianza. Habrá que esperar a ver cómo evolucionan las discusiones, qué decisiones se toman y qué impacto tendrán en la experiencia de uso diaria. Mientras tanto, los usuarios pueden evaluar alternativas que mejor se ajusten a sus necesidades y estilo de trabajo, recomendando una exploración equilibrada entre mantenerse con Manjaro bajo su nuevo marco o migrar a una opción que ofrezca una ruta clara hacia la productividad y la estabilidad.

from Linux Adictos https://ift.tt/3EFhmYj
via IFTTT

IPFire 2.29 Core Update 201: el DNS Firewall llega para transformar la seguridad de la red

El proyecto IPFire ha anunciado la disponibilidad de una nueva versión candidata para su sistema firewall. Se trata de IPFire 2.29 – Core Update 201, que ya puede descargarse y probarse, e incluye una de las funcionalidades más esperadas por su comunidad: su propio cortafuegos DNS integrado.

Esta actualización, además de la gran novedad, llega con una actualización masiva de su cadena de herramientas (toolchain), decenas de paquetes actualizados y mejoras en toda la base del sistema. Al ser una versión de pruebas, los desarrolladores invitan a los usuarios con equipos no productivos a probarla y reportar incidencias para pulir el lanzamiento estable.

IPFire 2.29 Core Update 201: adiós al filtro URL, hola DNS Firewall

El plato fuerte de esta versión es, sin duda, el nuevo DNS Firewall. Esta función transforma IPFire de un simple guardián de red a un eliminador activo de amenazas. Funciona de manera transparente: se sitúa dentro del proxy DNS y evalúa cada consulta contra la lista de bloqueos DBL (mantenida y actualizada por el proyecto) antes de que la respuesta llegue al cliente. Si un dominio está bloqueado, el cliente recibe una respuesta NXDOMAIN, como si el dominio no existiera, impidiendo cualquier conexión maliciosa.

Las ventajas son notables. El DNS Firewall reemplaza por completo al antiguo Filtro URL (que requería configuración compleja en los clientes) y a la necesidad de usar soluciones externas como Pi-hole. Al estar integrado en el firewall, no requiere hardware adicional, configuración en los dispositivos de la red, y aprovecha que todo el tráfico DNS ya pasa por IPFire. Las actualizaciones de las listas de bloqueo se entregan por IXFR (transferencias de zona DNS incrementales) directamente al proxy, por lo que se actualizan cada hora de forma automática y eficiente.

Además de esta función estrella, la actualización 201 incluye un largo listado de mejoras:

  • Sistema de Prevención de Intrusiones (IPS): Ahora permite configurar diferentes destinatarios para los informes diarios, semanales y mensuales.
  • Arquitectura RISC-V: Se ha actualizado la configuración del kernel para la compilación experimental en estos dispositivos.
  • Instalador de Red: Asigna más espacio en disco cuando se arranca desde la red, para acomodar el mayor tamaño de la ISO.
  • Limpieza: Se han eliminado paquetes Rust obsoletos y el add-on `7zip` (por no estar mantenido), reduciendo la superficie de ataque.
  • Actualización de la cadena de herramientas: Se ha actualizado la base del sistema con glibc 2.43 y GNU binutils 2.46.0, mejorando el soporte de hardware y la seguridad general.
  • Paquetes actualizados: Se incluyen nuevas versiones de componentes fundamentales como OpenSSL 3.6.1, OpenVPN 2.6.19, BIND 9.20.20, Samba 4.23.5, entre muchos otros. La lista completa incluye también `iptables`, `vim`, `git`, `nano` y las herramientas de archivo.

Esta es una oportunidad para que la comunidad contribuya probando la nueva funcionalidad y reportando cualquier problema en el foro oficial o en el gestor de incidencias del proyecto.

from Linux Adictos https://ift.tt/ZETOlkW
via IFTTT

SparkyLinux 2026.03 Tiamat: Novedades, Detalles Técnicos y Guía de Instalación


El equipo de desarrollo de SparkyLinux ha lanzado una nueva actualización de sus imágenes ISO para la rama semi-rolling. Se trata de SparkyLinux 2026.03, que llega con el nombre en clave «Tiamat» y trae consigo lo último del repositorio de Debian Testing, actualizado al 14 de marzo de 2026.

Como es habitual en su modelo de desarrollo, esta nueva versión no introduce una nueva rama, sino que actualiza los instaladores para quienes deseen hacer una instalación limpia. Los usuarios que ya tengan una edición Rolling en sus equipos no necesitan descargar nada; con mantener su sistema actualizado (apt update && apt upgrade) tendrán todos estos paquetes desde hace días.

SparkyLinux 2026.03 Tiamat: Novedades y Detalles Técnicos

Esta actualización pone especial énfasis en ofrecer el hardware más reciente gracias a su núcleo. Por defecto, las nuevas imágenes incorporan el kernel Linux 6.19.6, aunque los repositorios de Sparky ya tienen preparadas otras alternativas como la serie 7.0-rc3, la 6.19.8, o las LTS 6.18.18 y 6.12.77 para quienes prefieran máxima estabilidad.

En el apartado de aplicaciones, encontramos las versiones ESR (Extended Support Release) de Firefox y Thunderbird, concretamente la 140.8. Pero si necesitas lo último del navegador de Mozilla, también puedes instalar la versión Firefox 148 directamente desde los repositorios de la distribución.

La instalación también recibe mejoras. Se ha actualizado el instalador gráfico Calamares a la versión 3.4.2, que ahora técnicamente permite contraseñas de un solo carácter durante el proceso, aunque los desarrolladores recomiendan encarecidamente usar una contraseña segura de entre 8 y 12 caracteres. Por otro lado, el instalador por línea de comandos (sparky-installer) ahora ofrece la posibilidad de instalar la versión ia32 de GRUB para UEFI en máquinas de 64 bits.

Un detalle importante para equipos modernos: si tu equipo usa UEFI, la instalación requiere una conexión a internet activa, y se recomienda usar el instalador gráfico Calamares. Para equipos más antiguos con BIOS, tanto el instalador CLI como el gráfico funcionan sin problemas.

SparkyLinux 2026.03 está disponible para arquitectura amd64 en múltiples sabores, incluyendo LXQt, KDE Plasma, MATE, Xfce, una versión MinimalGUI con Openbox, y una MinimalCLI solo para terminal. Puedes encontrar las nuevas imágenes en la página de descarga del proyecto.

En resumen, SparkyLinux 2026.03 Tiamat ofrece soporte actualizado de Debian Testing, opciones de kernel modernas, variantes de entornos de escritorio, y mejoras en el proceso de instalación que facilitan tanto a usuarios noveles como a aquellos que prefieren un enfoque más técnico. Si buscas un sistema estable y a la vez actualizable con un enfoque ligero y modular, esta entrega merece una revisión para planificar una instalación limpia o una actualización segura en equipos compatibles.

from Linux Adictos https://ift.tt/VMjHsKn
via IFTTT

AUR, yay y paru: guía clara para elegir tu asistente en Arch y sus derivadas

yay en EndeavourOS

Si usas Arch Linux o alguna de sus derivadas (EndeavourOS, Manjaro, Artix, etc.), tarde o temprano acabas topándote con los repositorios AUR y los famosos asistentes yay y paru. Todo el mundo habla de ellos, se recomiendan en foros, aparecen en casi todas las guías, pero cuando intentas decidir cuál usar, las diferencias no siempre quedan tan claras.

En las siguientes líneas vamos a desgranar con calma qué ofrece cada uno, qué opiniones reales tiene la comunidad, qué mitos hay alrededor de que “yay está muerto” o “paru es mucho más rápido”, y en qué casos compensa cambiar de uno a otro. La idea es que, al terminar, tengas argumentos sólidos para elegir asistente sin comerte demasiado la cabeza.

Qué son yay y paru y por qué todo el mundo los usa

A grandes rasgos, tanto yay como paru son asistentes de AUR que automatizan el trabajo de buscar, compilar e instalar paquetes del AUR, además de gestionar paquetes de los repos oficiales usando pacman por debajo. Es decir, en lugar de ir manualmente a la web de AUR, descargar el PKGBUILD, ejecutar makepkg y luego instalar el paquete, ellos hacen todo eso de una tacada.

En entornos Arch y derivados es muy habitual querer acceder al inmenso catálogo de software disponible en AUR. Ahí encuentras aplicaciones que no están en los repos oficiales, versiones git, parches experimentales o simplemente programas que nadie ha empaquetado oficialmente; por ejemplo, guías para instalar Visual Studio Code en Arch. Para gestionar todo eso con cierta comodidad, la mayoría acaba usando un asistente, y ahí es donde entran en juego yay y paru como dos de las opciones más populares.

Yay lleva ya muchos años siendo uno de los nombres de referencia: es conocido, documentado, tiene una comunidad enorme y aparece por defecto en distros como EndeavourOS. Paru, por su parte, es más reciente, pero ha ganado bastante tracción porque ofrece una aproximación algo más estricta y segura al flujo de trabajo del AUR, y porque su autor estuvo relacionado con el desarrollo de yay en el pasado.

Diferencias técnicas: Go vs Rust, diseño y filosofía

Un punto que suele salir en todos los debates es que yay está escrito en Go y paru está escrito en Rust. Técnicamente esto importa menos al usuario final de lo que a veces se sugiere, pero sí dice algo del enfoque de cada proyecto.

Yay, desarrollado en Go, se inspira en antiguos asistentes como yaourt, apacman y pacaur. Su código resulta relativamente sencillo de leer y extender para quien domine Go, y una de sus virtudes históricas ha sido justamente que la compilación es rápida y poco dolorosa. Esa base ha permitido que se mantenga vivo incluso tras cambios en el equipo de desarrollo.

Paru, en cambio, está implementado en Rust y bebe directamente de la experiencia de yay, tanto en funcionalidades como en diseño de la interfaz de línea de comandos. Gracias a ello, migrar de yay a paru resulta muy sencillo: muchos comandos y opciones se sienten casi iguales, por lo que no hay que reaprenderlo todo desde cero.

A nivel filosófico, paru pone algo más de énfasis en la seguridad y la revisión de PKGBUILDs, mientras que yay ha tendido históricamente a priorizar un flujo más rápido y cómodo por defecto. Esa diferencia se ve con claridad en cómo cada uno te presenta los archivos antes de construir los paquetes.

Velocidad: ¿es paru realmente más rápido que yay?

Uno de los argumentos más repetidos en foros y redes es que paru es “más rápido” que yay. Aquí conviene matizar. Varios usuarios con hardware potente y buena conexión (por ejemplo, fibra de 1 Gbps) comentan que, en la práctica, la sensación de velocidad entre uno y otro es muy similar. En sistemas así, a menudo el cuello de botella es la descarga o la propia compilación del software, no tanto el asistente.

Aun así, hay quien ha comparado ambos en máquinas más modestas y asegura que paru realiza ciertas operaciones algo más deprisa, especialmente cuando se hacen búsquedas, sincronizaciones o actualizaciones globales que implican tanto repos oficiales como AUR. Esa diferencia no suele ser brutal, pero en equipos con pocos recursos o discos lentos puede notarse unos segundos de mejora aquí y allá.

La otra cara de la moneda es que paru te fuerza por defecto a revisar los PKGBUILDs antes de compilar. Esto añade un paso interactivo que, obviamente, consume tiempo humano (aunque sea poco). Algunos usuarios perciben esto como un “ralentizador”, mientras que otros lo consideran un compromiso razonable porque aporta seguridad y transparencia.

En resumen, si tienes un ordenador moderno y una buena conexión, las diferencias en velocidad entre yay y paru van a ser muy pequeñas. Donde realmente puede merecer la pena inclinarse por paru es en sistemas limitados donde cada segundo cuenta, o si quieres un asistente que esté optimizado hasta el detalle y notes esa ligera ventaja.

Sintaxis y experiencia de uso: lo que se siente al teclear

Más allá de benchmarks y discusiones técnicas, muchos usuarios se quedan con yay por un motivo bastante mundano: es muy cómodo de escribir. Hay quien comenta que literalmente “machaca las dos teclas a la vez” para lanzar yay porque es corto, fácil de recordar y de autocompletar en la terminal.

Paru tampoco es que sea un nombre horrible, pero algunas personas comentan que su sintaxis se les hace un poco más “tosca” al usarlo diariamente. No es que los comandos sean muy diferentes, pero la costumbre pesa, y quienes llevan años con yay sienten que el flujo de uso es más natural y rápido, tanto mentalmente como al teclear.

En cualquier caso, ambos asistentes proporcionan atajos, opciones interactivas y banderas muy similares. Por ejemplo, funciones como mostrar un menú combinado de actualizaciones de repos y AUR con detalles de versión están disponibles en los dos. En yay existe la opción --combinedupgrade, que muestra un listado coloreado con qué se va a actualizar y de qué versión a cuál. En paru se consigue algo equiparable mediante la opción --upgrademenu, que ofrece un menú detallado de actualizaciones.

Un detalle curioso que aparece en algunos hilos es que hay usuarios que incluso crean alias como yaya para yay, porque les resulta todavía más cómodo y divertido invocarlo así. Esto ilustra bien hasta qué punto la ergonomía y la costumbre tienen un peso muy real a la hora de elegir asistente.

Dónde guarda cada uno los paquetes compilados

Otro aspecto interesante que suele pasar desapercibido es la gestión de los paquetes ya construidos (los .pkg.tar.zst). Aquí yay y paru se comportan de forma ligeramente diferente, y eso afecta a cómo se integran con las rutas típicas de Arch.

Por defecto, makepkg coloca los paquetes construidos en el directorio de compilación. Esa ruta puede ajustarse mediante la variable PKGDEST en /etc/makepkg.conf, de modo que podrías, por ejemplo, enviarlos a /var/cache/pacman/pkg/ para centralizar los binarios empaquetados.

En el caso de paru, este respeta el comportamiento habitual de makepkg: los paquetes terminan en el directorio de compilación asociado a paru, normalmente algo como ~/.cache/paru/clone/$pkgname/. Si quieres modificar esa ruta globalmente, puedes usar la opción BuildDir en /etc/paru.conf, reenviando las compilaciones a otro sitio.

Yay se comporta de forma algo distinta. Varios usuarios señalan que yay copia los paquetes construidos a /var/cache/pacman/pkg/ después de compilarlos, lo que en la práctica hace que tengas tus paquetes AUR en el mismo sitio que los paquetes oficiales gestionados por pacman. Esto es cómodo pero implica que yay está, en cierto modo, pisando lo que hayas definido en PKGDEST en /etc/makepkg.conf, algo que algunos consideran poco respetuoso con la configuración global del sistema.

Para el usuario medio esto no suele ser un drama, pero si eres muy tiquismiquis con la forma en que se organizan los binarios en tu máquina, puede ser un motivo para preferir el comportamiento más “limpio” de paru, o al menos para ser consciente de lo que está haciendo cada asistente con tus paquetes.

Nivel de mantenimiento y actividad de cada proyecto

En distintos debates se ha extendido la idea de que yay está abandonado o desfasado y que paru es su reemplazo natural. Esta afirmación viene en parte de que uno de los desarrolladores relacionados con yay pasó a centrarse en paru, y en algunos vídeos y posts se interpretó eso como que el proyecto yay moría o quedaba sin mantenimiento.

Varios usuarios y desarrolladores han desmentido esa narrativa de forma tajante: yay sigue teniendo mantenimiento activo, con commits frecuentes en su repositorio y una comunidad bastante amplia detrás. De hecho, parte del enfado de algunos mantenedores viene precisamente de ver cómo se repite una y otra vez el mantra “yay está muerto” sin que la gente se moleste en comprobar el estado real del proyecto.

Al mismo tiempo, es cierto que paru muestra una actividad muy alta y constante, a veces incluso algo superior a la de yay en determinados periodos. Esto es lógico, ya que se trata de un proyecto relativamente nuevo, con muchas ganas de iterar y pulir detalles, y con un autor muy implicado que responde con rapidez a issues y peticiones de la comunidad.

En la práctica, para la persona que simplemente quiere instalar paquetes, estas diferencias de actividad rara vez se traducen en problemas. Ambos proyectos están vivos, reciben correcciones y nuevas funciones, y no hay nada que obligue a abandonar yay por miedo a que quede roto a corto plazo.

Seguridad, revisión de PKGBUILDs y filosofía de uso del AUR

Un punto clave donde sí se perciben diferencias claras de enfoque es cómo cada asistente trata la revisión de PKGBUILDs. Recordemos que AUR no es un repositorio oficial: son recetas enviadas por usuarios, y la responsabilidad final de revisarlas es tuya.

La comunidad de Arch insiste desde siempre en que hay que leer los PKGBUILDs antes de instalarlos, para evitar sorpresas desagradables (scripts maliciosos, descargas desde orígenes poco fiables, comandos peligrosos, etc.). Paru, alineado con esa filosofía, está configurado por defecto para mostrarte esa revisión y “obligarte” a prestarle atención antes de construir el paquete.

Yay, aunque también permite revisar los PKGBUILDs, facilita un flujo más “rápido y despreocupado” si quieres ir a tiro hecho. Esto gusta mucho a quien prioriza comodidad y confía en los mantenedores de AUR, pero también ha generado la percepción de que yay anima un poco más al “instalo sin mirar”, algo que no casa del todo con la mentalidad purista de Arch.

En cualquier caso, es importante recordar que, uses el asistente que uses, todo acaba pasando por makepkg y pacman. Es decir, ambos ayudan a automatizar la parte pesada, pero el modelo base sigue siendo el mismo: PKGBUILDs que se convierten en paquetes que pacman gestiona e instala. La responsabilidad de entender lo que instalas sigue siendo tuya.

Uso del AUR sin asistentes y el papel de pacman

En varios hilos también aparece una pregunta recurrente: “¿cómo actualizas paquetes del AUR sin usar un asistente?”. La respuesta ortodoxa, que enlaza directamente con la filosofía oficial de Arch, es clara: usando makepkg a mano con los PKGBUILDs correspondientes.

Los PKGBUILDs son recetas que definen cómo construir el paquete desde el código fuente o desde binarios precompilados, y una vez generado ese paquete, es pacman quien se encarga de instalarlo y de llevar el registro, igual que hace con los paquetes de los repos oficiales. No hay un tratamiento especial por ser “AUR”: para pacman, una vez empaquetado, todo es simplemente un paquete más.

Los asistentes como yay y paru no son más que capas de comodidad encima de ese flujo clásico de “bajar PKGBUILD → makepkg → pacman”. Hacen búsquedas, resuelven dependencias, automatizan descargas y compilaciones, y añaden menús y opciones útiles, pero no sustituyen ni modifican el rol de pacman como gestor central del sistema.

Por eso hay usuarios veteranos que presumen de no usar asistentes nunca y defender el método manual como el más transparente y controlable. Otros, la mayoría, prefieren ahorrar tiempo y tirar de yay o paru, confiando en que la automatización les simplifica la vida sin perder de vista del todo lo que están haciendo.

Paru y yay en distros derivadas: EndeavourOS, Manjaro, Artix…

En distros como EndeavourOS, yay suele venir preinstalado o recomendado como asistente principal. Esto marca bastante la experiencia de los recién llegados, que adoptan yay sin pensar demasiado porque es lo que trae el sistema y la documentación oficial. Posteriormente pueden descubrir paru y plantearse si merece la pena el cambio.

En algunos debates dentro de la propia comunidad de EndeavourOS se ha planteado si deberían pasar a incluir paru por defecto. Muchos usuarios y miembros del equipo han respondido que no ven una necesidad real de hacerlo, ya que yay sigue siendo una herramienta sólida, mantenida y bien conocida. En consecuencia, a corto y medio plazo, no parece que vaya a haber una sustitución masiva de yay por paru en esta distro.

En otras derivadas de Arch (Artix, Manjaro, etc.), la situación es parecida: lo importante es tener acceso al AUR y la posibilidad de usar un asistente, pero cuál uses al final suele depender de lo que recomiende la documentación, lo que diga la comunidad o simplemente de lo que probaste primero y te funcionó bien.

También es frecuente que se sugiera activar repositorios externos como Chaotic-AUR para facilitar la instalación de estos asistentes sin tener que compilar desde el propio AUR. En algunos tutoriales se explica cómo preparar el sistema, añadir dichos repos y luego instalar yay o paru directamente como paquetes binarios, evitando el paso de construcción manual inicial.

Instalar y convivir con ambos asistentes

Una opción que defienden bastantes usuarios, sobre todo quienes están probando cosas, es instalar tanto yay como paru y convivir con ambos una temporada. De esta forma puedes usar yay para lo que ya haces por costumbre y experimentar con paru en tareas puntuales, comparando sensaciones y características en tu propio hardware.

Al ser herramientas que se apoyan en pacman y makepkg, no se pisan ni rompen el sistema por coexistir. Puedes instalar paquetes con uno, listar actualizaciones con otro y seguir funcionando sin mayores dramas, siempre y cuando sepas qué estás haciendo. Cuando tengas claras tus preferencias, si quieres simplificar, puedes quedarte solo con el que más te convenza y desinstalar el otro.

En algunos casos específicos se recomienda instalar paru usando yay (ya que yay viene de serie en la distro), probarlo, y si te convence, cambiar tus scripts, alias y costumbres a paru y luego prescindir de yay. Pero, insistiendo una vez más, no hay obligación técnica de hacer este cambio; es más una cuestión de gustos y filosofía.

Por otro lado, hay quien prefiere seguir siempre el método “vanilla”: instalar los asistentes desde el propio AUR usando makepkg, para mantener la coherencia con la filosofía Arch pura y dura. En cualquiera de los casos, el resultado final es el mismo: tienes un asistente funcional que te simplifica el uso de AUR.

Mirando todos estos matices en conjunto, lo que se ve claro es que ambos asistentes cubren muy bien las necesidades del usuario medio de Arch: automatizar el trato con AUR, mantener el sistema al día y ofrecer ciertas comodidades que pacman, por diseño, no proporciona. Paru pone un poco más el foco en revisiones y en un rendimiento algo más afinado, mientras que yay ofrece una experiencia extremadamente familiar, rápida de teclear y con años de rodaje, lo que explica por qué tanta gente sigue fiel a él a pesar de la llegada de alternativas nuevas.

from Linux Adictos https://ift.tt/wUsmaIc
via IFTTT

Limine: una alternativa moderna para el gestor de arranque en sistemas Linux


Limine se está consolidando como una alternativa robusta y versátil a GRUB, especialmente para usuarios avanzados y desarrolladores de kernels. En este artículo exploramos qué es Limine, su propuesta multiprotocolo y qué lo diferencia de otros gestores de arranque, así como pautas de instalación y configuración en arquitecturas modernas.

Qué es Limine y por qué importa
Limine es un bootloader multiprotocolo, escrito principalmente en C y ensamblador, que implementa su propio protocolo de arranque, el Limine Boot Protocol. Funciona como un hub capaz de cargar Linux y otros kernels compatibles, y de chainload a otros bootloaders ya instalados. Su objetivo principal es ofrecer una alternativa más robusta a GNU GRUB y, al mismo tiempo, simplificar el proceso de arranque para desarrolladores de kernels al entregar un entorno de 64 bits preparado y menos dependiente de especificaciones heredadas como Multiboot o Multiboot2.

Arquitecturas y plataformas soportadas
Limine destaca por su portabilidad: soporta IA-32 (i686), x86-64, aarch64 (arm64), riscv64 y loongarch64, con soporte experimental para algunos escenarios Loongarch. En la práctica, puede arrancar sistemas x86-64, aarch64, riscv64 y loongarch64 con firmware UEFI. En términos simples, Limine apunta a cubrir la mayoría de PCs modernos, servidores y dispositivos ARM recientes, manteniendo compatibilidad con BIOS en modos específicos.

Protocolos de arranque admitidos
Una de las fortalezas de Limine es su capacidad para reconocer varios protocolos de arranque, lo que lo convierte en una especie de “hub” para distintos sistemas operativos y bootloaders. Entre los protocolos soportados se encuentran: Protocolo Linux, Protocolo Limine (propio del proyecto), Multiboot 1 y 2, y Chainloading para delegar el control a otro bootloader (p. ej., Windows o rEFInd). Este enfoque multiprotocolo facilita escenarios de multiboot donde conviven Linux, herramientas experimentales y bootloaders ya presentes en el disco.

Esquemas de particionado y sistemas de archivos
Limine admite MBR y GPT para particionado, así como medios sin particionar en determinadas situaciones. En cuanto a sistemas de archivos, Limine es deliberadamente minimalista: ofrece soporte nativo para FAT12, FAT16, FAT32 e ISO9660. Esta elección facilita la ubicación de los archivos de arranque (núcleo, initramfs, etc.) en particiones FAT o en medios ISO, manteniendo la raíz del sistema en otros sistemas de archivos como ext4, Btrfs o ZFS. En configuraciones UEFI típicas, el kernel y el initramfs residen en la ESP FAT32, mientras que la raíz puede estar en un sistema de archivos diferente.

Requisitos mínimos y compatibilidad
Para x86 de 32 bits, Limine garantiza soporte a partir de Pentium Pro / i686. Para 64 bits, todas las máquinas x86-64, aarch64, riscv64 y loongarch64 con UEFI quedan dentro del alcance. En resumen, Limine busca cubrir un espectro amplio de hardware moderno y simular un entorno de arranque estable para kernels personalizados.

Distribución, versiones y binarios precompilados
La vía principal para obtener Limine es su repositorio oficial en Codeberg. A partir de la versión 7.x, el proyecto utiliza versionado semántico (por ejemplo, 10.5.0). Además, existen ramas y etiquetas -binary con binarios precompilados para facilitar la instalación sin compilación. Esta distribución modular facilita el despliegue en distintas plataformas y entornos.

Instalación y despliegue: enfoques básicos
Existen dos enfoques principales: instalar Limine desde paquetes de la distribución (por ejemplo, Arch Linux) o clonar desde Codeberg las ramas de código fuente o binarios y compilar desde cero. En Arch Linux, por ejemplo, se recomiendan pasos para desplegar en UEFI (copiar BOOTX64.EFI a la ESP) y en BIOS (MBR y/o GPT con partición de arranque BIOS). La configuración básica de Limine requiere un limine.conf para definir las entradas y cómo se muestran en el menú de arranque.

Configuración en Arch Linux: limine.conf y herramientas auxiliares
La configuración en Arch suele realizarse en la ESP, con limine.conf ubicado junto al binario EFI o en la partición destinada a /boot. Limine no crea entradas NVRAM automáticamente; es necesario usar efibootmgr para registrar la entrada en el firmware. En BIOS, la instalación se realiza copiando limine-bios.sys y ejecutando limine bios-install /dev/sdX. Se pueden integrar herramientas como limine-entry-tool y limine-snapper-sync para generar y sincronizar entradas con snapshots de Btrfs, facilitando gestiones de backups y restauraciones.

Gentoo, Arch y Gentoo-Guía de configuración avanzada
En Gentoo, Limine está disponible en el árbol de ebuilds y puede requerir mascarado inicial. Las guías de Gentoo destacan la necesidad de un punto de montaje vfat en /boot (ESP) para UEFI y/o una partición FAT dedicada para BIOS. La sintaxis de limine.conf en Gentoo se actualizó para las versiones modernas, con ejemplos que muestran configuraciones para root en subvolúmenes Btrfs o raíces en ZFS, y entradas para microcódigo o initramfs. Se explica también la configuración para Dual Boot con Windows y el manejo de diferentes esquemas de particionado.

Automatización y soporte de comunidad
Limine cuenta con una comunidad activa y repositorios en Codeberg, además de presencia en distros como Arch, Gentoo y otras. Existen canales de ayuda (Matrix) y donaciones opcionales a través de Liberapay. En resumen, Limine ofrece un ecosistema maduro con documentación y herramientas para integrar con Memtest86+, Windows y administradores de snapshots.

Conclusión
Limine propone una alternativa moderna y flexible a los bootloaders tradicionales, con un enfoque multiprotocolo, amplia compatibilidad de arquitecturas y una sencillez en la gestión de archivos de arranque que puede adaptarse a entornos de desarrollo y multiboot. Aunque requiere una cierta planificación, especialmente en configuración y particionado FAT para /boot, ofrece una vía sólida para quienes buscan un control detallado del proceso de arranque y una plataforma estable para desplegar kernels personalizados.

from Linux Adictos https://ift.tt/VykJSMF
via IFTTT

La emoción desató la pista: dos Ferrari y la promesa italiana



Fue una carrera que convirtió la pantalla en un estadio de emoción para cualquier italiano. Dos pilotos de Ferrari, conduciendo lo que parece ser uno de los autos más extraordinarios fabricados en Maranello en años, lucharon codo a codo por la punta, enfrentándose a la estrella ascendente más prometedora del deporte, la esperanza italiana en un título mundial desde… Mamma mia, Alberto Ascari en 1953. La primera victoria del nuevo héroe nacional llegó en un abanico de dominio casi total, pero la historia no termina ahí. Cada curva, cada adelantamiento y cada registro de tiempo encendió la pasión de la afición y dejó en el aire la promesa de más capítulos vibrantes por venir. Si algo nos enseña este episodio, es que la historia de la Formula 1 sigue escribiéndose con cada pilotaje, con cada esfuerzo y con esa chispa italiana que nunca falla cuando la pista arde. Para seguir leyendo y profundizar en el análisis y las implicaciones de este enfrentamiento épico, no dejes de hacer clic en el enlace.
from Motorsport.com – Formula 1 – Stories https://ift.tt/oW5dgKX
via IFTTT IA

Max Verstappen: La Pasión Verdadera Detrás del Fuego en Yangzhou



El mundo del automovilismo está lleno de momentos que chisporrotean entre la crítica y la adrenalina. En una escena que quedó grabada en la memoria de los aficionados, alguien sugirió en el post-race de Shanghai que parte de la experiencia de este fin de semana había sido menos ‘artificial’, suficiente para encender un poco más las gradas. La respuesta de Max Verstappen fue contundente y, para muchos, reveladora: “Es terrible. Si a alguien le gusta esto, entonces realmente no entiendes qué es el deporte”.

Lo que él describe va más allá de una simple disputa de palabras: es una declaración de principios. Verstappen no está buscando la idea de que la competición se construye sobre la artificialidad o la grandiosidad del espectáculo. Está hablando de la esencia del racing, de esa chispa que se siente cuando la pista, el ritmo, la estrategia y el coraje de un piloto se alinean. Cuando la experiencia de la gente en las gradas se enciende, no es por un truco de cine; es por la verdad del instante: la velocidad, la precisión y la toma de decisiones bajo presión, en una lucha que no admite trampas ni atajos.

Se podría pensar que las palabras del piloto fueron duras, pero en realidad traen una invitación a mirar más allá de la superficie. En cada carrera hay una conversación entre el equipo, el coche y el piloto, una coreografía que decide si el fin de semana se recordará por maniobras limpias, por reacciones rápidas o por la paciencia estratégica que mantiene a todos al borde de sus asientos. Verstappen, con su tono directo, está defendiendo esa visión: el deporte verdadero no se mide por la teatralidad, sino por la autenticidad de la competencia y la dedicación diaria para acercarse a la perfección, una y otra vez.

Para los aficionados, esto es un recordatorio de que la emoción no necesariamente pasa por la exageración o la nube de humo de la expectativa. La emoción auténtica llega cuando la pista exige al límite, cuando cada vuelta aporta una nueva decisión y cuando el rugido de las gradas acompaña al ritmo de la carrera, sin adornos innecesarios. En ese sentido, el comentario de Verstappen es un llamado a valorar la esencia de la competición: la habilidad, el coraje y la verdad de lo que sucede entre los muros y las protecciones.

Qué nos deja este episodio para el futuro inmediato? Una conversación continua sobre qué significa realmente el racing en una era de altísimas expectativas y tecnologías sorprendentes. Quizás, más que buscar un espectáculo perfecto, empezamos a buscar una experiencia que mantenga a cada fan pegado a la pantalla o a la grada, recordándonos que la verdadera magia está en la dedicación del esfuerzo humano, en cada curva tomada con riesgo y en cada decisión que puede cambiar el resultado en una fracción de segundo. Porque, al final, eso es lo que convierte a un piloto en leyenda y a una carrera en historia que se cuenta una y otra vez.
from Motorsport.com – Formula 1 – Stories https://ift.tt/XEL9Mio
via IFTTT IA

Gran Venta de Amazon AU 2026: las mejoras tecnológicas por menos de 50 AUD que más llaman la atención



Amazon AU ha puesto en marcha oficialmente su primer gran evento de ofertas de 2026: la Gran Venta Sonriente (Big Smile Sale). En este artículo, comparto una selección de actualizaciones tecnológicas sorprendentemente asequibles, todas por debajo de AU$50, que destacan por su relación calidad-precio y su potencial para mejorar la vida diaria de manera tangible. A continuación, detallo las opciones que personalmente considero más prometedoras y por qué podrían merecer un lugar en tu lista de compras.

1) Auriculares inalámbricos económicos con cancelación de ruido pasiva
– Por qué interesan: mejor experiencia de escucha para podcasts, música y llamadas sin disparar el presupuesto.
– Consideraciones clave: autonomía, compatibilidad y comodidad para uso prolongado.

2) Cargadores y bases de carga multi-dispositivo
– Por qué interesan: organización y eficiencia para cargar varios dispositivos a la vez sin desorden.
– Consideraciones clave: potencia por salida, compatibilidad con diversos dispositivos y tamaño.

3) Soportes para teléfono y tabletas con ajuste ergonómico
– Por qué interesan: optimizan la experiencia de videollamadas, lectura y navegación sin fatiga.
– Consideraciones clave: rango de inclinación, compatibilidad con diferentes modelos y estabilidad.

4) Memorias flash USB 3.0/3.1 de alta velocidad
– Por qué interesan: transferencia de archivos rápida y respaldo ligero para trabajos y proyectos personales.
– Consideraciones clave: capacidad real, protección de datos y durabilidad.

5) Accesorios para casa inteligente asequibles
– Por qué interesan: pequeñas mejoras que pueden convertir una casa en un entorno más cómodo y conectado sin romper el presupuesto.
– Consideraciones clave: compatibilidad con asistentes de voz y ecosistemas existentes.

Mi enfoque al evaluar estas ofertas fue buscar productos con buena reseña de usuarios, garantías básicas y un historial de fiabilidad razonable para su rango de precio. La Gran Venta Sonriente de Amazon AU 2026 podría ser una oportunidad ideal para incorporar mejoras prácticas en tu rutina diaria sin complicarte la vida con gastos mayores.

Si ya tienes alguno de estos dispositivos en la mira, te sugiero confirmar detalles como la duración de la batería, el soporte de firmware y las políticas de devolución antes de confirmar la compra. ¿Qué artículo te entusiasma más de esta lista y por qué? Compartiré más opiniones y comparativas a medida que avance la oferta.

from Latest from TechRadar https://ift.tt/GZnctFO
via IFTTT IA

Cómo ralentizar el deterioro de la batería de tu Mac ajustando la configuración de carga


La duración de la batería de las laptops suele disminuir con el tiempo, y las Mac no son la excepción. Con el paso de los años, las celdas se degradan, la capacidad máxima que pueden almacenar se reduce y las ráfagas de rendimiento pueden verse afectadas por la gestión de energía. Sin embargo, hay prácticas y ajustes simples de configuración que pueden ayudar a alargar la vida útil de la batería y mantener un rendimiento más estable durante más tiempo.

Entender el razonamiento detrás del desgaste: cada ciclo de carga y descarga desgasta las celdas químicas. Los fabricantes diseñan las laptops para optimizar la autonomía diaria, pero esa optimización puede conllevar un desgaste proporcional si se llega a límites de temperatura o se mantiene la batería al 100% durante largos periodos. Gestionar cuándo y cómo se carga puede marcar una diferencia notable en la longevidad de la batería.

1) Optimiza la carga para uso diario
– Activa las funciones de optimización de batería que macOS ofrece en System Settings (Ajustes del sistema). Estas herramientas están pensadas para ralentizar la degradación al evitar cargas completas innecesarias y mantener la batería en rangos más estables.
– Utiliza la opción de “Carga optimizada” o equivalente que retrasa la carga al 100% cuando no es necesario. Esto es especialmente útil si sueles mantener el portátil conectado durante largas sesiones sin necesidad de plena capacidad de batería.

2) Gestiona el comportamiento al cubrir la temperatura y el rendimiento
– Evita superar temperaturas moderadas durante la carga y el uso. El calor excesivo acelera la degradación. Si detectas que la temperatura se mantiene alta, considera usar una base de refrigeración o ajustar el entorno de trabajo.
– El rendimiento sostenido puede generar calor adicional. Si trabajas en tareas intensivas durante largas horas, alterna entre modos de energía que prioricen eficiencia y cuidado de la batería para evitar ciclos innecesarios de alta demanda.

3) Consejos prácticos para el día a día
– Mantén el software actualizado. Las actualizaciones de macOS a menudo incluyen mejoras en la gestión de energía y optimización de batería.
– Evita dejar la batería siempre al 100% o al mínimo cercano al 0%. La mayoría de los sistemas modernos gestionan esto, pero mantener rangos moderados (por ejemplo, entre 20% y 80% cuando sea posible) puede favorecer la longevidad a largo plazo.
– Si planeas no usar el portátil durante un periodo prolongado, almacénalo con una carga intermedia (aproximadamente 50%) y guarda el equipo en un lugar fresco.

4) Cuándo priorizar el rendimiento frente a la conservación
– Si depends de la máxima potencia para proyectos creativos, supervisa la temperatura y la duración de la batería para no forzar el sistema, pero no sacrifiques demasiado la experiencia de uso.
– Para trabajos prolongados fuera de la toma de corriente, la batería seguirá siendo crucial. En esos casos, activa configuraciones que prioricen la eficiencia energética y la moderación de carga para mantener la batería en buen estado más allá de su primer lustro.

Conclusión
Con ajustes simples de la configuración de carga y hábitos de uso conscientes, puedes ralentizar el deterioro de la batería de tu Mac y mantener un rendimiento confiable durante más tiempo. La clave está en entender que la gestión de la carga, la temperatura y las actualizaciones del sistema trabajan conjuntamente para prolongar la vida útil de la batería sin renunciar a una experiencia de uso fluida.
from Wired en Español https://ift.tt/9WYH5bB
via IFTTT IA

Informe en Vivo desde San José: Nvidia GTC 2026 — Lo que hemos visto hasta ahora



Estamos en San José para cubrir en vivo Nvidia GTC 2026. En estas primeras horas de la conferencia, se vislumbran tendencias claras que marcan el pulso de la industria: un énfasis continuo en la aceleración de IA, soluciones híbridas de cómputo y una dedicación renewed a la eficiencia energética de los sistemas de procesamiento.

Lo más destacado de las primeras ponencias apunta a tres temas centrales. Primero, la consolidación de infraestructuras de inteligencia artificial a gran escala, donde se presentan arquitecturas y herramientas que simplifican el desarrollo, el entrenamiento y la implementación de modelos complejos. Se enfatiza la interoperabilidad entre hardware y software, así como la disponibilidad de entornos optimizados para cargas de trabajo de IA en la nube y en el edge.

Segundo, se observa un impulso significativo hacia la generación de valor a partir de la IA en aplicaciones industriales y científicas. Las demostraciones se centran en acelerar simulaciones, análisis de datos en tiempo real y soluciones de visión por computadora para manufactura, transporte y salud. Este enfoque busca conectar la potencia de cálculo con resultados tangibles en productividad y toma de decisiones.

Tercero, la sostenibilidad y la eficiencia energética siguen siendo prioridades. Las presentaciones destacan avances en productos y soluciones que reducen el consumo sin sacrificar rendimiento, junto con herramientas para medir y gestionar el impacto ambiental de las infraestructuras de IA y HPC.

Entre las novedades más visibles, se aprecian mejoras en GPUs y plataformas que prometen una experiencia de desarrollo más ágil, SDKs más robustos y pipelines de deployment más coherentes entre desarrollo, pruebas y producción. También se mencionan alianzas estratégicas para ampliar ecosistemas y acelerar la adopción en sectores clave.

A medida que avanza la agenda, surgen preguntas sobre los casos de uso más prometedores y la escalabilidad de las soluciones presentadas. En las próximas sesiones se espera profundizar en casos prácticos, benchmarks y roadmaps de producto que ayuden a comparar opciones y tomar decisiones informadas.

Este informe continuará actualizándose a medida que se desarrollen las charlas y demostraciones, compartiendo insights, cifras y lecciones aprendidas para profesionales que buscan entender cómo las innovaciones de Nvidia pueden transformar sus estrategias de innovación tecnológica en 2026 y más allá.

from Latest from TechRadar https://ift.tt/kh01Y4A
via IFTTT IA