Waydroid y el acceso WiFi para apps: guía práctica para Linux


Recientemente he probado Waydroid en Manjaro para ampliar las posibilidades de mi escritorio. A pesar de no necesitarlo para tareas diarias, disponer de acceso a aplicaciones móviles facilita probar servicios y herramientas. En este artículo compartiré una experiencia orientada a habilitar el acceso WiFi para apps dentro de Waydroid, con un ejemplo práctico centrado en Apple Music para verificar su funcionamiento sin conexión y la experiencia de las radios en directo.

Dando acceso al WiFi a apps de Waydroid

Darle acceso al WiFi a una app de Waydroid puede hacerse de forma relativamente sencilla mediante una técnica conocida como fake_wifi. Este truco consiste en engañar a la app para que crea que existe una conexión WiFi, lo que permite que varias funciones de la app funcionen correctamente. Antes de intentar, es importante entender que este enfoque puede comportar riesgos o restricciones dependiendo de la app y de la versión de Waydroid. Siempre opera con responsabilidad y respeta los términos de uso de cada servicio.

Requisitos previos

– Waydroid instalado y funcionando en Manjaro o tu distribución Linux compatible.
– Acceso de administrador para modificar la configuración de Waydroid.
– Una app de tu interés que requiera WiFi para funcionar (en este caso, Apple Music como caso de prueba).

Guía paso a paso

1) Mostrar la lista de apps instaladas

“`
waydroid app list
“`

2) Especificar el paquete de la app para la que quieres activar el WiFi

“`
waydroid prop set persist.waydroid.fake_wifi \”com.nombre.paquete\”
“`

3) Reiniciar el servicio de Waydroid para aplicar cambios

“`
waydroid session stop
waydroid session start
“`

Resultados y consideraciones

Con el ajuste aplicado, la app objetivo puede detectar una conexión WiFi y, en el caso de Apple Music, es posible escuchar música y consultar radios en directo. También se observan problemas puntuales en algunas apps que pueden depender de otros factores, como permisos de red, configuraciones de proxy o la implementación de DRM. Este enfoque no garantiza un rendimiento perfecto para todas las apps, pero mejora significativamente la experiencia en casos concretos.

Notas de seguridad y legalidad

– Este procedimiento altera el comportamiento de la app en tiempo de ejecución y podría violar términos de servicio de ciertos proveedores. Usa la técnica con responsabilidad y, si es posible, consulta las políticas del servicio.
– Desrootear Waydroid o modificar configuraciones para evadir controles de seguridad puede exponer el sistema a riesgos. Realiza copias de seguridad y entiende las implicaciones.

Conclusión

Habilitar el acceso WiFi para apps en Waydroid puede ampliar la compatibilidad de herramientas móviles en un entorno Linux, especialmente para pruebas y exploración personal. Aunque no es una solución universal, ofrece un camino práctico para evaluar funcionalidades específicas sin depender de un dispositivo móvil nativo. Si te interesa este enfoque, prueba con tus apps y comparte tus resultados para enriquecer la experiencia de la comunidad.

from Linux Adictos https://ift.tt/8XmG4xM
via IFTTT

Raspberry Pi OS 2026-04-13: seguridad reforzada y cambios en sudo


Raspberry Pi OS 2026-04-13 ya está disponible. Esta versión introduce mejoras generales en el sistema y en el centro de control, pero destaca especialmente por un ajuste clave en la gestión de privilegios. La decisión responde al aumento de amenazas de ciberseguridad y a la necesidad de evitar accesos indebidos en dispositivos que se utilizan en entornos educativos, domésticos o profesionales.

El cambio más relevante es que el uso de sudo sin contraseña queda desactivado por defecto en nuevas instalaciones. Esto significa que, a partir de ahora, los usuarios deberán introducir su contraseña cada vez que ejecuten comandos con privilegios de administrador. La medida busca evitar accesos no autorizados si alguien accede al dispositivo, ya sea de forma física o remota.

Hasta ahora, Raspberry Pi OS permitía ejecutar tareas administrativas sin autenticación adicional, lo que facilitaba el uso diario, especialmente para quienes están aprendiendo. Sin embargo, ese enfoque podía facilitar abusos si el sistema caía en manos equivocadas. Con este cambio, el sistema se alinea con otras distribuciones Linux donde introducir la contraseña al usar sudo es una práctica estándar. Además, tras introducirla por primera vez, la contraseña no será necesaria durante un breve periodo, lo que mantiene un equilibrio entre seguridad y comodidad.

Para quienes prefieran el comportamiento anterior, los desarrolladores han añadido una opción para reactivar el modo sin contraseña desde el centro de control o mediante herramientas como raspi-config. Esto demuestra que la prioridad actual es la seguridad, pero se mantiene la flexibilidad para distintos perfiles de usuario.

En conjunto, Raspberry Pi OS 2026-04-13 no solo trae mejoras visuales y de rendimiento, sino que marca un paso importante hacia sistemas más seguros por defecto, algo cada vez más necesario en un ecosistema de dispositivos conectados. Si gestionas equipos en un entorno educativo o corporativo, esta tendencia refuerza la recomendación de adoptar buenas prácticas de autenticación y actualizaciones regulares.

from Linux Adictos https://ift.tt/TWRrIHS
via IFTTT

OpenSSL 4.0: una ruptura necesaria para la privacidad, la seguridad y la modernización de la criptografía

OpenSSL 4.0

La llegada de OpenSSL 4.0 marca una ruptura importante con versiones anteriores de esta biblioteca de referencia para SSL/TLS y criptografía, ampliamente usada en servidores web, aplicaciones empresariales y dispositivos de red. El salto de versión mayor no es solo simbólico: arrastra cambios incompatibles, nuevas funciones centradas en privacidad y seguridad futura, y la retirada de tecnologías que llevaban años en desuso.

Para administradores de sistemas, responsables de ciberseguridad y desarrolladores, esta versión supone un punto de inflexión a la hora de actualizar infraestructuras: introduce mejoras como Encrypted Client Hello y soporte avanzado de criptografía post‑cuántica, pero también elimina soporte para protocolos antiguos, el sistema de engines y varias APIs, obligando a revisar el código y los procesos de compilación antes de dar el salto.

Novedades principales de OpenSSL 4.0

La rama 4.0 de OpenSSL se presenta como una actualización de gran calado, con un enfoque claro en reforzar la privacidad, modernizar la base de código y limpiar lastre heredado. El equipo del proyecto ha aprovechado el cambio de versión mayor para introducir modificaciones incompatibles, eliminar soporte para plataformas marginales y ajustar el comportamiento por defecto de varios componentes internos.

Entre los cambios más visibles se encuentra la incorporación de Encrypted Client Hello (ECH), la ampliación del catálogo de algoritmos para entornos post‑cuánticos, la deprecación y eliminación de funciones históricas en el tratamiento de certificados y tiempos X.509, así como la revisión de opciones de compilación, scripts y objetivos de construcción en distintos sistemas operativos.

Privacidad reforzada con Encrypted Client Hello (ECH)

Uno de los avances más comentados es la integración de Encrypted Client Hello conforme al RFC 9849. ECH permite cifrar el mensaje Client Hello de TLS, de modo que un observador pasivo en la red no pueda acceder al Server Name Indication (SNI), es decir, al nombre del servidor al que se conecta el cliente.

Este cambio es especialmente relevante, donde la protección de la privacidad y los metadatos de conexión tiene un peso creciente en el marco regulatorio y en las políticas de muchas organizaciones. La adopción de ECH contribuye a reducir la capacidad de terceros para perfilar el tráfico TLS identificando dominios concretos a los que acceden usuarios y empresas.

Con OpenSSL 4.0, los desarrolladores que implementen ECH podrán ocultar información sensible del handshake inicial, dificultando la inspección pasiva e incrementando el nivel de confidencialidad de las conexiones, tanto en servicios públicos como en entornos corporativos donde se prioriza el cumplimiento normativo y la protección de datos.

Adiós a SSLv3, SSLv2 Client Hello y al sistema de engines

La nueva versión rompe definitivamente con parte del pasado del protocolo, ya que elimina el soporte para SSLv3, un estándar que llevaba años considerado inseguro y que estaba deshabilitado por defecto en OpenSSL desde la versión 1.1.0. De este modo, cualquier aplicación que todavía dependiera de SSLv3 tendrá que migrar a TLS moderno para poder funcionar con la rama 4.0.

También desaparece el soporte para el Client Hello de SSLv2, que se mantenía por compatibilidad histórica pero estaba completamente fuera de las prácticas recomendadas de seguridad. Su retirada contribuye a reducir la superficie de ataque y simplificar el código, alineando OpenSSL con las exigencias actuales de cifrado robusto en infraestructuras.

Otro cambio estructural es la eliminación completa del engine API utilizado para integrar hardware y software criptográfico externo. A partir de OpenSSL 4.0, la opción de compilación no-engine pasa a ser la única disponible, y la macro OPENSSL_NO_ENGINE está siempre presente. Esto obliga a revisar implementaciones que explotaban engines personalizados para tareas como aceleración criptográfica o uso de módulos HSM.

En paralelo, se recortan también métodos personalizados heredados de EVP_CIPHER, EVP_MD, EVP_PKEY y EVP_PKEY_ASN1, junto con métodos de versión SSL/TLS ya obsoletos y funciones de gestión de estados de error (como ERR_get_state() y sus variantes de eliminación de estado), consolidando una API más limpia y coherente con las necesidades actuales.

Impulso a la criptografía post‑cuántica y nuevos algoritmos

De cara al futuro, OpenSSL 4.0 avanza en su estrategia de prepararse frente a amenazas derivadas de la computación cuántica. La versión introduce nuevas capacidades de criptografía híbrida y digestión, orientadas a fortalecer los intercambios de clave ante posibles ataques en un escenario post‑cuántico.

Entre las novedades se incorpora el grupo de intercambio de claves híbrido curveSM2MLKEM768, que combina elementos clásicos con esquemas post‑cuánticos, así como el algoritmo de huella ML-DSA-MU y la función cSHAKE según NIST SP 800‑185. Estos elementos amplían las posibilidades para diseñar protocolos más resistentes a futuros avances criptanalíticos.

Además, el proyecto suma soporte para el intercambio de claves FFDHE negociado en TLS 1.2, siguiendo lo establecido en el RFC 7919. Esto permite a las implementaciones que aún operan con TLS 1.2 beneficiarse de mejores parámetros de Diffie‑Hellman de grupo finito, elevando el nivel de seguridad en escenarios donde la actualización inmediata a TLS 1.3 no es viable.

Cambios de API y comportamiento que afectan a integradores

Para quienes mantienen aplicaciones que enlazan con OpenSSL, la versión 4.0 introduce modificaciones directas en la API que pueden romper compilaciones existentes. Una de las transformaciones clave es que el tipo ASN1_STRING pasa a ser opaco, lo que limita el acceso directo a su estructura interna y obliga a utilizar funciones de alto nivel.

Muchas funciones, especialmente vinculadas al procesamiento de certificados X.509, incorporan ahora calificadores const en sus firmas, ajustando la semántica de inmutabilidad y forzando ajustes en código que hacía supuestos menos estrictos. Esto puede generar advertencias o errores de compilación en proyectos que no actualicen las definiciones correspondientes.

En el ámbito del control de tiempos, se han declarado obsoletas funciones como X509_cmp_time(), X509_cmp_current_time() y X509_cmp_timeframe(). El uso recomendado pasa a ser X509_check_certificate_times(), lo que implica adaptar rutinas de validación de certificados que hasta ahora se apoyaban en las funciones antiguas.

Otro punto relevante es que libcrypto deja de realizar limpieza global de datos asignados a través de atexit(). En su lugar, OPENSSL_cleanup() se ejecuta como un destructor global o no se lanza por defecto, dependiendo de la configuración. Esto puede afectar a aplicaciones que confiaban en la limpieza automática al finalizar el proceso, obligando a gestionar de forma más explícita el ciclo de vida de los recursos.

Asimismo, se elimina BIO_f_reliable(), una funcionalidad que llevaba rota desde la rama 3.0 y que ahora desaparece sin sustituto directo. Los proyectos que aún lo utilizasen tendrán que rediseñar la lógica asociada o adoptar otras primitivas de la biblioteca para cubrir necesidades similares.

Mayor rigor en verificación de certificados y derivación de claves

OpenSSL 4.0 refuerza la verificación estricta de certificados X.509 cuando se activa X509_V_FLAG_X509_STRICT. Con esta bandera habilitada, se ejecutan comprobaciones adicionales de la extensión AKID (Authority Key Identifier), endureciendo los criterios de validación y alineando la biblioteca con prácticas de seguridad más exigentes.

En el proceso de comprobación de listas de revocación (CRL), la nueva versión añade controles adicionales para asegurar que la validación de certificados revocados sea más exhaustiva. Estos cambios impactan en entornos donde la gestión de PKI es especialmente sensible, como administraciones públicas, banca o grandes corporaciones que dependen de cadenas de confianza robustas.

También se introducen límites inferiores obligatorios en el uso de PKCS5_PBKDF2_HMAC cuando se recurre al proveedor FIPS. Este ajuste busca evitar configuraciones demasiado débiles en la derivación de claves a partir de contraseñas, lo que en la práctica obliga a usar parámetros mínimamente fuertes en entornos donde se exige conformidad con FIPS, muy habituales en sectores críticos.

Ajustes en compilación, plataformas soportadas y herramientas

En la parte de compilación y soporte de plataformas, OpenSSL 4.0 da pasos hacia una configuración más moderna y simplificada. El proyecto deshabilita por defecto el soporte para curvas elípticas obsoletas en TLS, tal y como se precisa en el RFC 8422, así como el uso de curvas elípticas explícitas. No obstante, se mantienen opciones de configuración para quienes necesiten reactivarlas por motivos de compatibilidad puntual.

Respecto a los objetivos de construcción, se eliminan las variantes darwin‑i386 y darwin‑ppc, lo que deja fuera oficialmente a sistemas muy antiguos de Apple basados en arquitecturas i386 y PowerPC/PPC64. En la práctica, esto no debería afectar a la mayoría de despliegues actuales, donde esas plataformas llevan tiempo en desuso, pero formaliza su salida del soporte principal.

En cuanto a herramientas, se retira el script histórico , que pasa a ser la forma recomendada de generar índices de hashes para certificados en directorios. Además, para instalaciones FIPS se introduce la opción -defer_tests en la utilidad openssl fipsinstall, permitiendo aplazar ciertos auto‑tests, lo que puede facilitar despliegues en entornos con restricciones de tiempo de arranque.

En sistemas Windows, la actualización añade capacidad para elegir entre enlace estático o dinámico del runtime de Visual C++. Esta flexibilidad resulta útil para desarrolladores y equipos DevOps que empaquetan aplicaciones para diferentes escenarios de distribución, ya que pueden ajustar el tipo de runtime en función de requisitos de compatibilidad o tamaño de los binarios.

Impacto para organizaciones y desarrolladores

En el contexto donde gran parte de la infraestructura de Internet y servicios críticos se apoya en OpenSSL, la versión 4.0 supone un cambio estratégico que requiere planificación. Organizaciones públicas, proveedores cloud, entidades financieras y empresas tecnológicas deberán evaluar cuidadosamente los efectos de los cambios de API y la retirada de protocolos, especialmente en sistemas heredados o aplicaciones poco mantenidas.

La incorporación de ECH y el refuerzo de la criptografía post‑cuántica pueden verse como oportunidades para elevar el nivel de protección por defecto, pero al mismo tiempo exigen pruebas exhaustivas en entornos de preproducción. En muchos casos será necesario coordinar a equipos de desarrollo, seguridad y operaciones para garantizar que la transición no rompe servicios ni introduce regresiones.

Para proyectos open source que dependen fuertemente de OpenSSL, la adaptación implicará ajustar firmas de funciones, revisar el uso de tipos ahora opacos y sustituir componentes retirados como engines o funciones de tiempo X.509. La ventaja es que, una vez actualizados, estos proyectos se beneficiarán de una base criptográfica más alineada con los estándares actuales y con menor deuda técnica.

En conjunto, OpenSSL 4.0 se posiciona como una versión de limpieza, modernización y preparación a medio y largo plazo, que obliga a invertir esfuerzo en migración pero ofrece a cambio mejoras claras en privacidad, seguridad y coherencia interna de la biblioteca, aspectos clave para seguir sosteniendo la infraestructura digital sobre cimientos criptográficos sólidos.

from Linux Adictos https://ift.tt/cUqOxJB
via IFTTT

GPT-5.4-Cyber: una nueva frontera de la IA aplicada a la ciberseguridad

La aparición de GPT-5.4-Cyber marca un nuevo capítulo en el uso de la inteligencia artificial para la ciberseguridad. OpenAI ha comenzado a probar esta variante de su modelo insignia GPT-5.4 en un entorno muy controlado, con el objetivo de reforzar la defensa de sistemas críticos frente a vulnerabilidades de software cada vez más sofisticadas.

El modelo llega en un momento en el que crece la preocupación por el doble uso de la IA, capaz tanto de reforzar la seguridad como de facilitar ciberataques. En este contexto, OpenAI apuesta por un despliegue escalonado y por requisitos estrictos de acceso, buscando un equilibrio entre aprovechar el potencial de la tecnología y reducir al mínimo los riesgos asociados.

Qué es GPT-5.4-Cyber y en qué se diferencia del GPT-5.4 estándar

GPT-5.4-Cyber es una versión ajustada específicamente para ciberseguridad del modelo GPT-5.4. No se trata de un sistema pensado para el público general, ni para el uso cotidiano en chatbots, sino de una herramienta dirigida a equipos especializados en defensa digital, auditoría de código y análisis de vulnerabilidades.

OpenAI describe esta variante como un modelo “ciberpermisivo”, es decir, con un umbral de rechazo más bajo para solicitudes relacionadas con trabajos legítimos de ciberseguridad. Mientras que el GPT-5.4 convencional tiende a bloquear o limitar respuestas en tareas sensibles, GPT-5.4-Cyber acepta con mayor facilidad consultas avanzadas si se enmarcan en flujos de trabajo defensivos y de investigación.

La compañía explica que GPT-5.4-Cyber reduce las restricciones habituales en operaciones relacionadas con la identificación de fallos y el análisis técnico, pero manteniendo controles de acceso estrictos. El objetivo declarado es permitir pruebas más profundas, sin abrir la puerta indiscriminadamente a usos potencialmente dañinos.

Capacidades técnicas: análisis profundo de software y vulnerabilidades

Una de las características más destacadas de GPT-5.4-Cyber es su enfoque en tareas técnicas avanzadas de ciberseguridad. OpenAI señala que el modelo está optimizado para mejorar los flujos de trabajo defensivos y ofrece funciones que van más allá de la simple explicación de código.

Entre las capacidades clave se incluyen herramientas de ingeniería inversa binaria, que permiten a profesionales de seguridad analizar software ya compilado, sin necesidad de acceder al código fuente. Esto resulta especialmente relevante para revisar programas propietarios, componentes de terceros o binarios heredados en infraestructuras críticas.

El modelo puede asistir en la detección de posibles malware, vulnerabilidades y debilidades en la robustez del código, así como en la priorización de riesgos. Con ello, se pretende que los equipos de seguridad puedan localizar fallos con mayor rapidez y evaluar su impacto potencial antes de que sean explotados.

Además del análisis binario, GPT-5.4-Cyber está diseñado para auditar configuraciones, revisar patrones en el comportamiento del software y apoyar tareas de evaluación de riesgos en entornos complejos. El modelo actúa como una especie de asistente técnico de alto nivel, capaz de combinar conocimiento general de seguridad con detalle técnico específico de cada entorno.

Despliegue limitado: quién puede acceder a GPT-5.4-Cyber

En esta fase inicial, OpenAI ha optado por un despliegue muy restringido de GPT-5.4-Cyber. El modelo se está poniendo a disposición de un grupo selecto de proveedores de seguridad, organizaciones e investigadores verificados, que deben superar un proceso de autenticación riguroso.

El acceso se articula a través del programa Trusted Access for Cyber (TAC), lanzado a comienzos de año. Este programa establece varios niveles de verificación, de forma que las capacidades más sensibles del modelo solo se desbloquean para aquellos usuarios que acreditan ser defensores de la ciberseguridad y aceptan trabajar estrechamente con OpenAI bajo condiciones específicas.

Según la compañía, el nivel más alto de verificación dentro de TAC es el que permite utilizar GPT-5.4-Cyber. Inicialmente, este sistema está siendo probado por cientos de usuarios, con la previsión de ampliar gradualmente el alcance a miles de especialistas y equipos responsables de proteger software crítico y servicios esenciales.

El planteamiento es claramente iterativo: OpenAI recopila comentarios de estos evaluadores para entender mejor los beneficios concretos del modelo, reforzar su resistencia frente a intentos de “jailbreak” u otros ataques adversarios y ajustar los límites de uso para evitar filtraciones o abusos.

Trusted Access for Cyber: un filtro de seguridad adicional

El programa Trusted Access for Cyber se ha convertido en el principal mecanismo de control para acceder a GPT-5.4-Cyber y a futuras herramientas similares. OpenAI plantea TAC como una vía para que organizaciones y expertos acreditados puedan probar modelos avanzados en condiciones supervisadas.

Dentro de TAC, los usuarios deben autenticarse como defensores de la ciberseguridad, demostrar experiencia en el ámbito y aceptar unas políticas de uso que restringen el empleo del modelo estrictamente a tareas defensivas y de investigación legítima. Solo tras cumplir esas condiciones se les permite acceder a variantes más potentes y menos limitadas.

La empresa detalla que GPT-5.4-Cyber forma parte de una ampliación del alcance de TAC, con nuevos niveles de acceso y una estructura más granular de permisos. En la práctica, esto se traduce en que no todos los integrantes del programa ven las mismas capacidades del modelo: únicamente los que alcanzan el máximo nivel pueden utilizar las funciones más sensibles, como el análisis binario avanzado.

Este modelo de gobernanza busca responder a un reto evidente: la misma tecnología que ayuda a defender sistemas podría, en manos equivocadas, servir para encontrar puntos débiles y preparar ataques. De ahí que la compañía insista en mantener el acceso cerrado a perfiles concretos, al menos durante las primeras fases.

Competencia con Anthropic y el papel de Mythos

El anuncio de GPT-5.4-Cyber llega apenas días después de que Anthropic diera a conocer Mythos, su propio modelo de ciberseguridad. Mythos se está desplegando bajo el paraguas del llamado Project Glasswing, una iniciativa en la que solo unas pocas organizaciones de confianza pueden experimentar con Claude Mythos Preview, aún no disponible de forma general.

Según la información publicada, Mythos habría detectado miles de vulnerabilidades críticas en sistemas operativos, navegadores y otras aplicaciones de software. Esto refuerza la idea de que tanto Anthropic como OpenAI están compitiendo de forma directa por liderar el uso de IA avanzada aplicada a la seguridad digital.

Project Glasswing está concebido como un entorno altamente controlado, similar al TAC de OpenAI, en el que socios seleccionados —incluyendo grandes tecnológicas y entidades que gestionan infraestructuras clave— ponen a prueba el modelo en escenarios reales. La atención que este proyecto ha generado en sectores como el financiero o el gubernamental, especialmente en Estados Unidos, pone de manifiesto el peso estratégico de estas herramientas.

Dentro de este contexto, GPT-5.4-Cyber puede interpretarse como la respuesta de OpenAI a la presión competitiva. La empresa reconoce que está ajustando GPT-5.4-Cyber para “allanar el camino” a modelos todavía más capaces que se presentarán en los próximos meses, lo que sugiere una hoja de ruta en la que la ciberseguridad tendrá un papel destacado.

Riesgos de doble uso y preocupación regulatoria

El desarrollo de modelos como GPT-5.4-Cyber o Mythos ha puesto sobre la mesa un debate delicado: las mismas capacidades que sirven para proteger sistemas permiten también identificar vulnerabilidades con un nivel de detalle que podría resultar muy útil para ciberatacantes.

Expertos y autoridades advierten de que la frontera entre uso defensivo y ofensivo se está difuminando. Herramientas capaces de localizar fallos críticos en cuestión de minutos, proponer vectores de explotación o automatizar análisis de gran escala pueden convertirse en armas muy eficaces en manos malintencionadas.

De hecho, empiezan a surgir indicios de que tecnologías de IA ya se están empleando para facilitar ataques informáticos, optimizar campañas maliciosas o escanear masivamente sistemas en busca de puntos débiles. Esto ha llevado a gobiernos y reguladores, especialmente en economías avanzadas, a reclamar marcos más estrictos de control y supervisión.

En Europa, aunque GPT-5.4-Cyber se está implantando inicialmente en un contexto global, el debate se cruza con la nueva regulación de IA impulsada por la Unión Europea. El enfoque comunitario, más restrictivo en materia de riesgos y transparencia, apunta a que herramientas de este tipo deberán someterse a evaluaciones específicas, sobre todo si se utilizan en sectores como el financiero, las telecomunicaciones o la gestión de infraestructuras críticas.

Impacto potencial en empresas y administraciones

Para empresas y administraciones públicas, la llegada de GPT-5.4-Cyber abre un escenario en el que la automatización avanzada del análisis de seguridad puede convertirse en un pilar de las estrategias de ciberdefensa.

Organizaciones con grandes bases de código heredado, sistemas complejos o dependencia de soluciones de terceros podrían beneficiarse especialmente de las capacidades de análisis binario, al permitirles revisar componentes para los que no disponen de código fuente o documentación completa. Esto es habitual en bancos, operadores energéticos, empresas de telecomunicaciones o administraciones con sistemas antiguos integrados en infraestructuras modernas.

Sin embargo, el acceso restringido y el énfasis en usuarios verificados significa que, al menos en el corto plazo, GPT-5.4-Cyber será una herramienta al alcance de equipos de seguridad especializados, más que de pequeñas empresas o perfiles generalistas. Es previsible que los primeros en probarlo en Europa sean grandes proveedores de ciberseguridad, operadores críticos y centros de respuesta a incidentes (CSIRT) con convenios o acuerdos específicos.

Además, las organizaciones europeas deberán encajar el uso de GPT-5.4-Cyber en su marco normativo, cumpliendo con las exigencias de protección de datos, gestión de riesgo de terceros y obligaciones de reporte de incidentes, que en la UE son cada vez más estrictas. La adopción de estas tecnologías no será solo una cuestión técnica, sino también de gobernanza y cumplimiento.

GPT-5.4-Cyber está diseñado para aprender de la práctica

OpenAI presenta GPT-5.4-Cyber como una pieza dentro de una estrategia más amplia orientada a modelos de IA más potentes y especializados. La compañía insiste en que la fase actual es de prueba controlada, en la que el feedback de proveedores y defensores de seguridad resulta clave para pulir el sistema.

La experiencia con GPT-5.4-Cyber servirá para mejorar las defensas integradas en futuros modelos, endurecer sus barreras frente a abusos y afinar los criterios que determinan qué uso se considera legítimo. Aunque el modelo tenga menos restricciones que la versión estándar de GPT-5.4, esta permisividad se compensa con exigencias de autenticación y monitorización más estrictas.

En paralelo, la propia dinámica competitiva con Anthropic y otros actores del sector está acelerando la evolución de la ciberseguridad basada en IA. La carrera no se limita a quién tiene el modelo más potente, sino a quién es capaz de ofrecer mejores garantías de seguridad, gobernanza y control de riesgos en un entorno cada vez más vigilado por reguladores y mercados.

Con GPT-5.4-Cyber, OpenAI posiciona su tecnología en el centro del debate sobre cómo deben gestionarse las herramientas de inteligencia artificial capaces de detectar y analizar vulnerabilidades críticas. La combinación de acceso limitado, capacidades avanzadas y supervisión estrecha refleja un intento de aprovechar el potencial de estos modelos sin perder de vista los riesgos de su uso indebido, un equilibrio que será determinante para su adopción en España, Europa y el resto del mundo.

from Linux Adictos https://ift.tt/1xN7siw
via IFTTT

Francia y la transición hacia un ecosistema digital soberano: migrar a Linux para redefinir la soberanía tecnológica europea

Francia dice adiós a Windows y se pasa a Linux

Francia ha decidido dar un giro radical en su estrategia tecnológica y poner fin a su dependencia de Microsoft Windows en la administración pública. Lejos de ser un simple cambio de sistema operativo, el plan de Francia marca un punto de inflexión en la forma en que Europa entiende su soberanía digital y el control sobre sus datos.

Esta apuesta francesa se enmarca en un contexto europeo en el que cada vez resulta más incómodo depender de gigantes tecnológicos estadounidenses para gestionar infraestructuras críticas del Estado. La migración masiva a Linux y a soluciones de código abierto se presenta como una respuesta directa a ese malestar y como una forma de recuperar autonomía en el Viejo Continente.

Un plan histórico: 2,5 millones de ordenadores dicen adiós a Windows

La Dirección Interministerial del Numérico (DINUM) anunció el 8 de abril de 2026 que 2,5 millones de equipos de la administración francesa abandonarán Windows para adoptar Linux. Se trata del mayor proyecto de migración a software libre emprendido por un gobierno europeo, tanto por número de ordenadores como por el alcance de los cambios que lo acompañan.

Este movimiento no se limita a instalar otra interfaz en los ordenadores de los funcionarios: cada ministerio deberá rediseñar su ecosistema digital completo. La orden es clara: identificar y reducir o eliminar, siempre que sea posible, las dependencias de soluciones extraeuropeas, especialmente las de Microsoft, Google y Amazon.

Según la hoja de ruta oficial, cada departamento ministerial tendrá hasta el otoño de 2026 para presentar un plan detallado. A partir de ahí, la migración se ejecutará de forma progresiva a lo largo de varios años, empezando por las áreas en las que la transición sea más viable desde el punto de vista técnico y organizativo.

Qué persigue Francia con su adiós a Windows

En el fondo de esta decisión hay un diagnóstico compartido por buena parte de las instituciones europeas: la infraestructura digital del Estado ha acabado en manos de unas pocas multinacionales estadounidenses. Sistemas operativos, suites ofimáticas, plataformas en la nube, mensajería y videoconferencia… casi todo pasa hoy por alguno de los grandes actores de Silicon Valley.

Uno de los elementos que más inquietud genera en París es la US Cloud Act, la ley que permite a las autoridades de Estados Unidos exigir acceso a datos almacenados por empresas del país, incluso si los servidores están físicamente en Europa. Para el gobierno francés, que los expedientes de la administración o la información sanitaria de millones de ciudadanos puedan quedar al alcance de otra jurisdicción es un riesgo que ya no quiere asumir.

David Amiel, ministro de Acción Pública y Cuentas, lo ha expresado sin rodeos al subrayar que el Estado no puede seguir entregando el control de sus reglas, precios y evolución tecnológica a proveedores sobre los que no tiene influencia directa. La ministra delegada de Inteligencia Artificial y Tecnología Digital, Anne Le Hénanff, ha remarcado la misma idea: la soberanía digital no es un capricho ideológico, sino una necesidad estratégica.

Más que Linux: una reconversión completa del ecosistema digital

El plan francés va mucho más allá de cambiar el sistema operativo de los ordenadores. DINUM ha definido ocho grandes categorías de tecnología en las que los ministerios deberán trazar su propia hoja de ruta de sustitución o reducción de dependencia:

  • Estaciones de trabajo y sistemas operativos: reemplazo progresivo de Windows por distribuciones Linux en los equipos de escritorio.
  • Herramientas de colaboración y comunicación: sustitución de Microsoft 365, Teams, Zoom o Google Workspace por soluciones europeas o de código abierto.
  • Software antivirus y de seguridad: adopción de proveedores alineados con los estándares de soberanía europeos.
  • Inteligencia artificial y algoritmos: impulso a modelos y plataformas de IA desarrolladas en Europa y alojadas bajo jurisdicción comunitaria.
  • Bases de datos y almacenamiento: migración hacia tecnologías y servicios que cumplan los requisitos de la certificación europea.
  • Virtualización e infraestructura en la nube: prioridad para nubes soberanas certificadas bajo los esquemas EUCS.
  • Equipos de red y telecomunicaciones: refuerzo de la autonomía estratégica también en la capa de hardware y conectividad.

En la práctica, el objetivo es ir sustituyendo piezas clave del ecosistema Microsoft y de otros grandes actores por soluciones propias o europeas. No se trata solo de instalar Linux en los PCs, sino de que la mensajería, el correo, el almacenamiento de archivos, la edición colaborativa y las videollamadas dejen de depender de servicios externos a la UE.

Herramientas soberanas: Tchap, Visio, FranceTransfert y La Suite Numérique

Francia lleva años preparando el terreno con la creación de su propio ecosistema de herramientas digitales. Bajo el paraguas de La Suite Numérique, DINUM ha desarrollado o adoptado soluciones de código abierto que ya operan en producción en distintos organismos públicos.

Entre las piezas más importantes de este puzzle destacan varias aplicaciones que aspiran a reemplazar directamente a servicios muy extendidos de Microsoft y Google:

  • Tchap: aplicación de mensajería cifrada de extremo a extremo diseñada para el uso interno de la administración. Es la alternativa a Teams o Slack, y ya supera los cientos de miles de usuarios entre funcionarios franceses.
  • Visio: herramienta de videoconferencia basada en tecnologías de código abierto (como Jitsi), con cifrado reforzado y licencia MIT. Se está imponiendo como reemplazo de Zoom y Microsoft Teams, con unos 40.000 usuarios habituales y planes para generalizar su uso en todos los ministerios.
  • FranceTransfert: plataforma soberana para el envío seguro de archivos de gran tamaño, llamada a sustituir servicios como WeTransfer o el uso de Google Drive para compartir documentos sensibles.
  • Correo, almacenamiento y edición colaborativa: la administración está desplegando servicios de webmail, almacenamiento y ofimática colaborativa bajo su control, alojados en servidores europeos y pensados para funcionar de forma integrada con Tchap y Visio.

Estas herramientas se alojan en infraestructuras como las de Outscale, filial de Dassault Systèmes, que cuenta con certificaciones de seguridad como SecNumCloud otorgadas por la autoridad francesa ANSSI. De este modo, el Estado no solo controla el software, sino también la capa de alojamiento y custodia de los datos.

Cómo se coordina la transición en Francia: seminarios, coaliciones y plazos

Para que una operación de esta magnitud no se quede en papel mojado, el gobierno francés ha articulado una estructura de coordinación bastante amplia. La DINUM actúa como motor del cambio, pero no está sola en el proceso.

El seminario interministerial del 8 de abril reunió a representantes de la DINUM, la Dirección General de Empresas (DGE), la Agencia Nacional de Seguridad de los Sistemas de Información (ANSSI) y la Dirección de Adquisiciones del Estado, además de operadores públicos y empresas privadas. El objetivo declarado fue reforzar el impulso colectivo para reducir la dependencia digital de soluciones no europeas y acordar un método de trabajo común.

Sobre esa base se han previsto varias iniciativas concretas:

  • Planes ministeriales antes del otoño de 2026: cada ministerio y sus organismos vinculados deberán presentar su propia hoja de ruta de migración, identificando dependencias, prioridades y calendario.
  • Reuniones Digitales Industriales: a partir de mediados de 2026 se organizarán encuentros entre administraciones y sector privado para crear coaliciones público‑privadas que desarrollen soluciones encajadas en la estrategia de soberanía digital.
  • Estándares de interoperabilidad: el Estado está impulsando marcos como Open‑Interop y OpenBuro para evitar que las nuevas herramientas rompan flujos de trabajo y para facilitar que diferentes soluciones se integren entre sí.

La idea de fondo es que la transición no sea un salto al vacío, sino un proceso acompasado en el que los distintos actores compartan experiencias, problemas y soluciones. DINUM, además, ha asumido el papel de “primero en la fila”: será uno de los primeros organismos en migrar completamente sus estaciones de trabajo a Linux, para demostrar que el cambio es viable antes de exigirlo al resto de departamentos.

Un contexto europeo que empuja hacia la soberanía digital

La ofensiva de Francia no se entiende sin el movimiento más amplio que está viviendo la Unión Europea. Bruselas lleva años advirtiendo sobre los riesgos de depender en exceso de proveedores tecnológicos externos, y el Parlamento Europeo aprobó en 2026 una resolución que insta a los Estados miembros a reducir esa vulnerabilidad.

En paralelo, algunos países ya venían experimentando con proyectos similares a menor escala. Alemania, por ejemplo, ha impulsado la migración a software libre en el estado de Schleswig‑Holstein, donde la administración regional está sustituyendo progresivamente el ecosistema Microsoft por alternativas abiertas. Aunque no se trata de una iniciativa nacional, ha servido como laboratorio de pruebas para el resto del país.

El caso francés destaca porque es el primer gran Estado de la UE que traslada esta preocupación al conjunto de su administración central, con plazos y objetivos concretos. Y el contexto geopolítico actual —tensiones comerciales, conflictos diplomáticos y un clima de mayor desconfianza entre bloques— ha terminado de convencer a París de que mantener el statu quo no era una opción sostenible.

Esta tendencia se entrelaza con otros proyectos europeos como Gaia‑X, que busca articular una nube europea más independiente, y con el impulso político a modelos de inteligencia artificial y plataformas de datos que permanezcan bajo jurisdicción comunitaria. Francia, en este escenario, intenta situarse a la cabeza de la carrera por una Europa menos atada a Silicon Valley.

Lecciones del pasado: de Múnich y Extremadura a la Gendarmería francesa

La decisión de Francia llega, además, con el recuerdo de experiencias anteriores que no salieron tan bien como se esperaba. El caso de Múnich es el ejemplo más citado: la ciudad alemana inició en 2004 el proyecto LiMux para migrar unos 14.000 ordenadores municipales a Linux, pero terminó volviendo a Windows en 2017.

Aquel intento fracasó por una mezcla de factores: problemas de compatibilidad con aplicaciones específicas que solo existían para Windows, resistencia de parte del funcionariado a cambiar sus hábitos, costes de formación y soporte mayores a los previstos y, sobre todo, la falta de una continuidad política cuando el gobierno municipal cambió de signo.

En España también se han vivido procesos similares. La Junta de Extremadura impulsó a principios de los 2000 LinEx, una distribución basada en GNU/Linux para su administración y centros educativos. Pese al reconocimiento internacional del proyecto, con el paso del tiempo y los cambios de gobierno la iniciativa perdió fuelle y muchos equipos regresaron sin ruido a soluciones propietarias.

Frente a estos tropiezos, Francia mira a sus propios éxitos. La Gendarmería Nacional inició hace más de una década su migración a Linux y hoy opera con decenas de miles de ordenadores bajo software libre, con importantes ahorros en licencias y un mayor control sobre su entorno digital. Esa experiencia interna da al gobierno datos reales sobre los beneficios y dificultades de una transición de este tipo, algo que Múnich o Extremadura no tenían en la misma escala.

Retos técnicos y culturales en una migración gigantesca en Francia

La magnitud del proyecto francés hace inevitable que aparezcan obstáculos. Desde el propio gobierno se reconoce que migrar millones de estaciones de trabajo es uno de los desafíos de TI más complejos que puede abordar un país. No es solo una cuestión de cambiar iconos en el escritorio.

En el plano técnico, el primer paso es mapear todas las dependencias de software de la administración: aplicaciones heredadas, sistemas de gestión interna, integraciones con servicios de identidad digital, soluciones especializadas en sanidad, defensa o finanzas, etc. No todas esas herramientas tienen un equivalente directo en Linux, lo que obligará a recurrir a la virtualización, a entornos híbridos o al desarrollo de soluciones a medida.

En el plano humano, el reto es igual de importante. Los funcionarios llevan décadas trabajando con el ecosistema Microsoft y cambiar la forma de hacer las cosas no sucede de un día para otro. Habrá que invertir en formación, acompañamiento y soporte cercano para evitar que la resistencia al cambio se traduzca en bloqueos o en una caída de la productividad.

Además, los plazos son ambiciosos pero flexibles. El gobierno no ha fijado una fecha única de “apagón” de Windows, sino una serie de hitos: planes ministeriales a finales de 2026, primeras cuotas de adopción medibles a partir de ese momento y una migración que se extenderá varios años. La experiencia sugiere que el ritmo variará mucho según el tipo de organismo y la criticidad de los sistemas implicados.

Oportunidad para el ecosistema tecnológico europeo

Más allá de la administración francesa, esta transición abre un mercado enorme para las empresas tecnológicas europeas, desde grandes proveedores hasta startups emergentes. Lo que antes era un espacio prácticamente monopolizado por Microsoft y otros gigantes ahora se fragmenta y genera demanda de nuevas soluciones.

Solo la migración de estaciones de trabajo supone 2,5 millones de endpoints que necesitarán distribuciones Linux robustas, herramientas de gestión de flotas, servicios de soporte y soluciones de seguridad adaptadas. A eso hay que añadir la reconversión de la nube pública de la administración hacia proveedores que cumplan con los estándares EUCS, un campo en el que ya se posicionan actores como Outscale, OVHcloud o Scaleway.

También se abre un nicho significativo en el terreno de las herramientas colaborativas para organizaciones que exigen que los datos se queden en Europa. Suites ofimáticas, plataformas de comunicación interna, servicios de videoconferencia y sistemas de gestión documental que encajen en esta filosofía pueden encontrar en Francia y el resto de la UE un mercado institucional en expansión.

Si el plan francés prospera, es razonable esperar un efecto dominó en otros gobiernos europeos que, quizá con menos ruido mediático, están estudiando movimientos similares. Para muchas startups y proveedores de software empresarial, la pregunta no es si habrá demanda de soluciones soberanas, sino quién estará listo para satisfacerla cuando se materialicen licitaciones y contratos.

El giro de Francia hacia Linux y el software soberano no es una anécdota técnica, sino un intento serio de reequilibrar el poder tecnológico entre Europa y las grandes multinacionales estadounidenses; si logra sortear los problemas de compatibilidad, la resistencia interna y los plazos ajustados, el país puede convertirse en referencia para otros Estados miembros y, de paso, en un catalizador de un ecosistema digital europeo más independiente, competitivo y alineado con sus propios intereses estratégicos.

from Linux Adictos https://ift.tt/U79cS5p
via IFTTT

GNU Linux-libre 7.0: un nuevo umbral de libertad y transparencia en el kernel

GNU Linux-libre 7.0

La llegada GNU Linux-libre 7.0 marca un nuevo paso en la evolución de los núcleos completamente libres, pensados para quienes quieren evitar cualquier tipo de firmware o módulo propietario en su sistema. Esta edición se publica justo después del lanzamiento del kernel Linux 7.0, replicando sus novedades técnicas, pero sometidas a un exhaustivo proceso de limpieza del código.

En esta versión se mantiene el objetivo que ha definido históricamente al proyecto: eliminar cualquier rastro de binarios y referencias a firmware no libre, aun a costa de reducir el soporte para cierto hardware. Para usuarios y organizaciones preocupados por la transparencia, la auditabilidad y la libertad del software, este enfoque sigue siendo especialmente relevante.

Publicación en paralelo a Linux 7.0

GNU Linux-libre 7.0 se publica inmediatamente después de que el kernel Linux 7.0 haya sido anunciado oficialmente en el proyecto principal. A partir de ese código base, el equipo de mantenimiento aplica su ya tradicional proceso de “deblob”, consistente en revisar el árbol completo del kernel para retirar el soporte de carga de módulos y firmware privativo, así como cualquier referencia a blobs binarios incrustados o descargables.

Este procedimiento no solo se limita a borrar ficheros binarios; implica también modificar partes del código fuente de los controladores que esperan cargar firmware externo no libre, bloquear rutas de ejecución que podrían terminar en la carga de microcódito propietario y ajustar documentación y descripciones de dispositivos. El resultado es un núcleo preparado para funcionar únicamente con componentes que dispongan de firmware libre o que no requieran firmware cargado en tiempo de ejecución.

GNU Linux-libre 7.0 y la limpieza intensiva de controladores y código del kernel

La versión 7.0 ha centrado buena parte de su trabajo en depurar controladores y secciones del núcleo relacionadas con gráficos, red y procesamiento especializado. Una de las piezas destacadas en esta ronda de cambios es el controlador IWLMLD, usado en determinados adaptadores inalámbricos, que ha sido revisado para eliminar dependencias de firmware no libre y referencias a blobs binarios que el kernel original podría intentar cargar.

Junto a ese controlador, se han actualizado las normas de “deblob” aplicadas a diversos componentes muy presentes en equipos de escritorio, portátiles y estaciones de trabajo, como las GPU de amdgpu y adreno, donde suelen ser frecuentes los microcódigos internos y paquetes de firmware. El proyecto ha reajustado las reglas para que el kernel resultante no intente cargar ni recomendar firmware propietario, lo que afecta de forma directa al soporte de determinadas funcionalidades avanzadas en tarjetas gráficas modernas.

El trabajo de limpieza se extiende también a otros controladores de red y periféricos, como TI PRUeth (relacionado con interfaces Ethernet programables de Texas Instruments), el hardware air_en8811h, el controlador inalámbrico ath12k, la unidad de procesamiento de vídeo TI VPE y diferentes componentes de red y audio como rtw8852b, rt1320, rt5575 SPI o el amplificador de audio tas2783. En todos estos casos, el objetivo ha sido ajustar las reglas de eliminación de blobs para que ningún firmware privativo quede referenciado en el árbol del kernel.

También se ha actuado sobre la parte de audio de ciertas plataformas Intel, con la revisión del controlador Intel catpt, que en el kernel estándar puede involucrar firmware específico para la gestión del procesador de audio. La edición libre del núcleo bloquea o elimina cualquier intento de carga de código no libre para este tipo de componentes, alineándose con la filosofía del proyecto.

Revisión de NPU, Bluetooth y documentación de dispositivos

Más allá de los controladores clásicos de red y vídeo, la versión GNU Linux-libre 7.0 introduce cambios en torno a las unidades de procesamiento neuronal (NPU) y a dispositivos Bluetooth. Con la aparición de más NPU en el mercado, muchos controladores incorporan referencias a firmware cerrado necesario para sacar partido a la aceleración de inteligencia artificial, algo que entra en conflicto directo con los objetivos del proyecto.

En este contexto, se han limpiado específicamente las referencias relacionadas con la NPU de Airoha, evitando que el kernel modificado intente utilizar microcódigo o firmware que no cumpla con los requisitos de libertad de la comunidad GNU Linux-libre. De forma similar, se ha revisado el soporte para Bluetooth de Qualcomm/Atheros, ya que buena parte de esos dispositivos dependen de pequeños blobs para funcionar plenamente; en la versión libre se han eliminado o bloqueado los caminos de código que requerían esos ficheros privativos.

El mantenimiento también ha alcanzado al ecosistema de documentación y descripciones de hardware, con cambios en los ficheros de árbol de dispositivos (device tree) vinculados a tecnologías como TI hms-m4fss y otros componentes. Se han ajustado y limpiado varios documentos y ficheros DTS para que no contengan indicaciones de uso de firmware no libre. En el caso del componente rt5514, se ha reorganizado el orden en el que se realizan las tareas de limpieza, aunque la cantidad y tipo de contenido eliminado permanece igual, lo que garantiza coherencia con versiones anteriores.

Gráficos y red, los grandes focos de intervención en GNU Linux-libre 7.0

Según destacan los mantenedores, esta versión confirma una tendencia ya conocida: los controladores de vídeo y de red siguen siendo los más afectados por las tareas de “deblob”. Se trata de categorías de hardware que, en el kernel principal, dependen con frecuencia de microcódigos, firmware auxiliares y actualizaciones binaras cargadas en tiempo de ejecución, muchas de ellas con licencias que no permiten su modificación o redistribución en condiciones compatibles con el software libre.

Para usuarios y administradores de sistemas, esto implica que en entornos basados en GNU Linux-libre 7.0 es más probable encontrar limitaciones en la compatibilidad o en las prestaciones de determinadas tarjetas de red inalámbricas, adaptadores Bluetooth y GPUs modernas, especialmente cuando el fabricante solo ofrece firmware privativo. A cambio, se gana la seguridad de trabajar con un núcleo que evita por completo la carga de componentes cuyo código no puede auditarse ni modificarse.

El avance de nuevas arquitecturas y dispositivos —sobre todo en campos como la aceleración de IA, el procesamiento multimedia y las comunicaciones de alta velocidad— hace que, con cada versión mayor del kernel upstream, aumenten las secciones de código que hacen referencia a firmware binario. Esto obliga al equipo de GNU Linux-libre a repetir, versión tras versión, un proceso minucioso de auditoría y saneamiento del código, revisando una y otra vez los controladores que se van incorporando.

Compromiso con un kernel totalmente libre

La prioridad del proyecto sigue siendo garantizar que el kernel resultante no dependa en absoluto de firmware privativo, ni siquiera como opción de uso. Por ello, las rutinas encargadas de cargar firmware externo, los mensajes que recomiendan instalar blobs binarios o el simple soporte para módulos propietarios se deshabilitan o eliminan de manera sistemática.

Esta postura, que puede parecer estricta para quienes buscan la máxima compatibilidad con hardware reciente, responde a una visión muy clara dentro de la comunidad de software libre: si una parte fundamental del sistema no es auditable, modificable o redistribuible en condiciones de libertad, se considera que el usuario pierde control sobre su propio equipo. De ahí que se mantenga la decisión de priorizar la libertad sobre el soporte a dispositivos que no ofrecen alternativas abiertas.

Donde la preocupación por la soberanía tecnológica, la seguridad y el respeto a la privacidad va en aumento, este enfoque resulta especialmente interesante para administraciones públicas, organizaciones del tercer sector y usuarios avanzados que quieran evitar depender de componentes cerrados en áreas tan sensibles como el cifrado, las comunicaciones o el procesamiento de datos críticos.

Para usuarios que valoran trabajar únicamente con software libre desde el núcleo hacia arriba, la publicación de GNU Linux-libre 7.0 supone la disponibilidad de un kernel actualizado a la última versión principal de Linux, pero filtrado para eliminar dependencias de firmware no libre, reforzando así tanto la coherencia con los principios del software libre como la confianza en el código que se ejecuta en sus equipos.

from Linux Adictos https://ift.tt/u6awi5s
via IFTTT

Little Snitch en Linux: guía completa para instalar, configurar y usar una interfaz gráfica de control de tráfico

La semana pasada llegó Little Snitch a Linux. No es igual que en macOS, para lo bueno y para lo malo. Su desarrollador confiesa que le asombra la velocidad del funcionamiento en Linux, pero por lo menos la v1.0.0 muestra su interfaz en el navegador. Muchos usuarios de Linux estarán encantados con herramientas tipo CLI como iftop o nethogs, pero tener algo con interfaz de usuario es totalmente diferente. Para muchos usuarios, y aunque me encanten algunas herramientas como yt-dlp en el terminal podría incluirme en este grupo, mucho mejor.

En este artículo vamos a explicar todo lo que necesitáis saber para instalar, configurar y usar Little Snitch. Adelanto que es mucho más intuitivo que cualquier herramienta con línea de comandos, y funciona mejor que OpenSnitch. Vamos allá.

Instalación de Little Snitch

.barra {display: flex;justify-content: flex-end;height: 25px; background-color: #333;border-radius: 5px 5px 0 0;}.rojo, .naranja, .verde{width: 12px;height: 12px; position: relative;border-radius: 50%;top: 7px; margin: 0 3px;}.rojo{background-color: rgb(248, 82, 82); margin-right: 7px;}.naranja{background-color: rgb(252, 186, 63);}.verde{background-color: rgb(17, 187, 17);}.terminal{background-color: black !important; border-radius: 5px !important; margin-bottom:20px}pre{font-family:monospace !important; padding: 0 10px 10px; line-height: 1.5em; overflow: auto; background-color: black !important; color: #0EE80E !important}

Antes de empezar, un aviso

Yo lo he probado en diferentes sistemas operativos, y en al menos dos me he encontrado con problemas. Uno fue Ubuntu 26.04, y el otro EndeavourOS. En ambos casos se instaló correctamente, pero no pude iniciar ni en Linux 6.19 ni en Linux 7.0, el kernel que usa Resolute Raccoon. Mi recomendación es que se use en Linux 6.12, que es en donde lo ha probado el desarrollador, o en 6.18, que es donde el autor de este artículo tuvo éxito.

La información oficial dice que funcionará en Linux 6.12 en adelante, pero yo no lo he conseguido ejecutar en 6.19 (ni nativo ni máquina virtual) ni 7.0 (máquina virtual).

Si se instala y no se puede entrar al sistema operativo, lo mejor es iniciar y entrar al terminal. Esto se consigue eligiendo la opción secundaria en el grub, la que pondrá «recuperación» o algo que nos dé a entender que son opciones extra. Una vez en el terminal, se puede usar el comando sudo apt remove littlesnitch (o pacman, dnf…) y podrá volver a iniciar.

Proceso de instalación

El proceso de instalación es muy sencillo:

  1. En este enlace están los paquetes oficiales. Los .deb son para distribuciones con base Debian, los .rpm con base Fedora o similares y los .pkg.tar.zst para Arch. Los hay para arquitecturas x86_64, ARM y RISC.
  2. Se instala con el comando adecuado: Hay que tener en cuenta que el comando se lanza en la ruta en donde está el paquete, o tras la orden install o -U se pone la ruta completa:
    • Debian/Ubuntu: sudo apt install littlesnitch_1.0.0_amd64.deb
    • Fedora, RHEL, etc: sudo dnf install littlesnitch_1.0.0_amd64.deb
    • Arch: sudo pacman -U littlesnitch_1.0.0_amd64.deb

En el caso de Arch, existe en paquete littlesnitch-bin en AUR. Y eso sería todo. El servicio se habrá añadido para que inicie con el sistema.

Uso del programa

Lo mejor es abrir un terminal y ejecutar littlesnitch, por lo menos la primera vez. El motivo es sencillo: cuando se escribe el comando, en el terminal vemos «Opened the Little Snitch Web UI in a browser window.», lo que significa que, al menos, ya se ha instalado e intentado ejecutarse. Se abrirá la interfaz web en una ventana del navegador web por defecto, con la URL http://localhost:3031. Las demás veces se puede lanzar desde cualquier herramienta compatible con comandos, como Kickoff o Krunner de Plasma.

Si no vemos la interfaz web, recomiendo mirar el monitor del sistema del sistema operativo. Yo he llegado a ver en Manjaro con Linux 6.19 (que no funciona) que el proceso «littlesnitch» ha estado ocupando cerca del 90% de la CPU, algo que no pasa en un kernel compatible.

Partes de la interfaz

En la parte superior, al lado del nombre del programa, veremos una «i» que sólo da información del software. El interruptor del centro nos permitirá activar o desactivar el filtro. A la derecha del todo está el botón del tema (sistema, oscuro o claro), y a su izquierda las pestañas.

Pestaña Rules de Little Snitch

En la pestaña «Conections» se verán las conexiones. La imagen de abajo muestra que Firefox está haciendo muchas llamadas, una de ellas a es.euronews.com, esto en el cuadro izquierdo. En el derecho se ven las reglas, y abajo hay un gráfico del tráfico (que en el momento de escribir este artículo no refresca bien).

Centrémonos en el cuadro izquierdo, donde están las conexiones. Como es una máquina virtual y no sé por qué sale ese es.euronews.com, haremos clic en la bola verde.

Click en bola verde

Automáticamente veremos tres cosas: aparecerá el icono de una flecha circular a la izquierda para deshacer cambios, la bola pasará a ser roja, y en el apartado derecho veremos que se ha creado la regla «Firefox -> domain euronews.com».

Creación de regla

Ahora se puede hacer la prueba de intentar ir a euronews.com: veréis que no es posible. Esto nos lleva a la tercera pestaña, a la de reglas.

regla con la nota

En este apartado podemos ver las reglas creadas. Al hacer clic en una de ellas veremos la información, y también podemos añadir una nota, lo que es muy útil. Como yo estoy probando, he añadido que el bloqueo de euronews.com es eso, una prueba y que no tengo claro por qué está llamando ahí.

No nos habíamos olvidado de la segunda pestaña, que es la de listas de bloqueo. Aquí podemos añadir listas de bloqueo remotos, como cuando añadimos una a un bloqueador de anuncios.

Blocklist de Little Snitch

El servicio de Little Snitch siempre se está ejecutando

Está claro por qué, pero no está de más recordarlo. Para que pueda funcionar y gestionar las conexiones siempre, el servicio se añade y se ejecuta con el inicio del sistema. Si no queremos que sea sí, y queremos gestionar las conexiones manualmente, se puede hacer lo siguiente:

  1. Se elimina el servicio del inicio:
sudo systemctl disable littlesnitch
  1. Ahora, para lanzarlo escribiremos:
sudo systemctl start littlesnitch
  1. Y para pararlo:
sudo systemctl stop littlesnitch

p>Si queremos que inicie con el sistema una vez más, en el primer comando ponemos «enable»

Little Snitch es fácil de usar

Little Snitch es verdaderamente fácil de usar. Si se sabe un poco de inglés, gestionar el tráfico es cuestión de mirar y hacer un par de clics. Su interfaz clara permitirá hacer todo esto sin volverse loco mirando a la terminal ni la necesidad de lanzar varios procesos.

from Linux Adictos https://ift.tt/yVgLoEz
via IFTTT

Trisquel 12 Ecne: libertad, seguridad y coherencia en una distribución GNU/Linux 100% libre

Trisquel 12

Trisquel 12, con nombre en clave Ecne, ya está disponible como la última edición de esta veterana distribución GNU/Linux centrada en el software 100% libre. Se trata de un sistema pensado para usuarios domésticos, pequeñas empresas y centros educativos que quieren evitar cualquier componente propietario, desde controladores hasta firmware, incluso si eso implica sacrificar compatibilidad con parte del hardware más reciente.

Este lanzamiento vuelve a contar con el respaldo expreso de la Free Software Foundation (FSF), ya que cumple con sus estrictos criterios: solo incluye programas libres, prescinde de microcódigo cargable no libre y se apoya en el kernel GNU Linux-libre. Con Ecne, el proyecto intenta equilibrar estabilidad a largo plazo, seguridad y coherencia ideológica, en un momento en que buena parte del ecosistema GNU/Linux opta por soluciones más pragmáticas y mixtas.

Trisquel 12: base Ubuntu 24.04 LTS y soporte prolongado

Trisquel 12 Ecne se construye sobre Ubuntu 24.04 LTS como base técnica, reutilizando gran parte de su infraestructura pero sustituyendo o modificando todos los paquetes que contienen componentes no libres. Este proceso de depuración afecta a más de 300 paquetes, según el propio proyecto, y explica en parte el desfase temporal respecto a la versión más reciente de Ubuntu disponible en el momento del lanzamiento.

Al apoyarse en una versión LTS, Ecne proporciona actualizaciones de seguridad y mantenimiento hasta mayo de 2029, lo que lo convierte en una opción atractiva para entornos donde se prioriza estabilidad sobre novedad. La contrapartida es que algunos componentes de bajo nivel, como el kernel, llegan con versiones que ya no son las más modernas dentro del panorama Linux.

Kernel GNU Linux-libre 6.8 y modularización del instalador

Una de las piezas más delicadas del sistema es el kernel GNU Linux-libre 6.8, un derivado del kernel Linux al que se le han eliminado todos los blobs binarios y cualquier soporte que dependa de firmware no libre. Esta decisión refuerza la coherencia con la filosofía del proyecto, pero estrecha todavía más la lista de dispositivos compatibles, especialmente en hardware reciente que suele depender de firmware propietario.

El equipo de Trisquel recalca que el kernel ha sido uno de los mayores retos de ingeniería de esta versión. Para Ecne, se ha trabajado en hacer los cambios del kernel más modulares, con el objetivo de reducir los fallos en los componentes udeb utilizados durante la instalación. Esta modularización mejora la robustez del instalador y coloca al proyecto en buena posición para seguir ajustando kernel-wedge y otros elementos internos sin comprometer la experiencia de instalación.

APT 3.0 y transición al formato deb822

En el plano de la gestión de paquetes, Ecne adopta APT 3.0 como motor principal, incorporando la transición al formato de repositorios deb822. Este cambio afecta de forma global a todos los flujos de instalación: el instalador de red en modo texto, el instalador gráfico Ubiquity y herramientas gráficas como Synaptic pasan a trabajar con este formato más moderno y estructurado.

La adopción generalizada del formato deb822 facilita la administración de repositorios y alinea Trisquel con las prácticas más recientes del ecosistema Debian y Ubuntu, simplificando a su vez el mantenimiento a largo plazo de las fuentes de software, tanto para usuarios como para administradores de sistemas que desplieguen Ecne en múltiples equipos.

Refuerzos de seguridad con AppArmor en el escritorio

El equipo ha revisado de manera extensa las reglas de AppArmor para los entornos gráficos, con la intención de ampliar la cobertura de seguridad en el escritorio sin romper la usabilidad cotidiana. Estos ajustes buscan minimizar el impacto de aplicaciones maliciosas o mal configuradas, reforzando la separación entre procesos y la protección de datos del usuario.

Este trabajo de afinado de AppArmor se nota especialmente en las ediciones orientadas a escritorio tradicional, donde se han ampliado perfiles y corregido reglas para ofrecer un equilibrio razonable entre protección y fluidez en el uso diario, algo relevante si se tiene en cuenta que Trisquel se dirige también a usuarios menos técnicos, como alumnado y personal docente.

Cinco ediciones para de Trisquel 12 distintos perfiles de usuario

Trisquel 12 Ecne llega en cinco ediciones distintas, pensadas para cubrir necesidades variadas sin abandonar el marco del software 100% libre. Cada edición se diferencia sobre todo por el entorno de escritorio y por el objetivo principal al que apunta.

La edición estándar, denominada simplemente Trisquel, utiliza el escritorio MATE en su versión 1.26.1 como opción por defecto. Está orientada a ordenadores de sobremesa y portátiles convencionales, ofreciendo un entorno clásico, con consumo de recursos moderado y sin necesidad de aceleración 3D obligatoria, algo que facilita su uso en equipos relativamente antiguos.

Para quienes prefieren un entorno más configurable, la variante Triskel incorpora KDE Plasma 5.27, proporcionando un escritorio muy personalizable y con más opciones avanzadas para gestionar paneles, atajos y efectos visuales. Esta edición puede resultar más interesante para usuarios experimentados que quieran exprimir al máximo la interfaz sin renunciar al criterio de software libre de la distribución.

Trisquel Mini apuesta por LXDE 0.99.2 y se dirige a equipos con recursos limitados, netbooks o máquinas muy antiguas. Que LXDE siga vivo dentro de Trisquel es relevante, ya que Ubuntu abandonó LXDE en sus sabores oficiales, dejando a esta distribución como uno de los pocos entornos donde todavía se mantiene de forma activa sobre una base Ubuntu modificada.

La quinta opción es una imagen Netinstall orientada a instalaciones de red y a usuarios avanzados. Con ella es posible realizar una instalación mínima, centrada en la línea de comandos, y construir el sistema pieza a pieza. Durante este proceso, se pueden seleccionar otros entornos de escritorio, incluyendo GNOME 46, para montar una configuración totalmente personalizada que cumpla con los criterios de software libre del proyecto.

Navegadores y aplicaciones en Trisquel 12: más alternativas libres

En el apartado de aplicaciones, Trisquel mantiene como opción principal Abrowser, un derivado de Firefox adaptado por el propio proyecto para eliminar dependencias con servicios de Google y otros elementos que consideran contrarios a su filosofía. Pero Ecne amplía el abanico de navegadores disponibles dentro del repositorio oficial.

La novedad está en la incorporación de GNU IceCat y ungoogled-chromium como alternativas adicionales. IceCat, basado en Firefox ESR, añade capas extra de privacidad y configuraciones predeterminadas muy restrictivas con el seguimiento. Ungoogled-chromium, por su parte, parte del código de Chromium pero elimina la conexión con la infraestructura de Google, ofreciendo una experiencia basada en el motor Blink sin servicios propietarios adjuntos.

En el terreno de la comunicación, la distribución incluye Icedove como cliente de correo, en una versión muy reciente (serie 140), mientras que el trabajo ofimático se apoya en LibreOffice 24, con las herramientas habituales de texto, hoja de cálculo y presentaciones. Todo ello, como es habitual en Trisquel, empaquetado respetando las directrices de software libre.

Repositorio de backports con software actualizado

Para quienes necesitan versiones más recientes de ciertas aplicaciones, Ecne mantiene un repositorio de backports activo. A través de él se distribuyen paquetes destacados como LibreOffice en versiones actualizadas, el descargador de vídeo yt-dlp, el editor vectorial Inkscape o el cliente Nextcloud Desktop, entre otros.

También se incluyen en estos backports herramientas de creación y ocio como Kdenlive, Tuba, 0 A.D. o fastfetch. Este enfoque permite que una base estable y de largo recorrido como la de Ubuntu 24.04 LTS conviva con aplicaciones de usuario final en versiones más próximas a las últimas publicaciones, sin romper el equilibrio general del sistema.

Compatibilidad de arquitecturas y horizonte RISC-V

Trisquel 12 Ecne se publica en varias arquitecturas, entre ellas amd64, ppc64el, arm64 y armhf. Esto cubre desde la mayoría de ordenadores de sobremesa y portátiles con procesadores Intel o AMD hasta ciertas plataformas ARM y equipos de servidor basados en POWER, lo que facilita su despliegue en entornos diversos, incluidos laboratorios educativos o pequeñas organizaciones.

De cara al futuro, el equipo del proyecto ha señalado que la siguiente gran meta será el soporte para RISC-V. Ya se han iniciado los trabajos preliminares para añadir esta arquitectura abierta, algo especialmente coherente con una distribución que hace de la libertad del hardware y del software su seña de identidad. Aunque todavía no está disponible en Ecne, el anuncio indica que RISC-V será una de las prioridades de la próxima versión.

Con Ecne, Trisquel vuelve a dejar claro que su prioridad no es competir en número de dispositivos soportados ni en ofrecer el kernel más reciente del mercado, sino mantener una línea coherente con los principios del software libre sin zonas grises. Para quienes comparten esa visión, la nueva versión proporciona un entorno de escritorio sólido, varias ediciones adaptadas a diferentes usos y un conjunto de herramientas modernas empaquetadas bajo criterios estrictos de libertad. Para otros usuarios, puede servir también como recordatorio del coste práctico de llevar esos principios hasta sus últimas consecuencias.

from Linux Adictos https://ift.tt/dygE5V0
via IFTTT

La publicidad en el streaming: experiencias, costos y opciones para ver sin interrupciones

Prime Video con cuatro cortes para publicidad

Hace unos años, y aún sigue siendo así, la tele tradicional emitía su contenido con muchos cortes de publicidad. En una película de una hora y media, podían hacer un corte cada 20 minutos, o a veces menos, y lo teníamos asumido: era lo que había. Hace menos tiempo nació Netflix, y ahora tenemos también Prime Video, Disney+, HBO, Apple TV y otras más. Empezaron bien, sin publicidad y permitiendo compartir cuenta, pero hoy en día la experiencia no es la más óptima.

Me pasó este fin de semana que quise ponerme el principio de la última temporada de The Boys en mi Smart TV, de manera que pudiera verlo todo con el mando y sin encender ningún aparato extra. Yo usaba un truco que a algún lector le parecía una tontería: le daba a reproducir el vídeo, me tragaba el primer anuncio, adelantaba hasta pasar el punto de publicidad, me tragaba el resto de la publicidad y luego veía el contenido del tirón. Esto ahora mismo tampoco es lo mejor.

El abuso del streaming con la publicidad

En la imagen anterior podéis ver el problema señalado con flechas. Hay cuatro cortes publicitarios en un vídeo de una hora, el primero poco después del cuarto de hora, el segundo antes de la media hora, el tercero muy poco después del segundo y luego ya un cuarto corte que da hasta pereza comentar. Por si fuera poco, el episodio no empezaba hasta mostrar un minuto y medio de publicidad.

Personalmente pienso que ver contenido legal en streaming con el plan con publicidad es PEOR que verlo en la tele tradicional. Cuando uno ve contenido en la tele, está usando algo que ya tiene asumido, y muchas veces la ponemos para ver algo que no nos interese tanto. Ver algo que sí nos interese con tanto corte es frustrante, sensación o sentimiento que buscan las diferentes plataformas.

¿No quieres anuncios? Paga un extra

Las plataformas de streaming ofrecen una opción para eliminar la publicidad. Por ejemplo, Prime Video cobra 2€ para quitarla, pero es que Disney+ cobra 4€ y Netflix 7€ (hay otras mejoras). El plan es muy claro: bombardean con publicidad que cobran al anunciante, y si quieres no ver anuncios, tienes que hacerte cargo tú del coste. Las plataformas no pierden.

Las opciones legales para que no molesten los anuncios pasan por descargar el vídeo (no es posible en todo el contenido de todas las plataformas) y verlo sin conexión o poner la publicidad antes como hacía yo. Para lo último merece la pena armarse de paciencia, o ponerlo, hacer otra cosa, volver y reiniciar el vídeo ya sin publi.

Las opciones ilegales o inmorales pasan por ver el contenido con bloqueadores o directamente pirata. El caso es que nos empujan a ello, y más en Linux, donde plataformas como Prime Video no nos permiten pasar de calidad SD.

from Linux Adictos https://ift.tt/z7goYkZ
via IFTTT