GTA 6 y el legado de Red Dead Redemption 2: ¿qué podría traer Rob Carr a la próxima entrega?



En el mundo de los videojuegos, las conversaciones entre exdesarrolladores y analistas a menudo anticipan movimientos estratégicos que, de convertirse en realidad, podrían redefinir la experiencia de juego. Recientemente, Rob Carr, quien formó parte del equipo de Rockstar Games durante años, ha generado atención al sugerir que Grand Theft Auto 6 podría incorporar mecánicas inspiradas en Red Dead Redemption 2. Aunque estas declaraciones deben ser tomadas con cautela, su comentario abre una conversación valiosa sobre la evolución de la franquicia y la influencia de títulos hermanos dentro del mismo estudio.

Red Dead Redemption 2, lanzado en 2018, se destacó por su mundo abierto inmersivo, su atención al detalle, su narrativa ramificada y sus sistemas de interacción que premiaban la exploración, la vida en el mundo y las decisiones del jugador. Por eso, cuando alguien del calibre de Carr sugiere que GTA 6 podría incorporar elementos de ese juego, surgen preguntas específicas sobre qué tipo de mecánicas podrían trasladarse sin perder la identidad de la saga de Los Santos.

Una de las áreas más plausibles de transferencia podría ser la profundidad de los sistemas de mundo abierto. Red Dead Redemption 2 demostró que un entorno vasto, con rutas dinámicas, generaciones de misiones secundarias y personajes con agendas propias, puede sostener horas de juego sin que la experiencia se sature. En GTA 6, esto podría traducirse en ciudades aún más vivas, con actividades diarias que reflejen una economía y una cultura propias, y con misiones que se sienten menos lineales y más orgánicas.

Otra posible influencia podría estar en la gestión de la tecnología de juego: IA de acompañantes, reacciones del entorno a las acciones del jugador y una narrativa que se sienta más orgánica gracias a la progresión natural de los acontecimientos. Red Dead Redemption 2 mostró que el mundo reacciona a las acciones del jugador de formas coherentes y predecibles, lo que aumenta la inmersión. Si GTA 6 adopta enfoques similares, podría lograr una experiencia en la que decisiones aparentemente menores tengan impactos significativos a lo largo del juego, reforzando la sensación de un mundo vivo.

Sin embargo, es crucial considerar la identidad de cada franquicia. Grand Theft Auto, con su tono satírico, ritmo acelerado y episodios de acción desenfrenada, se sostiene sobre una mezcla de humor, narrativa audaz y escenarios que reflejan una crítica social de gran alcance. Importar porciones de Red Dead Redemption 2 debe hacerse con seguridad para no diluir esa voz distintiva. La clave será adaptar, no copiar: integrar sistemas de mundo y presencia ambiental que enriquezcan GTA 6, manteniendo el pulso irónico y el ritmo característico de la serie.

Desde la perspectiva del desarrollo, la influencia de Red Dead Redemption 2 podría verse también en mejoras técnicas: animaciones más fluidas, físicas más realistas y una IA de mayor profundidad para personajes no jugables que interactúan de manera creíble con el jugador y con el entorno. Estas mejoras, si se implementan con criterio, podrían elevar la experiencia de GTA 6 sin desconectar a los jugadores de lo que esperan de una entrega de GTA: acción, humor y historias que sorprenden.

En última instancia, la conversación abierta sobre posibles cruces entre ambos títulos ilustra una verdad simple: las grandes sagas se enriquecen cuando aprenden unas de otras, respetando la esencia de cada una. Si Rockstar Games logra equilibrar las fortalezas de Red Dead Redemption 2 con el motor y el pulso narrativo de Grand Theft Auto, podríamos estar ante una entrega que combine la grandeza de un mundo vivido con la energía caótica que ha definido la serie durante décadas. El resultado potencial es una GTA 6 que no solo ofrezca acción y exploración, sino también una sensación de pertenencia a un universo que se siente real, complejo y, sobre todo, emocionante de explorar.

from Latest from TechRadar https://ift.tt/N8JHOg9
via IFTTT IA

Un centro de gestión de incidentes: la clave para que los CIOs aprovechen el contexto completo



En un paisaje tecnológico cada vez más complejo, los CIOs se enfrentan al reto de detectar, comprender y resolver incidentes de manera rápida y eficiente. La rapidez es crucial, pero no basta con actuar; es necesario actuar con contexto suficiente para evitar recurrencias y minimizar el impacto en el negocio. Aquí es donde un hub de gestión de incidentes se convierte en una pieza estratégica, no solo operativa.

Un hub de incidentes que agrupe información relevante en un solo lugar cambia las reglas del juego por varias razones. Primero, centraliza el contexto: datos de alertas, registros, métricas, información de usuarios afectados, dependencias entre servicios y estado de las infraestructuras. Este nivel de visibilidad reduce el tiempo dedicado a la recopilación de información y permite a los equipos de TI priorizar las acciones correctivas correctas desde el primer intento.

En segundo lugar, facilita la colaboración entre equipos. Cuando las plataformas de monitoreo, los equipos de redes, seguridad, desarrollo y soporte comparten un marco común de incidentes, se acelera la toma de decisiones y se evita la fragmentación de esfuerzos. Un hub bien diseñado ofrece flujos de trabajo, asignación de responsabilidades y comunicación centralizada que mantienen a todos alineados durante la resolución.

Tercero, mejora la toma de decisiones post-incidente. La capacidad de contextualizar incidentes pasados, identificar patrones y extraer métricas de rendimiento permite a la organización evolucionar de una respuesta reactiva a una gestión proactiva. Las lecciones aprendidas quedan registradas, las causas raíz se documentan y las mejoras preventivas se traducen en acciones concretas.

Un enfoque centrado en el contexto también fortalece la gobernanza y el cumplimiento. Al mantener un registro trazable de incidentes, decisiones tomadas y responsables, la organización puede demostrar rigor operativo ante auditores y partes interesadas, sin sacrificar velocidad ni agilidad.

Para que un hub de gestión de incidentes aporte valor real, debe incorporar ciertos principios clave. En primer lugar, integraciones fluidas con las fuentes de datos críticas: herramientas de monitoreo, registro de eventos, sistemas de seguridad y plataformas de ticketing. En segundo lugar, estructuras de datos consistentes y una semántica clara de incidentes, para evitar ambigüedades y facilitar las búsquedas y el análisis. En tercer lugar, capacidades de automatización inteligente: detección de correlaciones, enriquecimiento automático de contexto y playbooks que guíen las respuestas sin depender de la intervención humana constante.

La experiencia del usuario es otro factor decisivo. Un tablero limpio, con visualización de impacto, prioridad y progreso, evita la fatiga de los equipos. Las notificaciones deben ser oportunas y contextualizadas, generando acciones concretas en lugar de inundar a los miembros del equipo con información irrelevante.

En una era donde la continuidad del negocio depende de la capacidad de responder con precisión, un hub de gestión de incidentes que centraliza el contexto se convierte en una ventaja competitiva. No se trata solo de resolver incidentes más rápido, sino de entender su código de causa raíz, anticipar riesgos y fortalecer la resiliencia organizacional a través de una gestión de incidentes informada y coordinada.

from Latest from TechRadar https://ift.tt/HunrKWF
via IFTTT IA

Cómo las nuevas notebooks de Google amplían Gemini: recordar, construir y reutilizar tu trabajo a lo largo del tiempo



En el dinámico mundo de la inteligencia artificial aplicada, la capacidad de un sistema para recordar y reutilizar el trabajo previo del usuario se ha convertido en un diferenciador clave. Las nuevas notebooks de Google, integradas con Gemini, marcan un paso importante en esa dirección, transformando a Gemini en una herramienta más persistente y práctica para el día a día profesional. Este desarrollo no solo mejora la eficiencia, sino que también abre nuevas vías para la creatividad, la colaboración y la gestión de proyectos a largo plazo.

Una de las ventajas más evidentes es la capacidad de Gemini para recordar contextos, decisiones y resultados obtenidos durante sesiones anteriores. En entornos de trabajo complejos, donde las ideas evolucionan a lo largo del tiempo, esa memoria contextual reduce la necesidad de repetir información y permite a la IA construir sobre lo ya trabajado. A medida que se acumula el historial de notas, borradores y prototipos, el flujo de trabajo se vuelve más fluido y menos dependiente de la memoria humana, liberando tiempo para el análisis estratégico y la toma de decisiones.

Las notebooks actúan como depósitos de conocimiento personal y colectivo. Cada entrada puede incluir notas, esquemas, fragmentos de código, resultados de experimentos y comentarios de revisión. Esta estructuración facilita la trazabilidad: si surge una pregunta sobre por qué se tomó cierta decisión, es posible rastrear el razonamiento y las pruebas que lo respaldaron. En proyectos de investigación, desarrollo de productos o consultoría, esa capacidad de auditar el proceso es invaluable.

Otro beneficio clave es la continuidad entre sesiones. A veces, un usuario retoma un proyecto después de una pausa y necesita ponerse al día rápidamente. Con Gemini integrando notebooks, la IA puede recuperar contextos relevantes, proponer próximos pasos y recordar preferencias de estilo, formatos y métricas. Esto no solo acelera el reinicio de trabajos, sino que también mejora la consistencia y la calidad de las entregas finales.

Desde una perspectiva de productividad, la persistencia de Gemini se traduce en flujos de trabajo más inteligentes. En lugar de generar respuestas aisladas, la IA puede vincular ideas, identificar patrones y sugerir iteraciones basadas en el progreso previo. Para equipos colaborativos, las notebooks sirven como fuente compartida de conocimiento: distintas personas pueden aportar, revisar y ampliar el material existente sin perder el hilo de la conversación original.

No obstante, la implementación de una memoria prolongada plantea también retos desde la perspectiva de la privacidad y la seguridad. Es imprescindible contar con controles claros sobre qué información se guarda, cómo se usa y quién puede acceder a ella. Las políticas de retención, las opciones de borrado y las configuraciones de acceso deben ser transparentes y fáciles de gestionar, para que cada usuario conserve el control total sobre su propio flujo de trabajo.

En resumen, las nuevas notebooks de Google que alimentan Gemini convierten a la plataforma en una herramienta más persistente y práctica. Al recordar y construir sobre el trabajo anterior, Gemini no solo aumenta la eficiencia operativa, sino que también potencia la creatividad y la calidad de las entregas. En un entorno profesional donde el tiempo y la precisión son críticos, esta evolución representa una mejora estratégica para equipos que buscan avanzar con mayor continuidad y coherencia en sus proyectos.

from Latest from TechRadar https://ift.tt/97ok6Aw
via IFTTT IA

Intermedia Unite: comunicaciones en la nube con IA y colaboración fluida para equipos híbridos



En la era actual de trabajo híbrido, las empresas buscan soluciones que combinen confiabilidad, seguridad y eficiencia. Intermedia Unite emerge como una plataforma integrada que centraliza las comunicaciones en la nube, ofreciendo herramientas esenciales para equipos modernos que requieren colaboración ágil y protección robusta de datos.

La solución se distingue por su enfoque en la continuidad operativa. Con infraestructura en la nube, las comunicaciones se vuelven más resistentes ante interrupciones y la escalabilidad permite ajustar recursos según la demanda. Esto se traduce en menos tiempo perdido y mayor productividad para equipos que trabajan desde distintos lugares y zonas horarias.

La seguridad es un pilar central de la propuesta. Intermedia Unite incorpora protocolos de cifrado de última generación, controles de acceso basados en roles y monitoreo continuo para detectar posibles amenazas. En un entorno donde la información sensible circula entre dispositivos y fronteras geográficas, contar con una capa de protección sólida es imprescindible.

Uno de los atractivos clave es la integración de capacidades de IA que optimizan la experiencia de usuario y la toma de decisiones. Funciones como asistentes inteligentes para la gestión de comunicaciones, transcripciones precisas y resúmenes automáticos potencian la productividad sin sacrificar la claridad ni la calidad de la información. Estas herramientas permiten a los equipos centrarse en tareas de alto valor, delegando rutinas de menor impacto a la automatización.

La interoperabilidad y las herramientas de colaboración de Intermedia Unite facilitan el trabajo en equipo a distancia. Mensajería en tiempo real, videoconferencias, compartición de archivos y flujos de trabajo colaborativos se integran en una experiencia unificada. Esto reduce la fricción entre plataformas y garantiza que el progreso de los proyectos sea visible para todos los involucrados, independientemente de su ubicación.

Desde la perspectiva de la seguridad operativa, la nube ofrece ventajas claras: copias de seguridad resilientes, recuperación ante desastres y actualizaciones continuas para defenderse contra vulnerabilidades emergentes. Al combinar estas garantías con un conjunto de herramientas de colaboración, Intermedia Unite se posiciona como una solución confiable para organizaciones que buscan agilidad sin comprometer la seguridad.

En resumen, Intermedia Unite propone una plataforma de comunicaciones y colaboración en la nube que responde a las necesidades de los equipos híbridos modernos. Con un énfasis en confiabilidad, seguridad e inteligencia, facilita una experiencia de trabajo integrada que soporta la productividad, la toma de decisiones informada y la colaboración eficiente entre colegas ubicados en diferentes entornos.

from Latest from TechRadar https://ift.tt/qgfQHFu
via IFTTT IA

La orquestación de modelos falla en el entorno empresarial: por qué la IA corporativa exige integración profunda, gobernanza y embebido en flujos de trabajo



En la actualidad, las organizaciones apuestan por soluciones de IA que prometen rapidez y escalabilidad mediante la orquestación de modelos. Sin embargo, la realidad del entorno empresarial revela que la simple coordinación de modelos no es suficiente para alcanzar resultados sostenibles y conformes con las demandas operativas. Este ensayo analiza por qué la orquestación tradicional queda corta y qué componentes deben integrarse para convertir la IA en una capacidad estratégica.

1) Integración profunda con el ecosistema empresarial
La orquestación de modelos suele centrarse en la capa de inferencia, pero la IA corporativa debe coexistir con sistemas legados, bases de datos, pipelines de datos y herramientas de analítica. La integración profunda implica contratos de datos, calidad de datos, trazabilidad y compatibilidad con estándares de la empresa. Sin una conectividad robusta a los sistemas operativos y a los flujos de negocio, los modelos operan en silos, generan resultados inconsistentes y no pueden alimentar decisiones de manera fiable.

2) Gobernanza y cumplimiento desde el diseño
La responsabilidad, la trazabilidad y la supervisión son requisitos no negociables en cualquier iniciativa de IA empresarial. La gobernanza debe abarcar provenance de datos, versión de modelos, control de sesgos y capacidad de auditoría. En entornos regulados, es imprescindible poder demostrar cómo se generan las predicciones, qué datos influyen en ellas y cómo se gestionan las intervenciones humanas. Sin una infraestructura de gobernanza sólida, el valor de la IA puede verse condicionado por riesgos operativos y legales.

3) Embebido en los flujos de trabajo
La IA tiene más valor cuando sus resultados se incorporan de forma natural en los procesos de negocio. Esto significa que las salidas de modelos deben integrarse en dashboards, aplicaciones y herramientas de administración, y que los responsables de cada función puedan actuar de inmediato sobre las recomendaciones. La orquestación aislada de modelos no captura la necesidad de ventanas de acción en tiempo real, reencuadre de casos de uso y ciclos de retroalimentación para aprendizaje continuo en el entorno operacional.

4) Gobernanza de datos y calidad como base
La calidad y la gobernanza de los datos son el cimiento de cualquier sistema de IA confiable. Los modelos dependen de datos de alta fidelidad; sin reglas claras de calidad, catalogación, gobernanza de acceso y gestión de metadatos, se incrementa el riesgo de sesgos, deriva de concepto y errores de predicción. Una estrategia empresarial de IA debe incluir herramientas de profiling de datos, linaje, calidad y monitoreo continuo para detectar desviaciones que afecten a las decisiones.

5) Monitoreo, seguridad y resiliencia
La orquestación de modelos debe ir acompañada de monitoreo operacional que observe rendimiento, latencia y estabilidad. La seguridad, desde controles de acceso hasta protección de datos sensibles y cumplimiento normativo, es crucial para sostener operaciones a gran escala. La resiliencia ante fallos, la gestión de incidentes y las prácticas de recuperación deben estar integradas en el diseño del ecosistema de IA, no relegadas a una capa aislada.

6) Estrategia de implementación basada en casos de negocio
Más allá de la tecnología, el éxito depende de una visión estratégica alineada con objetivos de negocio verificables. Identificar casos de uso con impacto claro, establecer métricas de éxito y definir las rutas de gobernanza y dependencia entre equipos facilita la adopción. La orquestación debe ser un habilitador de procesos, no un fin en sí mismo.

Conclusión
La orquestación de modelos es una pieza importante, pero insuficiente si se busca convertir la IA en una capacidad corporativa robusta. El valor real surge cuando la tecnología se integra de forma profunda con la arquitectura de datos, la gobernanza, y los flujos de trabajo operativos, creando un ecosistema donde las predicciones no solo existen, sino que guían acciones concretas y sostenibles a lo largo de la organización.

from Latest from TechRadar https://ift.tt/3SPAnB5
via IFTTT IA

Deepin 25.1.0: innovación centrada en la experiencia del usuario y la inteligencia artificial


La nueva versión de Deepin, 25.1.0, marca un paso importante en la evolución de una de las distribuciones Linux más visuales y orientadas al usuario final. Este lanzamiento continúa la línea de innovación iniciada en Deepin 25, apostando por una experiencia más fluida, moderna y profundamente integrada con tecnologías emergentes como la inteligencia artificial. Con una base sólida en estabilidad, rendimiento y diseño, Deepin 25.1.0 se posiciona como una alternativa atractiva dentro del ecosistema Linux, introduciendo mejoras clave en el entorno gráfico, nuevas funciones inteligentes y optimizaciones internas que buscan elevar la productividad y la experiencia diaria del usuario.

En el corazón de este lanzamiento se encuentra un conjunto de mejoras significativas del entorno gráfico. El Deepin Desktop Environment (DDE) recibe refinamientos en múltiples elementos visuales y de interacción, que incluyen una reorganización del centro de control y mejoras en la gestión de notificaciones. Estas optimizaciones pretenden ofrecer una interfaz más intuitiva, coherente y fácil de usar. Adicionalmente, Deepin 25.1.0 añade opciones de personalización y control, como la posibilidad de bloquear la barra de tareas, ajustar efectos visuales o configurar gestos multitáctiles avanzados, permitiendo adaptar la experiencia a distintos perfiles de usuario y dispositivos.

Un componente destacado es la integración de inteligencia artificial mediante UOS AI. Este sistema introduce funciones como asistencia contextual, búsqueda en lenguaje natural y herramientas de ayuda durante tareas como escritura, traducción o gestión de documentos. También facilita la interacción con el sistema a través de texto o acciones directas sobre elementos, mejorando notablemente la productividad diaria.

Desde el punto de vista técnico, Deepin 25.1.0 continúa con el enfoque en el sistema inmutable Solid, que protege archivos críticos mediante un modo de solo lectura. Esto aporta mayor estabilidad y seguridad, permitiendo actualizaciones atómicas y restauraciones automáticas en caso de fallo. Además, destaca Linyaps, el sistema de compatibilidad de aplicaciones que facilita la ejecución de software en múltiples distribuciones Linux sin conflictos de dependencias, ampliando el catálogo disponible y simplificando el desarrollo y la instalación de aplicaciones.

Entre otras novedades relevantes se encuentran la integración de subsistemas Linux mediante Distrobox, mejoras en el gestor de archivos con búsqueda en tiempo real, optimizaciones en el instalador con soporte para más idiomas y una mayor eficiencia en procesos como el apagado o la gestión de recursos. En conjunto, Deepin 25.1.0 representa una actualización centrada en pulir la experiencia del usuario sin perder de vista la innovación, con una fuerte apuesta por la inteligencia artificial, la estabilidad del sistema y la compatibilidad de aplicaciones. Todo ello refuerza la posición de Deepin como una de las distribuciones Linux más completas y accesibles del momento.

from Linux Adictos https://ift.tt/KGjmfWe
via IFTTT

Miracle-WM 0.9: un gestor de ventanas en mosaico que impulsa la personalización avanzada en Wayland

Miracle-WM 0.9

La versión 0.9 de Miracle-WM, el gestor de ventanas en mosaico construido sobre el compositor Wayland Mir, llega con una tanda de novedades pensadas para desarrolladores y usuarios avanzados que quieran moldear su entorno gráfico a su gusto. El proyecto, presentado anteriormente como alternativa a otros gestores de ventanas, creado por el ingeniero de Canonical Matthew Kosarek como iniciativa personal, refuerza así su enfoque de herramienta flexible y apta para “trastear” sin perder de vista la estabilidad.

Este lanzamiento se centra en abrir la puerta a nuevas formas de extender el sistema mediante plugins y APIs modernas, manteniendo al mismo tiempo mejoras prácticas para el día a día, como ajustes en el rendimiento, el tratamiento de las pantallas y pequeños cambios en la experiencia de uso. Aunque Miracle-WM no es tan conocido como otros gestores Wayland, sus avances se acercan cada vez más a alternativas consolidadas como Sway o Niri.

Novedad principal de Miracle-WM 0.9: sistema de plugins con WebAssembly

El cambio más llamativo de Miracle-WM 0.9 es la incorporación de un sistema de complementos basado en WebAssembly (WASM). Gracias a este mecanismo, es posible cargar módulos externos que alteran o amplían el comportamiento del gestor de ventanas sin tener que recompilar el proyecto principal, lo que facilita experimentar con nuevas funciones.

Estos plugins en formato WASM pueden intervenir en aspectos como la gestión de ventanas, las animaciones, la configuración avanzada o incluso el flujo de trabajo general. Al cargarse como “payloads” WebAssembly, las extensiones son más portables entre sistemas compatibles y ofrecen un extra de seguridad frente a otros métodos tradicionales de integración de código externo.

El propio desarrollador ha compartido un vídeo de demostración de los plugins en funcionamiento, donde se puede ver cómo se modifican comportamientos del entorno en tiempo real. Esta aproximación acerca Miracle-WM a la idea de un compositor “hackeable”, pensado para quien quiera probar ideas nuevas sin miedo a romper la base del sistema.

Nueva API en Rust para escribir plugins

Junto al soporte WebAssembly, Miracle-WM 0.9 incorpora una API específica para el lenguaje Rust, orientada a quienes prefieren trabajar con esta tecnología por su modelo de memoria seguro y su ecosistema creciente. Con esta interfaz, los desarrolladores pueden crear plugins aprovechando las garantías de seguridad y rendimiento propias de Rust.

La documentación de esta API en Rust ya está disponible para consulta, con ejemplos y referencias para entender cómo interactuar con el compositor. De esta manera, se fomenta no solo que se escriban nuevos módulos, sino que se haga siguiendo buenas prácticas modernas, algo especialmente valorado en entornos donde la estabilidad del sistema gráfico es crucial.

Miracle-WM 0.9 introduce mejoras en la experiencia gráfica y en el rendimiento

Más allá del terreno de los desarrolladores, la versión 0.9 incluye novedades visibles para usuarios finales, entre ellas el soporte para temas de cursor, siguiendo ideas de versiones previas. Esto permite alinear el aspecto del puntero con el resto del entorno de escritorio, algo que muchos usuarios en entornos Linux valoran por coherencia visual y accesibilidad.

El proyecto ha introducido también diversos ajustes de rendimiento para que el gestor responda de forma más fluida, especialmente en escenarios con múltiples ventanas o pantallas configuradas. Según el registro de cambios, Miracle-WM es ahora más eficiente en tareas internas como el uso de bloqueos, reduciendo posibles cuellos de botella en la ejecución.

Otro detalle práctico es que las configuraciones de pantalla se recargan de forma automática cuando se detectan cambios. Esto resulta útil en equipos de sobremesa con varios monitores o en portátiles que se conectan a pantallas externas, evitando tener que reiniciar la sesión cada vez que se ajusta la disposición de las salidas de vídeo.

Atajos de teclado y recarga de configuración

Para quienes acostumbran a ajustar su configuración a fondo, Miracle-WM 0.9 añade un nuevo atajo de teclado para recargar la configuración sin cerrar la sesión. A partir de esta versión, es posible forzar la recarga con la combinación Super + Shift + R, lo que agiliza las pruebas de nuevos ajustes y mapeos de teclas.

Esta capacidad de editar el archivo de configuración y ver los cambios al vuelo encaja bien con el perfil de usuario de gestores en mosaico, donde es habitual retocar disposiciones, reglas para ventanas concretas o atajos personalizados. Es una forma cómoda de iterar sin tener que romper el flujo de trabajo ni abandonar las aplicaciones abiertas.

Además, el equipo del proyecto ha corregido un fallo en el que ciertas ventanas se colocaban en mosaico cuando no debían hacerlo, mejorando el comportamiento general en aplicaciones que requieren un tratamiento distinto, como algunos diálogos o ventanas flotantes.

Cambios en los códigos de teclas y otros ajustes internos

El lanzamiento incluye también un cambio importante para quienes ya tenían una configuración de entrada personalizada: las acciones basadas en códigos de teclas de Linux dejan de ser la referencia y es necesario pasar a utilizar valores XKbKeysyms. Esto afecta tanto a los atajos por defecto que se quieran sobrescribir como a las acciones definidas por el usuario.

Este ajuste se considera un cambio incompatible con versiones anteriores, por lo que los usuarios que actualicen desde una versión previa tendrán que revisar sus archivos de configuración para evitar que algunos atajos dejen de funcionar. Aunque pueda suponer una pequeña molestia inicial, el objetivo es unificar la forma de tratar las teclas y facilitar mantenimientos futuros.

Entre otros detalles menores, Miracle-WM 0.9 incorpora un nuevo icono para el proyecto y mejoras en el uso de mecanismos de bloqueo internos, junto con la habitual tanda de correcciones de errores menos visibles para el usuario, pero relevantes para la estabilidad del compositor.

Instalación de Miracle-WM 0.9 en Ubuntu y derivadas

En lugares donde Ubuntu y sus sabores cuentan con una presencia notable en entornos profesionales, educativos y domésticos, la vía más directa para probar Miracle-WM es el paquete Snap oficial. Se puede instalar desde la línea de comandos con:

sudo snap install miracle-wm --classic

.barra {display: flex;justify-content: flex-end;height: 25px; background-color: #333;border-radius: 5px 5px 0 0;}.rojo, .naranja, .verde{width: 12px;height: 12px; position: relative;border-radius: 50%;top: 7px; margin: 0 3px;}.rojo{background-color: rgb(248, 82, 82); margin-right: 7px;}.naranja{background-color: rgb(252, 186, 63);}.verde{background-color: rgb(17, 187, 17);}.terminal{background-color: black !important; border-radius: 5px !important; margin-bottom:20px}pre{font-family:monospace !important; padding: 0 10px 10px; line-height: 1.5em; overflow: auto; background-color: black !important; color: #0EE80E !important}

Para quienes prefieran los paquetes tradicionales, el proyecto ofrece compilaciones DEB a través de un PPA específico para Ubuntu 24.04 LTS. Eso sí, el propio desarrollador advierte de que este repositorio suele ir algo por detrás en actualizaciones respecto al paquete Snap, por lo que quienes quieran las últimas novedades quizá prefieran la opción de Snap.

En ambos casos, se recomienda consultar la página del proyecto en GitHub, donde se detallan dependencias, versiones compatibles y posibles incidencias conocidas, algo especialmente útil para usuarios que utilicen otros sabores de Ubuntu o distribuciones cercanas.

Recordatorio: Miracle-WM es un gestor de ventanas, no un escritorio completo

Es importante tener presente que Miracle-WM funciona como gestor de ventanas en mosaico y no como entorno de escritorio completo. Al iniciar sesión en una sesión “miracle-wm” desde el selector (el icono de engranaje) de la pantalla de acceso, no aparecerán elementos típicos como paneles, menús o lanzadores, salvo que el usuario los configure por su cuenta.

Para aprovecharlo de verdad, hay que crear un archivo de configuración en el que se indiquen las aplicaciones, herramientas y atajos de teclado que se quieren utilizar. La wiki del proyecto y la documentación oficial ofrecen una guía paso a paso para elaborar este archivo, algo especialmente útil para quienes vengan de otros gestores como i3 o Sway y quieran adaptar su forma de trabajo.

En el día a día, conviene memorizar algunos atajos básicos, por ejemplo el que permite cerrar sesión en Miracle-WM con Super + Shift + E, de forma que sea posible salir de la sesión incluso si alguna ventana se comporta de manera inesperada o si la configuración recién creada no funciona como se esperaba.

Con la llegada de Miracle-WM 0.9, el proyecto refuerza su apuesta por un compositor Wayland altamente configurable, seguro y orientado a usuarios avanzados, combinando un sistema de plugins basado en WebAssembly, una API moderna en Rust y mejoras prácticas como la recarga de configuración y el soporte de temas de cursor. Aunque aún es una alternativa en desarrollo frente a gestores más asentados, su ritmo de cambios y su enfoque “hackeable” lo convierten en una opción a seguir de cerca dentro del ecosistema Linux, especialmente para quienes utilizan Ubuntu y buscan un control fino sobre su entorno gráfico.

from Linux Adictos https://ift.tt/jQgzCLX
via IFTTT

Calibre 9.7: mejoras prácticas para la lectura, gestión de bibliotecas y servidor de contenidos


Calibre 9.7 llega con una serie de novedades pensadas para optimizar la experiencia de lectura digital y la gestión de bibliotecas personales. Sin cambios de gran impacto, estas mejoras se enfocan en la usabilidad, la estabilidad y el control detallado de la colección, ofreciendo herramientas más robustas para el día a día del lector y del gestor de libros electrónicos.

Navegador de anotaciones más flexible y organizado en Calibre 9.7
Una de las incorporaciones clave es el nuevo navegador de anotaciones, que permite gestionar mejor las notas y subrayados. Las anotaciones ahora pueden agruparse por cualquier campo disponible en la base de datos de Calibre, abriendo la puerta a clasificaciones variadas. Esta organización facilita ordenar notas por autor, serie, etiquetas, fecha de incorporación o cualquier campo personalizado. Para colecciones extensas o lecturas intensivas, la característica facilita localizar comentarios repartidos entre títulos distintos. En la práctica, esto convierte a Calibre 9.7 en una herramienta más cómoda para seguimiento de lecturas académicas, proyectos de investigación o recopilaciones temáticas, reduciendo el tiempo dedicado a buscar una nota específica.

Mejoras en el visor de eBooks y en la interacción táctil
El visor de libros electrónicos recibe cambios relevantes, especialmente en la gestión de gestos de zoom en dispositivos con touchpad. A partir de esta versión, el gesto de pellizcar para acercar o alejar funciona de forma similar a una pantalla táctil, y la acción por defecto se centra en modificar el tamaño de la fuente, haciendo la lectura más legible y fluida entre dispositivos. También se corrigió un fallo de la versión anterior que impedía que las anotaciones y la información de la “última página leída” se guardaran correctamente; con 9.7, las notas y la posición de lectura quedan registradas al reabrir un libro, lo que resulta especialmente relevante para lectores que alternan entre equipos.

Servidor de contenidos con modo offline completo en HTTPS
Otra mejora destacada es el modo offline completo del servidor de contenidos cuando la conexión es a través de HTTPS. Este modo permite acceder a libros y contenidos incluso sin conexión a Internet, siempre que el material necesario ya esté disponible en el dispositivo. Es una función especialmente útil para viajes, movilidad o redes inestables, proporcionando una capa adicional de comodidad y seguridad al utilizar Calibre como fuente principal de lectura en navegadores y dispositivos móviles. Con la combinación de HTTPS y capacidad offline, se obtiene una experiencia más robusta y menos dependiente de la red.

Correcciones y estabilidad en la búsqueda de texto completo
La actualización también aborda varias incidencias menores asociadas a la vista de búsqueda de texto completo, buscando una mayor fiabilidad. Se corrige, además, un problema de asignación de portadas al añadir nuevos ficheros a libros ya existentes, lo que facilita mantener una biblioteca visualmente coherente y bien presentada.

Servidor de lectura web: búsqueda y resultados más fiables
En el servidor de contenidos, se solucionan problemas relacionados con la búsqueda dentro del libro cuando se accede desde el servidor y con la apertura de resultados de la búsqueda de texto completo. Estas correcciones hacen que la navegación y la lectura a través del navegador sean más suaves y predecibles, especialmente para usuarios que confían en Calibre como nube personal de libros para distintos dispositivos.

Integración de IA y mejoras en el backend
Calibre 9.7 refuerza la estabilidad del backend que se apoya en GitHub y mejora la coherencia de las funciones asistidas por IA, incluyendo una corrección en la que el modo automático de razonamiento desactivaba el razonamiento en ciertas configuraciones. Estas mejoras buscan ofrecer un entorno técnico más sólido para usuarios que experimentan con funciones impulsadas por IA dentro del ecosistema de Calibre, sin cambios radicales pero con mayor predictibilidad.

Correcciones específicas para Linux y dispositivos MTP
Se aborda un fallo en el controlador MTP bajo Linux que podía provocar cierres inesperados al conectar grandes bibliotecas. La corrección mejora la estabilidad de la sincronización y gestión de dispositivos conectados mediante MTP, reforzando la versatilidad de Calibre entre diferentes plataformas y grandes volúmenes de libros.

Nuevas fuentes de noticias y mejoras de medios existentes
La función de agregador de noticias se mantiene y se amplía con nuevas fuentes y mejoras en recetas existentes. Entre las fuentes refinadas se encuentran publicaciones de alcance internacional como The Week, The Age, Financial Times y Mint, con ajustes para mejorar la extracción de contenido, el formato y la compatibilidad ante cambios en las webs de origen.

Descarga y actualización de Calibre 9.7
Quienes estén interesados pueden obtener Calibre 9.7 desde los enlaces oficiales de descarga, disponibles en la página del proyecto, y quienes ya tengan el programa instalado pueden actualizar directamente desde la propia aplicación. Esto facilita que tanto nuevos usuarios como usuarios veteranos accedan rápidamente a las mejoras en anotaciones, servidor de contenidos, visor de eBooks e integración de noticias, manteniendo intactos los ajustes personales y la biblioteca.

Con estos cambios, Calibre 9.7 se presenta como una actualización centrada en pulir funciones clave y corregir errores que afectaban la lectura diaria, especialmente en anotaciones, búsqueda de texto, servidor de contenidos y compatibilidad con dispositivos. Para lectores digitales que dependen de Calibre para organizar bibliotecas y acceder a libros y noticias, la versión refuerza la estabilidad y añade refinamientos que facilitan el uso cotidiano, sin perder la filosofía abierta y multiplataforma que ha caracterizado al proyecto.

from Linux Adictos https://ift.tt/vAmVQPt
via IFTTT

Guía profesional sobre /etc/fstab: organización, campos y buenas prácticas para montajes en GNU/Linux

Si llevas un tiempo trasteando con GNU/Linux, tarde o temprano te topas con un fichero llamado /etc/fstab. Es uno de esos archivos que casi nunca tocas al principio, pero que marca cómo, cuándo y de qué forma se montan las particiones y sistemas de archivos de tu máquina. Entenderlo bien te ahorra sustos en el arranque, problemas con discos externos y quebraderos de cabeza con redes y backups.

En esencia, fstab (más información en la wiki de Arch) es una tabla estática que describe todos los sistemas de archivos que el sistema puede montar: particiones locales, áreas de intercambio, recursos de red, imágenes de bucle… y las opciones con las que deben integrarse en el árbol de directorios. No se actualiza solo: lo mantiene el administrador, ya sea editándolo a mano con un editor de texto o mediante herramientas gráficas, y es leído por comandos y servicios como mount, fsck, swapon o, en sistemas modernos, por systemd para generar unidades de montaje.

Qué es exactamente /etc/fstab y cuándo se usa

El archivo /etc/fstab (file system table) es un fichero de configuración del sistema donde se registran, línea a línea, los sistemas de archivos que se pueden montar. Cada línea describe un dispositivo o recurso, el punto del árbol donde se verá su contenido y cómo debe tratarlo el sistema. A diferencia de otros componentes dinámicos, fstab solo se lee: no lo modifican automáticamente los programas; su mantenimiento recae sobre el administrador o sobre asistentes de instalación.

Cuando el sistema arranca, el proceso de inicialización (sea clásico o con systemd) examina fstab y, respetando el orden de las líneas, va activando las entradas pertinentes. Esta secuencia es importante porque herramientas como fsck, mount y umount recorren el fichero en orden, aplicando comprobaciones y montajes según la prioridad configurada. Además, muchas utilidades administrativas, demonios u otras herramientas (por ejemplo, generadores de unidades de systemd) lo usan para decidir qué debe montarse, cuándo y con qué opciones.

Tradicionalmente, fstab se usaba para todo: discos internos, unidades ópticas e incluso dispositivos extraíbles. Hoy, en la mayoría de distribuciones de escritorio, dispositivos hotplug como memorias USB o cámaras suelen gestionarse con udev y herramientas de auto-montaje, o bien con programas como pmount, que dejan a los usuarios montar y desmontar sin necesidad de entradas en fstab. Aun así, el fichero sigue siendo la referencia para particiones internas, áreas de swap y montajes de red (NFS, Samba, SSHFS, etc.).

Estructura general de una línea de fstab

Cada sistema de archivos se define en una sola línea, con campos separados por espacios o tabuladores. Las líneas en blanco se ignoran y las que empiezan por # son comentarios. Si un campo debe contener espacios, estos se representan escapados con su código octal, por ejemplo \040 para el espacio, tanto en puntos de montaje como en etiquetas o PARTLABEL.

La estructura completa es:

<dispositivo> <punto_de_montaje> <tipo> <opciones> <dump> <pass>

Estos seis campos también se nombran a menudo como fs_spec, fs_file, fs_vfstype, fs_mntops, fs_freq y fs_passno en la documentación y cabeceras de C (<fstab.h>). La sintaxis se mantiene prácticamente igual desde los tiempos de BSD 4.0, aunque las opciones y tipos de sistemas de archivos soportados han ido creciendo.

Campo 1: cómo identificar el dispositivo o sistema de archivos

El primer campo indica qué se va a montar: puede ser un dispositivo de bloque, un recurso de red, un archivo que se use como dispositivo de bucle o incluso un sistema de archivos virtual sin almacenamiento real. Aquí es donde más cuidado hay que tener para evitar sorpresas si cambias discos de sitio o añades hardware nuevo. Las formas más habituales de identificación son:

Nombre de dispositivo del kernel

Es la forma clásica: rutas del estilo /dev/sda1, /dev/nvme0n1p2 o /dev/sr0. El kernel las asigna según el orden de detección del hardware. Puedes consultarlas con herramientas como fdisk -l o lsblk. Aunque funcionan, no son recomendables para configuraciones estables, porque al añadir o reordenar discos las letras pueden cambiar, rompiendo la configuración.

UUID de sistema de archivos

La opción preferida hoy en día es usar UUID=<identificador>, un identificador único que se asigna al crear el sistema de archivos (por ejemplo con mkfs.ext4). No depende del orden de los discos ni de la BIOS. Puedes ver los UUID con blkid o lsblk -f, y aparecen también bajo /dev/disk/by-uuid como enlaces simbólicos.

Un ejemplo típico:

UUID=0a3407de-014b-458b-b5c1-848e92a327a3 / ext4 defaults 0 1

Esta forma minimiza conflictos de nombres, aunque es cierto que las líneas quedan largas y menos legibles. Además, si reformateas o cambias el tamaño del sistema de archivos, el UUID puede regenerarse y tendrás que actualizarlo en fstab.

Etiquetas (LABEL)

Otra forma amigable de identificar particiones es usar etiquetas: LABEL=Nombre. La etiqueta se define al crear el sistema de archivos o más tarde con herramientas como e2label para ext2/3/4, dosfslabel para FAT/vfat, ntfslabel para NTFS, swaplabel para swap, etc. Muchas interfaces gráficas (como gparted) permiten asignarlas fácilmente, siempre con la partición desmontada.

Las etiquetas suelen poder tener hasta unos 16 caracteres y deben ser únicas para evitar conflictos. Si usas etiquetas, las particiones etiquetadas aparecen también como enlaces simbólicos en /dev/disk/by-label. Una entrada de ejemplo usando etiqueta sería:

LABEL=Intercambio none swap sw 0 0

Identificadores de partición GPT: PARTUUID y PARTLABEL

En discos con particionado GPT, además de UUID de sistema de archivos, cada partición tiene su propio identificador y etiqueta de partición. Puedes usar:

  • PARTUUID=<id_de_partición>
  • PARTLABEL=<etiqueta_de_partición>

Estos valores se obtienen también con blkid. Es una alternativa robusta, muy útil cuando usas la Discoverable Partitions Specification y dejas parte del trabajo a systemd para montar particiones automáticamente.

Recursos de red y otros casos especiales

Para montajes de red, el primer campo cambia de forma:

  • NFS: servidor:/ruta (por ejemplo server:/share).
  • Samba/CIFS: //servidor/compartido.
  • SSHFS (vía FUSE): se recomienda usar subtipos, por ejemplo fuse.sshfs como tipo y sshfs#usuario@servidor:/ruta está deprecado.

En sistemas de archivos virtuales (proc, tmpfs, etc.) o sin almacenamiento real se usan identificadores simbólicos, como proc, mem o tmpfs, o cualquier cadena que aparecerá en la salida de herramientas como df. Muchos de estos no se listan ya en fstab porque los monta el sistema de arranque directamente, salvo que necesites opciones especiales. Para ejemplos prácticos sobre memoria en RAM puede resultar útil ver guías que explican cómo crear un ramdisk en tu distribución.

Campo 2: punto de montaje

El segundo campo indica el directorio donde se integrará el sistema de archivos dentro del árbol global. Es un directorio del sistema de ficheros raíz, y debe existir antes de que el montaje tenga lugar. Si el sistema de archivos es swap, la convención es usar none como valor aquí.

Por ejemplo:

/dev/sda1  /      ext4  errors=remount-ro  0 1
/dev/sda2  none   swap  sw                 0 0
/dev/sr0   /media/cdrom0  udf,iso9660  user,noauto  0 0

En entornos modernos es habitual usar directorios bajo /media para discos de usuario, /mnt para montajes temporales o específicos y, por supuesto, subdirectores del árbol del sistema como /home, /var, /boot o /srv para particiones dedicadas. Si el punto de montaje contiene espacios, hay que escaparlos con \040, p. ej. /home/usuario/Mis\040fotos.

Campo 3: tipo de sistema de archivos

El tercer campo especifica el tipo de sistema de archivos que se va a montar. Linux soporta una gran variedad: ext2/3/4, xfs, btrfs, f2fs, vfat, ntfs, hfsplus, iso9660, udf, tmpfs, nfs, cifs, squashfs y muchos más. También se usa swap para áreas de intercambio y none para montajes especiales como bind o move mounts.

Puedes usar auto para que mount intente deducir el tipo automáticamente, algo que tiene sentido sobre todo en medios ópticos o dispositivos extraíbles cuyo contenido puede cambiar. Para sistemas de red, se indican protocolos concretos (nfs, cifs, fuse.sshfs, etc.).

Hay casos en los que se puede indicar una lista de tipos separados por comas (por ejemplo udf,iso9660 en una unidad de DVD) para que el comando mount vaya probando hasta encontrar el que corresponde al medio insertado.

Campo 4: opciones de montaje

El cuarto campo es uno de los más ricos: una lista de opciones separadas por comas que ajustan el comportamiento del montaje. Se pueden combinar opciones genéricas, específicas del kernel, de rendimiento y propias de cada sistema de archivos. Si lo dejas vacío, la convención es usar al menos la palabra clave defaults.

Opciones básicas e independientes del sistema de archivos

  • defaults: agrupa un conjunto de valores por defecto, normalmente rw,suid,dev,exec,auto,nouser,async. Algunas distribuciones añaden de serie soporte ACL u otros ajustes en determinados sistemas de archivos.
  • auto / noauto: con auto, el sistema de archivos se monta automáticamente al arrancar o con mount -a. Con noauto, solo se monta si se indica explícitamente; útil para unidades ópticas o particiones que solo quieres montar a demanda.
  • rw / ro: fuerza el montaje en modo lectura-escritura o solo lectura. Marcar algo como rw puede ser útil cuando el sistema o el driver tienden a montarlo solo lectura por defecto, como ocurre en ciertos casos con NTFS o medios extraíbles (ver pendrive protegido contra escritura).
  • exec / noexec: permite o bloquea la ejecución de binarios en ese sistema de archivos. noexec suele usarse en particiones donde no necesitas programas ejecutables (por ejemplo, algunos /var o particiones de datos), añadiendo una capa de seguridad.
  • dev / nodev: controla si se interpretan dispositivos especiales (carácter y bloque) dentro del sistema de archivos.
  • suid / nosuid: activa o desactiva el efecto de los bits SUID y SGID. Con suid puedes permitir que binarios concretos se ejecuten con privilegios elevados de forma controlada; con nosuid bloqueas esa posibilidad.
  • user, users, nouser: determinan quién puede montar y desmontar. user permite a un usuario normal montar el sistema de archivos (y solo él podrá desmontarlo), mientras que users permite que cualquiera del grupo adecuado lo desmonte. En ambos casos se asume por defecto noexec,nosuid,nodev a menos que lo sobrescribas. nouser restringe el montaje únicamente a root.
  • owner (en Linux): permite que el propietario del dispositivo (no necesariamente root) pueda montarlo.
  • sync / async: definen si las operaciones de entrada/salida se realizan de forma sincrónica o asíncrona. sync fuerza que los datos se escriban físicamente en cuanto se realiza cada operación (útil en floppies, ciertos medios extraíbles o en contextos muy delicados); async (por defecto) mejora el rendimiento permitiendo que el sistema agrupe escrituras.
  • noatime, nodiratime, relatime, strictatime, lazytime (Linux): controlan cómo se actualiza la marca de acceso (atime) en los inodos de ficheros y directorios. Reducir estas escrituras puede mejorar notablemente el rendimiento y disminuir desgaste en SSD (ver cómo alargar la vida de la tarjeta SD).
  • nofail: evita que el sistema marque como error crítico el fallo al montar ese dispositivo. Muy útil para discos externos o particiones secundarias que pueden no estar presentes; evita que fallen comprobaciones en el arranque.
  • _netdev: indica que el sistema de archivos depende de la red (por ejemplo NFS), para que los montajes se ordenen después de que la red esté operativa.

Opciones específicas para sistemas de archivos comunes

Cada tipo de sistema de archivos tiene su colección de opciones propias (rendimiento, seguridad, conversión de nombres, etc.), documentadas en man mount y en los manuales específicos. Algunos ejemplos habituales en FAT/NTFS y otros:

  • uid=, gid=: fijan el identificador de usuario y grupo propietario de todos los ficheros, en sistemas sin permisos POSIX nativos como FAT o NTFS.
  • umask=, dmask=, fmask=: ajustan las máscaras de permisos para directorios y ficheros en esos sistemas.
  • windows_names: restringe los nombres de fichero a los válidos en Windows, útil en ciertos montajes compartidos.
  • check=: en algunos drivers, ajusta el nivel de comprobación de fsck para ese sistema de archivos.
  • conv=: opciones de conversión de texto DOS⇔UNIX en algunos tipos de montajes.

En sistemas como ext3/ext4, muchas opciones por defecto se pueden ajustar a nivel de sistema de archivos con herramientas como tune2fs. Red Hat y otras distribuciones suelen habilitar ACL por defecto en particiones críticas como la raíz, mientras que en otras quizás tengas que activarlas explícitamente.

Opciones especiales de systemd para montajes

En sistemas con systemd, muchas opciones clásicas de montaje se pueden afinar con parámetros especiales en fstab que systemd interpreta al generar unidades de montaje:

  • x-systemd.automount: crea una unidad de automontaje. El sistema de archivos se montará realmente solo cuando se acceda por primera vez, mientras que el kernel almacena las peticiones hasta que el montaje termina. Muy útil para grandes particiones de /home o volúmenes que tardan en comprobarse.
  • x-systemd.mount-timeout=<segundos>: limita cuánto esperar a que se complete el montaje. Un valor de 0 indica espera indefinida; conviene usarlo con cuidado.
  • x-systemd.idle-timeout=<tiempo>: combinado con automount, permite desmontar automáticamente un sistema de archivos tras un período de inactividad, por ejemplo x-systemd.automount,x-systemd.idle-timeout=1min.
  • x-systemd.device-timeout=<segundos>: controla cuánto se espera a que el dispositivo aparezca; especialmente útil en discos externos configurados con nofail.

p>

Además, al modificar fstab en sistemas systemd, es recomendable lanzar systemctl daemon-reload para que los cambios se tengan en cuenta por todos los servicios y generadores.

Campo 5: integración con dump (copias de seguridad)

El quinto campo, dump o fs_freq, indica si la utilidad dump debe incluir ese sistema de archivos en sus copias de seguridad periódicas. En la práctica moderna se usa poco, pero la sintaxis se mantiene:

  • 0: el sistema de archivos se ignora; no se hará backup con dump.
  • 1: el sistema de archivos es candidato a ser respaldado.

Dado que muchas distribuciones ni siquiera instalan dump por defecto, lo habitual es dejar 0 en casi todas las líneas, salvo que uses explícitamente este esquema de copias.

Campo 6: orden de comprobación fsck en el arranque

El último campo, pass o fs_passno, controla en qué orden fsck revisará los sistemas de archivos durante el arranque. Sus valores típicos son:

  • 0: no se comprueba en el arranque.
  • 1: prioridad máxima, reservado para el sistema de archivos raíz /.
  • 2: resto de sistemas de archivos que quieras comprobar.

Las particiones en el mismo disco se revisan de forma secuencial, mientras que las de discos distintos se pueden comprobar en paralelo para aprovechar mejor el hardware. Aunque el propio sistema de archivos puede tener su política interna de chequeos (por ejemplo, cada N montajes o cada X días), esta bandera decide si participa o no en el proceso de comprobación al inicio.

Ejemplos prácticos de fstab

Veamos ejemplos que reúnen distintas ideas vistas hasta ahora:

# Sistema básico con UUID y etiqueta
# <file system>              <mount point>  <type>  <options>                <dump> <pass>
UUID=d3b4...ce1              /              ext4    errors=remount-ro          0      1
LABEL=Intercambio           none           swap    sw                          0      0
/dev/sr0                    /media/cdrom0  udf,iso9660 user,noauto             0      0

Gestión práctica: comandos útiles y automontaje

Para inspeccionar el contenido actual de fstab, basta con:

cat /etc/fstab

Si quieres listar particiones, tipos, etiquetas y UUID, puedes tirar de:

lsblk -flsblk -o NAME,UUID,TYPE,MOUNTPOINTblkid

Cuando edites /etc/fstab, es prudente hacer copia de seguridad, por ejemplo:

sudo cp /etc/fstab /etc/fstab.bak

Y edición con tu herramienta favorita: nano en consola, gedit en GNOME, kate en KDE, etc. Muchas distribuciones proporcionan alias cómodos, como:

sudo nano -Bw /etc/fstab

La opción -B crea una copia de seguridad (sufijo ~) y -w evita partir líneas largas visualmente.

Una vez modificado, puedes probar las entradas sin reiniciar con:

sudo mount -a

Este comando intenta montar todos los sistemas de archivos definidos en fstab que tengan la opción auto. Si hay un error de sintaxis u opción inválida, lo verás aquí sin jugarte el arranque. Para verificar de forma más sistemática, findmnt --verify --verbose analiza fstab y avisa de opciones o campos no válidos.

Si alguna vez el sistema monta la raíz en solo lectura por algún problema, siempre puedes remediarlo (si tienes acceso) con:

sudo mount -o remount,rw /

fstab, systemd y montajes avanzados

En distribuciones modernas donde manda systemd, el contenido de /etc/fstab se traduce internamente en unidades de tipo mount y .automount. El generador systemd-fstab-generator lee el fichero en cada arranque y cuando recargas la configuración del demonio. De esta forma, systemd se encarga de que las unidades de montaje respeten dependencias como la red, el cifrado previo o la disponibilidad del dispositivo.

Para sistemas cifrados, hay otra pieza clave: /etc/crypttab. Si tienes volúmenes cifrados adicionales (no el de raíz) con ficheros de clave, puedes usar opciones como nofail también en crypttab y en las entradas asociadas de fstab para que el sistema no se bloquee esperando a que se desbloqueen volúmenes secundarios que no son críticos al inicio. En esos casos, conviene ajustar también los tiempos de espera con x-systemd.mount-timeout=0 o x-systemd.device-timeout según el caso.

Además, con particionado GPT y siguiendo la Discoverable Partitions Specification, systemd puede montar de forma automática ciertas particiones estándar (por ejemplo, la ESP o volúmenes de datos bien etiquetados) sin que las declares en fstab. Si aun así quieres personalizar opciones para una de esas particiones automáticas, puedes usar identificadores tipo /dev/disk/by-designator/ en fstab y fijar, por ejemplo, noatime o discard.

En el día a día, toca también convivir con unidades externas. Si quieres que se monten cuando estén presentes, pero que el arranque no falle si no lo están, la receta típica pasa por combinar nofail con un x-systemd.device-timeout corto, algo así:

LABEL=MyExternalDrive /media/backup jfs nofail,x-systemd.device-timeout=5 0 2

Así evitas esperas eternas si el disco no está conectado, y el sistema arranca tan tranquilo.

Mirado con calma, /etc/fstab es mucho más que una simple lista de discos: es la columna vertebral que define cómo se ensamblan tus particiones locales, tus recursos de red y tus volúmenes cifrados en un único árbol de directorios coherente. Dominar sus seis campos, las distintas formas de identificar dispositivos y las opciones clave de montaje (tanto clásicas como específicas de systemd) te da un control fino sobre rendimiento, seguridad y fiabilidad del sistema, y te evita sorpresas cada vez que añades un disco, mueves cables o montas un nuevo recurso compartido.

from Linux Adictos https://ift.tt/4MVweUX
via IFTTT

De DuckDuckGo a Startpage: una mirada profesional a la privacidad en la búsqueda

De DuckDuckGo a Startpage

A principios de los 2010, todo el mundo usaba Google para buscar. Poco después salieron a la luz varios escándalos, casi todos ellos, por no decir todos, preocupantes para la privacidad. También por aquel entonces empezó una pequeña guerra entre Google y Apple (los de Cupertino crearon sus Mapas y eliminaron los de Google y YouTube como apps por defecto en iOS 6), por lo que muchos decidimos cambiar de buscador. El principal beneficiado fue DuckDuckGo, sin lugar a dudas.

Por mi parte, yo hice varias pruebas. Primero usé Yahoo!, pero tuvo varios problemas con las contraseñas, llegando al punto de que cambié mi sistema personal por el uso de gestores de contraseñas. Puedo contar cuál era aquel sistema porque ya no lo uso: el usuario era el mismo, una cuenta de correo que tampoco uso ya, y la contraseña era el nombre de la web con consonantes en mayúsculas y vocales en minúsculas seguido de mi fecha de nacimiento completa. Más tarde usé Bing, pero Microsoft como compañía no es mucho mejor que Google, y finalmente me pasé a DuckDuckGo.

Los !bangs de DuckDuckGo son su mejor baza…

Cuando uno cambia a algo nuevo, todo lo que ve es bueno. Los resultados de DuckDuckGo no son tan malos, por lo que me quedé ahí. Además, cuando lo usas un tiempo y te enteras de que usa algo llamado !bangs, ya no quieres otra cosa. Hace varios años escribí sobre ello, dejando claro que esto de los !bangs es algo muy productivo.

¿Qué es un !bang? Es un poco como una onomatopeya de algo muy rápido («boom, aquí lo tienes»). Por ejemplo, si quieres buscar gatitos en YouTube, pones «!yt gatitos» sin las comillas en la barra de URL y te busca «gatitos» dentro de youtube.com. Así hay cientos, y es fácil acostumbrarse.

… pero no son exclusiva suya

Los !bangs son una idea tan buena que también los encontramos en Brave Search, Yandex, Ecosia y Kagi, entre otros. Básicamente, todos los buscadores que quieren ayudarnos, y entre ellos no está Google ni, por lo menos de momento, mi elección como nuevo buscador por defecto.

Además, hay extensiones de navegador, como Yang! (aquí el enlace a la versión de Firefox) que añaden los !bangs si un buscador no es compatible.

Startpage es mi nuevo buscador por defecto

Lo que ha pasado recientemente es que me he dado cuenta de que perdía tiempo usando DuckDuckGo. Sus resultados son mejor si somos usuarios «geeks» o frikis de la tecnología, ya que muestra mucho de Reddit, Stack Overflow y similares. Pero últimamente estaba usando mucho «!g búsqueda», lo que significa que, si tengo que buscar en otro motor constantemente, no encajo en el perfil de usuario de DuckDuckGo.

Así que pensé en volver a Google, pero es que no quiero. Luego recordé a Startpage, que básicamente muestra los resultados de Google, pero de manera privada. Tienen un acuerdo con ellos, y también con Bing para completar (los resultados son de Google; Bing sólo completa, hay que dejarlo claro), y es una realidad. Así que mi elección personal en la actualidad es Startpage.

Además de los resultados de búsqueda, Startpage nos permite visitar las webs de manera anónima. Con esto aumentamos la privacidad, y a veces nos podemos saltar algún bloqueo.

Lo malo de Startpage es que no permite el uso de !bangs, por lo que he tenido que instalar una extensión en mis navegadores web, concretamente la mencionada Yang!. Yang! permite usar los !bangs de DuckDuckGo, aunque por defecto usa los de Kagi. Tras mirar lo que hay disponible, de momento no he necesitado los del pato, y hasta creo que para un uso general, los de Kagi son más intuitivos y fáciles de usar.

No he dejado DuckDuckGo del todo

Todo este artículo no es un ataque a DuckDuckGo. Es sólo para hablar de otras opciones, sobre todo si no se cumple con un perfil en concreto. Pero yo sigo usando el pato para algunas cosas. Por ejemplo, sus resultados de vídeos, que permiten ver el contenido de YouTube sin cookies ni publicidad. También tengo varias búsquedas personalizadas para resumir páginas y que me explique algo su DuckAI.

El pato tiene mucho bueno, pero yo no encajo bien en el perfil de uno de sus usuario. Por lo tanto, he tenido que buscarme alternativas como buscador por defecto.

from Linux Adictos https://ift.tt/vLuSxEm
via IFTTT