Rosenpass, un proyecto de VPN que promete resistir ataques por computadoras cuánticas

Rosenpass

Rosenpass es una importante precaución contra lo que está por venir:

Hace poco se dio a conocer la noticia de que un grupo de investigadores, desarrolladores y criptógrafos alemanes ha publicado la primera versión del proyecto Rosenpass, que desarrolla VPN y mecanismos de intercambio de claves que son resistentes a los ataques de computadoras cuánticas.

Rosenpass utiliza bajo el capo la VPN de WireGuard junto a algoritmos y claves de cifrado estándar que se utiliza como transporte y lo complementa con herramientas de intercambio de claves protegidas contra hackeo en computadoras cuánticas (es decir, Rosenpass protege adicionalmente el intercambio de claves sin cambiar los algoritmos de operación y los métodos de cifrado de WireGuard).

Rosenpass también se puede usar por separado de WireGuard en forma de una herramienta genérica de intercambio de claves adecuada para proteger otros protocolos de ataques a computadoras cuánticas.

Sobre Rosenpass

Rosenpass está escrita en Rust y usa liboqs 1 y libsodium 2, la herramienta establece una clave simétrica y se la proporciona a WireGuard. Dado que proporciona a WireGuard una clave a través de la función PSK, el uso de Rosenpass+WireGuard no es criptográficamente menos seguro que el uso de WireGuard solo («seguridad híbrida»).

Actualmente se está trabajando para verificar formalmente el protocolo, los algoritmos criptográficos y la implementación para proporcionar una prueba matemática de confiabilidad. De momento, utilizando ProVerif, ya se ha realizado un análisis simbólico del protocolo y su implementación básica en el lenguaje Rust.

El protocolo Rosenpass se basa en el mecanismo de intercambio de claves autenticado post-cuántico PQWG (Post-quantum WireGuard), construido empleando el criptosistema McEliece, que resistente a la fuerza bruta en una computadora cuántica. La clave generada por Rosenpass se utiliza en forma de clave simétrica compartida (PSK, clave precompartida) WireGuard, implementando una capa adicional para la protección de la conexión VPN híbrida.

Rosenpass asigna dos puertos UDP; si se especifica el puerto N para rosenpass, asignará el puerto N+1 para WireGuard.

Al igual que WireGuard, Rosenpass no impone ninguna separación entre clientes y servidores. Si no especifica la listenopción, Rosenpass y WireGuard elegirán puertos aleatorios; este es el modo cliente. Si no especifica endpoint, Rosenpass no intentará conectarse con el par y, en su lugar, esperará las conexiones de los pares. Este es el modo servidor . Puede especificar ambos. Omitir ambos no está prohibido pero tampoco es muy útil.

Rosenpass proporciona un proceso en segundo plano independiente que se utiliza para generar claves WireGuard predefinidas e intercambios de claves seguras durante el proceso de reconocimiento mediante técnicas de criptografía poscuántica.

Al igual que WireGuard, las claves simétricas en Rosenpass se actualizan cada dos minutos. Para proteger la conexión, se usan claves compartidas (en cada lado, se genera un par de claves públicas y privadas, después de lo cual los participantes se transfieren las claves públicas entre sí).

Al igual que con cualquier aplicación, existe un pequeño riesgo de problemas críticos de seguridad (como desbordamientos de búfer, ejecución remota de código); la aplicación Rosenpass está escrita en el lenguaje de programación Rust, que es mucho menos propenso a este tipo de problemas. Rosenpass también puede escribir claves en archivos en lugar de proporcionarlas a WireGuard. Con un poco de secuencias de comandos, el modo independiente de la implementación se puede usar para ejecutar la aplicación en un Contenedor, VM u otro host. Este modo también se puede emplear para integrar herramientas distintas de WireGuard con Rosenpass.

Cabe mencionar que Rosenpass cuenta con algunos inconvenientes; se ejecuta como root, lo que exige acceso a las claves privadas de WireGuard y Rosenpass, toma el control de la interfaz y funciona exactamente con una interfaz. Si no está seguro de ejecutar Rosenpass como root, debe usar el modo independiente para crear una configuración más segura usando contenedores, cárceles o máquinas virtuales.

El código del kit de herramientas está escrito en Rust y se distribuye bajo las licencias MIT y Apache 2.0. Los algoritmos criptográficos y las primitivas se toman prestados de las bibliotecas C liboqs y libsodium.

El código base publicado se posiciona como una implementación de referencia: en función de las especificaciones proporcionadas, se pueden desarrollar opciones de herramientas alternativas utilizando otros lenguajes de programación.

Finalmente si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.

from Linux Adictos https://ift.tt/WP5SqHX
via IFTTT

Tras adelantarse a sus competidores integrando ChatGPT en Bing, Satya Nadella ataca a todos los asistentes de voz, incluida Cortana

Satya Nadella y ChatGPT

Cuando acabamos de escribir un artículo que critica tímidamente a las inteligencias artificiales con ChatGPT a la cabeza, nos hemos enterado de una noticia en la que Satya Nadella, CEO de Microsoft, hizo un poco lo mismo con todos los asistentes de voz que hay en el mercado. Lo hizo en una entrevista en The Financial Times, y la palabra que ha usado para definirlos ha sido «tontos».

Nadella dijo el mes pasado que todos eran «tontos como una piedra«, y el primero en mencionar fue el suyo, Cortana, que estuvo presente en los móviles con Windows Phone y también en Windows 10, pero muy pocos han usado. En la misma frase hubo espacio para el resto de asistentes, como Alexa, Google Assistant y Siri, y dijo que sencillamente no funcionan; que se suponía que iban a cambiarlo todo, pero no funcionó.

¿Tiene razón Satya Nadella?

Creo que hay que examinar la situación y entender un poco las cosas. El CEO de Microsoft no pretendió dar una puntada sin hilo. Su compañía invirtió miles de millones en ChatGPT, y ya está integrado en Bing si usas Windows y Edge. Así que, en mi opinión, más que criticar a los asistentes de voz que encontramos en los dispositivos más populares, su intención es hablar bien de su nueva inversión.

Hay una cosa en la que sí tiene razón: los asistentes a los que él llama tontos lo son un poco. No se pueden mantener conversaciones con ellos, hasta el punto de que muchas veces nos muestran resultados de Internet que podrían interesarnos. Pero este tipo de asistentes no se diseñaron pensando en cambiarlo todo como afirma Nadella; se diseñaron para facilitarnos algunas gestiones. Están integrados en el sistema operativo, y su función es, por ejemplo, que le digamos que nos cree un recordatorio y lo haga; que le digamos que llame y lo haga; que le digamos que nos lea los mensajes y lo haga. Siempre desde mi punto de vista, no es que sean tontos; es que son para lo que son.

También es cierto que ChatGPT ha cambiado mucho las cosas, y que los asistentes deben mejorar por lo menos un poco para que no nos quede la sensación de que no sirven para nada, aunque sea sólo de cara al marketing. Y también tengo otra cosa clara: no voy a cambiarme a Windows y Edge porque Nadella lo diga, ya que, para mí, tonto tonto es su sistema operativo.

from Linux Adictos https://ift.tt/bCqFKjO
via IFTTT

Cuidado con ChatGPT y compañía: jamás reconocerá que no conoce una respuesta

ChatGPT y sus limitaciones

Cuando todos esperábamos esa Web 3.0 como el próximo gran avance en Internet, apareció el ya famosísimo ChatGPT que ha llegado a quitarle la corona de «santo» a Google, hasta el punto de que en Alphabet han activado el «código rojo» para no perder su posición dominante. Ahora mismo, ya somos muchos los que, en vez de realizar búsquedas con un buscador normal, preguntamos a ChatGPT, ya sea directa o indirectamente, pero hay que tener cuidado con lo que hacemos con las respuestas porque no siempre son precisas.

Cuando hablas con cualquiera que haya usado ChatGPT con frecuencia en las últimas semanas, te das cuenta de que piensa que es una buena herramienta, pero lo es más si conoces el tema sobre el que estás hablando. Dicho de otro modo, si no sabes nada del tema en cuestión, nos puede colar información incorrecta, e incluso perder el tiempo, ya que parece que no le han programado la modestia suficiente como para responder con un «no lo sé»; siempre responde, y siempre lo hace con autoridad, como si no pudiera equivocarse. Y no es así.

ChatGPT sólo llega hasta septiembre de 2021

Aunque también hace uso de otros medios, la base de datos histórica de ChatGPT sólo llega a septiembre 2021. Hace poco me puse a chatear con esta IA para debatir sobre letras de canciones. Mirando lo que tenía en mi Kodi, le pregunté sobre varias, una de ellas Avalanche, Avril Lavigne, 2022. Me dijo que no conocía esa letra, y me extrañó. Le pregunté sobre cuándo iba a salir el próximo disco de Metallica y se me empezó a «flipar»: me mencionaba el S&M2, y decía que era emocionante, pero es que ese disco salió en 2020, ya ni siquiera en 2021. Se supone que por la información de la que dispone, tendría que haberme respondido otra cosa.

Empecé a decirle que estaba equivocado, y que tuviera en cuenta que, aunque sabe en qué fecha estamos, su base de datos llega hasta 2021, así, como a modo de tirón de orejas, y no había manera de que reconociera que estaba cometiendo un error. O sí, me pedía disculpas por el malentendido, pero luego me volvía a dar la misma respuesta; no tiene ni idea de que en abril sale 72 Seasons, y eso que está en la Wikipedia y por todo Internet. Y sobre la canción Avalanche, me insistía de que era del disco Head Above The Water, de 2018; la metía en un disco incorrecto, no sé, por decir algo, y no se daba cuenta de la contradicción de decirme que no conoce una canción y al mismo tiempo en qué disco aparece, haciéndolo mal, claro.

Y cuidado con el código

De lo mejor que hace es ayudar con el código, pero ahí tampoco acierta siempre. A veces te da respuestas que pueden funcionar, pero que no son lo que buscas. Aquí parece que entra en juego el hacerle la pregunta lo más precisa posible, pero siempre tiene que decir algo. Recientemente le consulté sobre una cosa que no estaba pasando en un código que escribí y, tras pasarnos más de una hora probando cosas, le vuelvo a pasar el código que le había pasado al principio, y me dijo que me faltaba una orden o comando.

Y digo yo, si le dije el mismo «tengo esto», ¿por qué no me dio la respuesta correcta a la primera? Creo que la explicación está en que tiene que decir algo rápido que parezca correcto, aunque haya mejores opciones. Es cierto que al final dio con la solución, pero me hizo perder el tiempo realizando pruebas que no eran necesarias. Probablemente, examinando la conversación encontró el error, pero para mí habría sido mejor que en la primera respuesta se tomara su tiempo y todo habría sido más rápido.

Otras veces puedes decirle «¿esto funcionaría?» y te responde que sí, proporcionándote un código que no es exactamente el que tú le has pasado. Le pregunté sobre una consulta SQL para SQLite, me dijo que sí funcionaría y luego me puso el código añadiendo unos paréntesis al final que a mí se me habían olvidado. Se lo comenté, que entonces debería haberme dicho que no, que no iba a funcionar porque se me habían olvidado los paréntesis, y en ese momento pide perdón por haber omitido lo de los paréntesis y vuelve a darme la misma respuesta ya corregida, pero porque yo le he indicado el error antes.

ChatGPT y compañía necesitan mejorar

Está claro, o me lo parece a mí, que todo esto ha llegado para quedarse. Que está cambiando y aún va a cambiar más la manera en la que buscamos cosas e incluso hacemos trabajos, pero tiene que mejorar. De hecho, de esto ya avisan en el apartado «Limitations» de ChatGPT, pero ¿quién lee los términos de uso y todas estas cosas? El ser humano quiere las cosas, y las quiere ya. Pues en cuanto a información, vísteme despacio que tengo prisa, que ahora mismo no hay nada perfecto.

from Linux Adictos https://ift.tt/oi26GR0
via IFTTT

elementary OS 7 recibe sus primeras actualizaciones, como el menú de la app en Archivos

Archivos en elementary OS 7

Dado que alguna vez han hecho alguna encuesta para saber si la comunidad prefiere boletines mensuales o que publiquen información cuando tengan algo interesante, ya dudaba de que este mes hubiera boletín sobre este proyecto. Desconozco si la encuesta la ganaron los que pidieron boletines mensuales o Danielle Foré ha creído que tenían algo interesante que contar, pero el boletín de febrero llegó el 5 de marzo contando las primeras actualizaciones de elementary OS 7.

Este proyecto, dice Foré, va trabajando sobre el feedback que le da la comunidad, y entre las actualizaciones que ya han llegado para la última versión de este sistema operativo tenemos que Archivos ha añadido un nuevo menú de la aplicación en la cabecera. Es lo que hay en la captura de pantalla, en la ventana del gestor de archivos, y sale haciendo clic sobre el icono del engranaje. Este menú muestra opciones de hacer zoom, deshacer y rehacer, doble clic para navegar, ordenar las carpetas antes de los archivos y mostrar u ocultar archivos ocultos, entre otras. También han aprovechado el tiempo para corregir bugs.

Otras novedades que han llegado a elementary OS 7

El indicador de redes ha sido rediseñado y ahora ofrece una experiencia muy mejorada al usar VPNs. El nuevo diseño ocupa menos espacio en dispositivos con configuraciones de red complejas y muestra el estado de varias conexiones con mayor claridad. Además, se ha añadido un acceso rápido para el modo avión y se han introducido otras mejoras.

La gestión de ventanas ha mejorado el rendimiento y las animaciones, que ahora se pueden desactivar, y se han optimizado también aparatados como los gestos multi-táctiles. Hay una lista detallada en este enlace de GitHub sobre Gala 7.0.1.

AppCenter es el centro de software del que se sienten especialmente orgullosos, y con la última actualización se ha añadido la función Reparar Flatpak que repara un problema en donde los runtimes de Flatpak podrían no estar instalados. Por otra parte, la página de actualizaciones muestra ahora un pequeño mensaje cuando todo está actualizado, incluyendo la última vez que AppCenter comprobó las actualizaciones.

Para recibir todas estas novedades, hay que abrir AppCenter y hacer clic en «Actualizar Todo», a no ser que las actualizaciones se hayan aplicado antes por separado, que también es posible. De momento no hay nueva ISO para lo que sería elementary OS 7.0.1.

from Linux Adictos https://ift.tt/1wZjeKA
via IFTTT

CHERIoT,un proyecto de Microsoft para mejorar la seguridad en C

CHERIoT

CHERIoT, una opcion de MS para la seguridad para sistemas integrados

Hace poco se dio a conocer la noticia de que, Microsoft ha abierto los desarrollos relacionados con el proyecto CHERIoT (Capability Hardware Extension to RISC-V for Internet of Things), destinado a bloquear problemas de seguridad en código C y C++ existente. CHERIoT ofrece una solución para proteger las bases de código C/C++ existentes sin tener que refactorizarlas.

La protección se implementa mediante el uso de un compilador modificado que usa un conjunto extendido especial de instrucciones de procesador (ISA) proporcionado por el procesador y monitorea el acceso a la memoria a nivel de hardware, verifica la corrección del trabajo con punteros y proporciona aislamiento de bloques de código.

Sobre CHERIoT

El proyecto se creó con el entendimiento de que la naturaleza de bajo nivel del lenguaje C se convierte en una fuente de errores de memoria, lo que genera problemas como desbordamientos de búfer, acceso a memoria ya liberada, desreferenciación de punteros o liberación doble.

La práctica muestra que incluso las grandes corporaciones como Google y Microsoft, que tienen una política estricta de revisión de cambios y utilizan métodos de desarrollo modernos y herramientas de análisis estático, no pueden garantizar la ausencia de errores al trabajar con la memoria (por ejemplo, alrededor del 70 % de las vulnerabilidades en Microsoft y Google son causados ​​por el manejo inseguro de la memoria).

El problema se puede resolver mediante el uso de lenguajes de programación que garanticen un trabajo seguro con la memoria o enlaces con controles adicionales, por ejemplo, mediante el uso de MiraclePtr (raw_ptr) en lugar de punteros comunes, que realiza controles adicionales para acceder a las áreas de memoria liberadas.

Pero tales métodos son más adecuados para código nuevo y es bastante problemático volver a trabajar en proyectos C/C++ existentes, especialmente si están destinados a ejecutarse en entornos con recursos limitados, como sistemas integrados y dispositivos IoT.

Los componentes de hardware de CHERIoT están diseñados como un microcontrolador basado en la arquitectura RISC-V, implementando la arquitectura de procesador segura CHERI (Extensión de hardware de capacidad para RISC-V), proporcionando un modelo de acceso a memoria controlado.

Basado en la arquitectura del conjunto de instrucciones (ISA) proporcionada en CHERIoT, se construye un modelo de programación que garantiza la seguridad de trabajar con la memoria a nivel de objetos individuales, brinda protección contra el acceso memoria ya liberada e implementa un sistema de aislamiento ligero acceso a la memoria.

Este modelo de protección mediante programación se refleja directamente en el modelo de lenguaje C/C++, lo que permite que se use para proteger aplicaciones existentes (solo se requiere la recompilación y la ejecución en hardware compatible con ISA CHERIoT) .

La solución propuesta permite bloquear errores que causan fuera de los límites de un objeto en la memoria, no permite la sustitución de punteros (todos los punteros deben generarse a partir de punteros existentes), monitorea el acceso a la memoria después de la liberación (cualquier acceso a la memoria por un puntero incorrecto o un puntero que hace referencia a un objeto liberado genera una excepción).

Por ejemplo, el uso de CHERIoT permite, sin realizar cambios en el código, implementar la verificación automática de límites, rastrear la vida útil de las áreas de memoria y garantizar la integridad de los punteros en los componentes que procesan datos no confiables.

El proyecto incluye una especificación para una arquitectura de conjunto de instrucciones CHERIoT extendida, una implementación de referencia de una CPU RISC-V de 32 bits compatible con ISA CHERIoT y un conjunto de herramientas LLVM modificado.

Finalmente si estás interesado en poder conocer más al respecto, debes saber que los diagramas de prototipos de CPU y las descripciones de bloques de hardware en Verilog se distribuyen bajo la licencia Apache 2.0. El núcleo Ibex del proyecto lowRISC se utiliza como base para la CPU y el modelo de código CHERIoT ISA se define en el lenguaje Sail y se distribuye bajo la licencia BSD.

Adicionalmente, se propone un prototipo de sistema operativo en tiempo real CHERIoT RTOS , que brinda la capacidad de aislar compartimentos (compartment) incluso en sistemas embebidos con 256 MB de RAM.

El código CHERIoT RTOS está escrito en C++ y se distribuye bajo la licencia MIT. En forma de compartimentos, se diseñan los componentes básicos del sistema operativo, como el cargador de arranque, el programador y el sistema de asignación de memoria.

from Linux Adictos https://ift.tt/pvKzi6A
via IFTTT

GTK 4.10 ya fue liberado y estas son sus novedades

GTK4

GTK ​​ o The GIMP Toolkit​​ es una biblioteca de componentes gráficos multiplataforma para desarrollar interfaces gráficas de usuario

Después de seis meses de desarrollo, se dio a conocer el lanzamiento de la nueva versión del kit de herramientas multiplataforma para crear una interfaz gráfica de usuario, «GTK 4.10.0».

La nueva rama de GTK 4 se está desarrollando bajo un nuevo proceso de desarrollo que intenta proporcionar a los desarrolladores de aplicaciones una API estable y compatible durante varios años, que se puede usar sin temor a que las aplicaciones deban volver a trabajarse cada seis meses debido a los cambios de API en el próximo GTK.

Principales novedades de GTK 4.10

En esta nueva versión que se presenta de GTK 4.10, se destaca que se agregaron nuevas clases GtkColorDialog, GtkFontDialog , GtkFileDialog y GtkAlertDialog con la implementación de diálogos para seleccionar colores, fuentes y archivos, mostrando alertas. Las nuevas opciones se distinguen por la transición a una API más consistente y equilibrada que funciona en modo asíncrono (GIO async). Los nuevos cuadros de diálogo hacen uso de los portales de Freedesktop (xdg-desktop-portal) siempre que sea posible y estén disponibles, que se utilizan para proporcionar acceso a los recursos del entorno del usuario desde las aplicaciones de espacio aislado.

Otra de las novedades que se destaca de la nueva versión, es que se ha agregado un nuevo backend CPDB (Common Printing Dialog Backend), que proporciona controladores genéricos para usar en los diálogos de impresión. El soporte para el backend de impresión lpr utilizado anteriormente ha quedado obsoleto.

En el widget GtkFileChooserWidget con la implementación del cuadro de diálogo abierto para seleccionar archivos en aplicaciones, se implementa el modo de presentar el contenido de los directorios en forma de una red de iconos. De forma predeterminada, se sigue utilizando la vista de lista de archivos clásica y ha aparecido un botón separado en el lado derecho del panel para cambiar al modo de icono.

La biblioteca GDK, que proporciona una capa entre GTK y el subsistema de gráficos, propone la estructura GdkTextureDownloader , que se usa para cargar texturas en la clase GdkTexture y se puede usar para convertir varios formatos, se ha mejorado el escalado de textura usando OpenGL.

Ademas de ello, la biblioteca GSK (GTK Scene Kit), que brinda la capacidad de renderizar escenas gráficas a través de OpenGL y Vulkan, admite nodos con máscaras y filtrado personalizado de texturas escalables.

Tambien se destaca que se ha implementado el soporte para nuevas versiones de las extensiones del protocolo Wayland, pues la salida fue mejorada en las notificaciones de inicio cuando se utiliza el protocolo «xdg-activation» y que se resolvieron problemas con el tamaño del cursor en pantallas con alta densidad de píxeles.

De los demás cambios que se destacan de la nueva versión:

  • La clase GtkMountOperation se ha adaptado para trabajar en entornos que no sean X11.
  • Se agregó soporte para ventanas modales al backend de Broadway, lo que le permite dibujar la salida de la biblioteca GTK en una ventana del navegador web
  • La clase GtkFileLauncher propone una nueva API asíncrona para reemplazar gtk_show_uri
  • Manejo mejorado de plantillas en gtk-builder-tool.
  • El widget GtkSearchEntry ha agregado soporte para que se muestre texto de relleno cuando el campo está vacío y no hay foco de entrada.
  • La clase GtkUriLauncher se agregó para reemplazar la función gtk_show_uri , que se usa para determinar qué aplicación iniciar para mostrar un URI determinado o para generar un error si no hay un controlador presente
  • En la clase GtkStringSorter , se ha agregado soporte para varios métodos de «intercalacion» que permiten la intercalación y clasificación según el significado de los caracteres (por ejemplo, si hay un signo de acento).
  • Una gran parte de las API y los widgets han quedado en desuso, que se decidió no admitir en la futura rama GTK5 y que se reemplazaron con análogos que funcionan en modo asíncrono
  • Transferido a la interfaz pública GtkAccessible , que le permite conectar controladores de elementos de interfaz de terceros para personas con discapacidades. Se agregó la interfaz GtkAccessibleRange .
  • En macOS, se proporciona soporte para arrastrar y soltar (DND, Drag-and-Drop).
  • En Windows, se ha mejorado la integración con la configuración del sistema.
  • Formato de salida de depuración unificado.
  • El límite de memoria para el cargador de imágenes JPEG se elevó a 1 GB.

Finalmente si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.

 

from Linux Adictos https://ift.tt/boGAJtc
via IFTTT

Nitrux 2.7.0 llega con una nueva imagen con Maui Shell

Nitrux

Nitrux continua con la migración hacia Maui Shell

Se dio a conocer hace poco el lanzamiento de la nueva versión de la distribución de Linux, «Nitrux 2.7.0», la cual su principal novedad es la introduccion de una nueva imagen del sistema construida con Maui Shell, actualizaciones y más.

Para quienes desconocen de esta distribución, deben saber que está construida sobre la base del paquete Debian, las tecnologías KDE y el sistema de inicio OpenRC. Esta distribución se destaca por el desarrollo de su propio escritorio «NX», que es un complemento sobre el entorno KDE Plasma del usuario, además de que el proceso de instalación de aplicaciones está basado en el uso de paquetes AppImages.

El escritorio NX ofrece un estilo diferente, su propia implementación de la bandeja del sistema, el centro de notificaciones y varios plasmoides, como un configurador de conexión de red y un subprograma multimedia para control de volumen y control de reproducción de medios.

Entre las aplicaciones creadas con el marco MauiKit, se puede mencionar el administrador de archivos Index (también se puede usar Dolphin), el editor de texto Note, el emulador de terminal Station, el reproductor de música VVave, el reproductor de video Clip, el control de aplicaciones NX Software Center center y el visor de imágenes Pix.

El entorno de usuario de Maui Shell está evolucionando en torno al concepto de «Convergencia», lo que significa que las mismas aplicaciones se pueden usar en pantallas táctiles de teléfonos inteligentes y tabletas, así como en pantallas grandes de computadoras portátiles y PC.

Principales novedades de Nitrux 2.7

En esta nueva versión que se presenta de Nitrux 2.7, podremos encontrar que los componentes de NX Desktop se han actualizado a KDE Plasma 5.27.2, KDE Frameworks 5.103.0 y KDE Gear (KDE Applications) 22.12.3.

Mientras que por la parte de las versiones de software actualizadas, los paquetes que se destacan son las actualizaciones que incluyen Mesa 23.1-git, Firefox 110.0.1 y controladores NVIDIA 525.89.02.

Otro de los cambios que se destaca de esta nueva versión, es que de forma predeterminada, el kernel de Linux 6.1.15 con parches de Liquorix está habilitado.

Ademas de ello, tambien se menciona que esta nueva versión la composición incluye los paquetes con OpenVPN y open-iscsi, asi como tambien que se eliminaron los archivos ejecutables con las utilidades de administración de paquetes de la imagen en vivo (el instalador de Calamares puede instalar el sistema y ellos, y son superfluos en una imagen en vivo estática).

El Centro de software NX se ha reconstruido con MauiKit, ademas de que se ha comenzado con la formación de una imagen ISO separada con Maui Shell, la cual cuenta con las versiones actualizadas de MauiKit 2.2.2, MauiKit Frameworks 2.2.2, Maui Apps 2.2.2 y Maui Shell 0.6.0.

Esta nueva compilación ofrecida todavía está posicionada para demostrar las capacidades del nuevo shell y las aplicaciones disponibles. El programa incluye Agenda, Arca, Bonsai, Booth, Buho, Clip, Communicator, Fiery, Index, Maui Manager, Nota, Pix, Shelf, Station, Strike y VVave.

Finalmente si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.

Descargar la nueva versión de Nitrux

Si quieren descargar esta nueva versión de Nitrux 2.6, deberán de dirigirse a la página web oficial del proyecto en donde podrán obtener el enlace de descarga de la imagen del sistema y la cual podrán grabar en un USB con ayuda de Etcher. Nitrux está disponible para su descarga inmediata desde el siguiente enlace. El tamaño completo de la imagen de arranque es de 3,2 GB (NX Desktop) y 2,6 GB (Maui Shell).

Para aquellos que ya se encuentran sobre una versión anterior de la distribución, pueden hacer la actualización a la nueva versión, tecleando los siguientes comandos:

sudo apt update

sudo apt install --only-upgrade nitrux-repositories-config amdgpu-firmware-extra

sudo apt install -o Dpkg::Options::="--force-overwrite" linux-firmware/trixie

sudo apt dist-upgrade

sudo apt autoremove

sudo reboot

En cuanto a los que cuentan con una versión anterior de la distribución, pueden realizar la actualización del Kernel tecleando alguno de los siguientes comandos:

sudo apt install linux-image-mainline-lts
sudo apt install linux-image-mainline-current

Para los que estén interesados en poder instalar o probar los kernels Liquorix y Xanmod:

sudo apt install linux-image-liquorix
sudo apt install linux-image-xanmod-edge
sudo apt install linux-image-xanmod-lts

Finalmente para los que prefieren el uso de los kernels Linux Libre LTS y no LTS más recientes:

sudo apt instalar linux-image-libre-lts
sudo apt instalar linux-image-libre-curren

from Linux Adictos https://ift.tt/tcseCmW
via IFTTT

En SUSE siguieren dejar de usar utmp para abordar el problema Y2038 en Glibc

Y2038

El problema del año 2038 podría causar que una parte del software falle en ese año. El problema afecta a los programas que usen la representación del tiempo basada en el sistema POSIX

Thorsten Kukuk, líder del Equipo de Future Technology de SUSE (Equipo de tecnología futura, desarrolla openSUSE MicroOS y SLE Micr ), quien anteriormente dirigió el proyecto SUSE LINUX Enterprise Server durante 10 años, sugirió deshacerse del archivo /var/run/utmp en distribuciones para abordar completamente el problema Y2038 en Glibc.

Con ello se propone mover todas las aplicaciones que usan utmp, wtmp y lastlog para obtener una lista de usuarios que usan systemd-logind.

El 19 de enero de 2038, se desbordarán los contadores de tiempo de época especificados por el tipo time_t de 32 bits. En Glibc, a pesar de la introducción del tipo time_t de 64 bits, para mantener la compatibilidad con aplicaciones de espacio de usuario de 32 bits, el tipo time_t de 32 bits todavía se usa en algunos casos en plataformas de 64 bits.

Hay dos problemas principales con utmp/utmpx con glibc en, por ejemplo, x86-64:

Se utiliza un campo time_t de 32 bits para la hora, que se desbordará en 2038
Hay problemas de diseño que permiten un ataque DoS ( el bloqueo de utmp/wtmp permite que un usuario sin privilegios niegue el servicio )
Un análisis del segundo problema por parte de los desarrolladores de glibc mostró que sería necesario un demonio adicional que maneje el acceso utmp/utmpx.

Aun que hay algunos problemas más…

Uno de esos casos es el archivo /var/run/utmp, que almacena datos sobre los usuarios actualmente conectados al sistema. El campo de tiempo en utmp se establece utilizando un valor time_t de 32 bits.

Se menciona que, simplemente cambiar un campo en utmp con el tiempo de un tipo de 32 bits a uno de 64 bits no funcionará, ya que esto cambiará la Glibc ABI (el tipo cambiará en funciones como login(), getutid() y utmpname()) y rompa la compatibilidad con aplicaciones que usan utmp, incluidas w, who, uptime, login, su, sudo, useradd, systemd, sysvinit, tcsh, xterm display managers, emacs, openssh, qemu, samba, rsyslog, etc.

Debido a la abundancia de posibles escollos y laboriosidad, los desarrolladores de Glibc rechazaron la idea de reemplazar la longitud de bits del tipo time_t en utmp. Por la misma razón, se eliminó la opción de usar el espacio disponible en la estructura utmp para agregar un campo de tiempo adicional de 64 bits.

Además, cambiar la profundidad de bits del tipo en utmp no resuelve otros problemas existentes, por ejemplo, escribir en utmp requiere permisos especiales, lo que requiere que se otorguen privilegios adicionales a los procesos. Otro problema es que la arquitectura utmp permite a los usuarios locales realizar ataques DoS que rompen el servicio utmp mediante la manipulación de bloqueos de archivos, lo que hace imposible estar seguro de que el contenido de utmp refleje el estado real del sistema.

Se propuso usar un proceso en segundo plano adicional para manejar el acceso a utmp, pero para tales tareas ya existe un proceso systemd-logind y no es recomendable iniciar otro proceso especializado (las aplicaciones tendrán que transferir datos a dos controladores al mismo tiempo).

Al mismo tiempo, incluso al resolver el problema con los ataques DoS, el contenido de utmp sigue siendo solo informativo, sin garantizar un reflejo de la realidad.

Por ejemplo, diferentes emuladores de terminales y multiplexores reflejan su estado de manera diferente: ejecutar cinco terminales GNOME dará como resultado que un usuario se refleje en utmp, mientras que ejecutar cinco terminales konsole o xterm en KDE dará como resultado seis. Del mismo modo, el comportamiento de screen y tmux difiere, en el primer caso cada sesión se cuenta como un usuario independiente y en el segundo solo se refleja un usuario para todas las sesiones.

Como resultado, como la solución más simple, se propone transferir todas las aplicaciones para usar el servicio systemd-logind alternativo ya existente y, después de que no haya programas reales que accedan a utmp, dejar de escribir en utmp. Para reemplazar wtmp, se propone preparar API para escribir y leer información sobre los usuarios que usan systemd-journald.

Finalmente, cabe mencionar que la base de código para la próxima versión de systemd 254 ya incluye las funciones necesarias para proporcionar datos utmp de reemplazo a través de libsystemd usando la API sd-login.h o a través de DBUS.

Si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.

from Linux Adictos https://ift.tt/107X9p3
via IFTTT

LibreELEC 11 ya disponible, basado en Kodi 20 Nexus y soporte mejorado para x86_64

LibreELEC 11.0 basado en Kodi 20

Hace un tiempo no le veía mucho sentido a sistemas como este, pero para mí todo cambió con los problemas de Python en la versión para Linux. Para que funcionaran algunos complementos de este famoso centro multimedia en el sistema operativo que usamos los editores y mayoría de lectores LXA había que darse un paseo por algunas configuraciones de Python, pero esos problemas parecieron quedar atrás con la última versión. Para evitar problemas de compatibilidad me creé un pendrive con este sistema operativo, y pronto actualizaré el software de ese pendrive a LibreELEC 11 estable, disponible desde hace unos instantes.

Ya hacía tiempo que se podía probar como beta, y de hecho yo tenía mi USB con esa versión preliminar, pero hoy se ha anunciado el lanzamiento de LibreELEC 11, ya basado en el último Kodi 20.0 Nexus. Sus desarrolladores avisan de que no se actualizará automáticamente desde 10.0, pero se puede actualizar manualmente desde los ajustes de configuración de LibreELEC. También informan de que las versiones anteriores (<19) deberán instalar desde cero por el salto que se dio a Python 3, o más concretamente por haberse abandonado el soporte para Python 2.x.

Novedades de LibreELEC 11.0

Aunque está construido sobre un sistema operativo virtualmente completo, LibreELEC tiene lo justo para que funcione Kodi, y casi todas las novedades que incluye LibreELEC 11.0 se comparten con la última versión del centro multimedia. Para más información sobre Kodi 20.0, podéis leer el artículo que publicamos el pasado enero. Las novedades de LibreELEC 11.0 van un poco de la mano de dónde se va a usar, y por ejemplo se ha mejorado el soporte para la imagen de x86_64:

La imagen genérica ejecuta ahora la misma pila de gráficos GBM/V4L2 que utilizamos desde hace tiempo con las plataformas ARM. Ahora soporta HDR con GPUs AMD e Intel recientes. Hemos añadido una imagen Generic-Legacy que ejecuta la antigua pila de gráficos X11 utilizada en LE v7-v10. Puede actualizar entre las imágenes GBM y X11 sin problemas.

LibreELEC 11.0 ya está disponible en la página de descargas del proyecto. Se puede grabar en tarjetas SD o un USB con su herramienta propia, pero también con otras como Etcher o Imager (de Raspberry). Como hemos explicado, los usuarios existentes pueden actualizar manualmente desde el apartado de configuración de LibreELEC si se está en Kodi 19, pero no desde versiones anteriores, quienes tendrán que hacer una instalación limpia.

from Linux Adictos https://ift.tt/tTsDZhz
via IFTTT

Godot 4.0 ya fue liberado y estos son sus cambios mas importantes

godot-4-0

Godot 4.0 zarpa: todos a bordo para nuevos horizontes

Luego de cuatro años de desarrollo, se dio a conocer el lanzamiento del motor de juegos «Godot 4.0», apto para crear juegos 2D y 3D. La rama Godot 4.0 incluye unos 12.000 cambios y 7.000 correcciones de errores. Unas 1500 personas participaron en el desarrollo del motor y en la redacción de la documentación.

El motor admite un lenguaje de trabajo de lógica de juego fácil de aprender, un entorno de diseño de juego gráfico, un sistema de implementación de juego con un solo clic, ricas capacidades de simulación de física y animación, un depurador integrado y un sistema de detección de cuello de botella de rendimiento.

Principales novedades de Godot 4.0

En esta nueva versión que se presenta de Godot 4.0, se proponen dos nuevos backends de renderizado (en clúster y móvil) basados ​​en la API de gráficos de Vulkan, que han reemplazado a los backends de renderizado a través de OpenGL ES y OpenGL.

Para dispositivos más antiguos y de gama baja, se ha integrado un backend de compatibilidad basado en OpenGL utilizando la nueva arquitectura de renderizado. Para el renderizado dinámico a resoluciones más bajas, se utiliza la tecnología de supermuestreo AMD FSR (FidelityFX Super Resolution), que utiliza algoritmos de reconstrucción de detalle y escala espacial para reducir la pérdida de calidad de imagen al escalar y convertir a una resolución más alta. Se ha implementado un motor de renderizado basado en Direct3D 12 , que mejorará el soporte para las plataformas Windows y Xbox.

Otro de los cambios que se destaca es que GIProbe, utilizado para llenar la escena con luz reflejada, se reemplazó con el nodo VoxelGI, que es óptimo para el procesamiento de iluminación en tiempo real en escenas con interiores de habitaciones pequeñas a medianas. Para el hardware de baja potencia, se ha dejado la capacidad de renderizar previamente luces y sombras usando mapas de luz, que ahora usa la GPU para acelerar el renderizado.

Ademas de ello, tambien se ha implementado nuevas técnicas de optimización de renderizado, asi como tambien que se agregó la selección automática de oclusión que detecta y elimina dinámicamente los modelos ocultos detrás de otras superficies para mejorar el rendimiento del renderizado y reducir la carga de la CPU y la GPU.

Se agregó el modo SSIL (Screen Space Indirect Lighting) para mejorar la calidad de representación en hardware de alto rendimiento al mejorar el manejo de las áreas oscuras y la iluminación indirecta. Además, se proporcionan configuraciones adicionales para simular la iluminación indirecta difusa utilizando la técnica SSAO (Screen Space Ambient Occlusion), como elegir el nivel de influencia de la luz directa.

Se proponen unidades de iluminación realistas, que le permiten ajustar la intensidad de la luz y utilizar la configuración estándar de la cámara, como apertura, velocidad de obturación e ISO, para controlar el brillo de la escena final.

Tambien se agregaron nuevas herramientas de edición de niveles para juegos 2D, se ha realizado un cambio radical en el proceso de desarrollo de juegos 2D y tambien se ha agregado un nuevo editor de mapas de mosaicos, que admite capas, autocompletado de paisajes, ubicación aleatoria de plantas, piedras y varios objetos, selección flexible de objetos.

De los demás cambios que se destacan:

  • Trabajo unificado con mapas de teselas y conjuntos de fragmentos para la construcción de un mapa (tileset).
  • Los fragmentos de un conjunto se expanden automáticamente para eliminar los espacios entre fragmentos adyacentes.
  • Se ha agregado una nueva función para colocar objetos en el escenario que, por ejemplo, se puede usar para agregar personajes a las celdas de la cuadrícula de mosaicos.
  • Trabajo mejorado con luces y sombras en juegos 2D.
  • Rendimiento significativamente mejorado cuando se utilizan múltiples fuentes de luz.
  • Se agregó la capacidad de simular tridimensionalidad cambiando el nivel de iluminación en los mapas normales, así como creando efectos visuales como sombras largas, halos y contornos nítidos.
  • Se ha añadido un efecto de niebla volumétrica que utiliza una técnica de proyección temporal para lograr un aspecto realista y un alto rendimiento.
  • Se agregaron sombreadores de nubes para generar nubes dinámicamente que cambian en tiempo real.
  • Soporte implementado para » calcomanías «, un método de proyección de material sobre una superficie.
  • Se agregaron efectos de partículas en todo el espacio del juego que usan la GPU y admiten atractores, colisiones, estelas y emisores.
  • Se agregó la capacidad de trabajar con la interfaz en modo de múltiples ventanas (varios paneles y partes de la interfaz se pueden separar como ventanas separadas).
  • Se agregó un nuevo editor de interfaz de usuario y un nuevo widget de diseño visual.
  • Se agregó un nuevo editor de temas.
  • El sistema de gestión de iluminación y sombras se ha reescrito por completo para utilizar la tecnología SDFGI (Signed Distance Field Global Illumination) en tiempo real .
  • La calidad de renderizado de sombras se ha mejorado significativamente.

Finalmente si deseas conocer más al respecto, puedes consultar los detalles en el siguiente enlace.

Obtener Godot

Godot está disponible para descargar en esta página para Windows, Mac OS y Linux. También lo puede encontrar en Steam y itch.io.

El código del motor del juego, el entorno de desarrollo del juego y las herramientas de desarrollo relacionadas (motor de física, servidor de sonido, backends de renderizado 2D/3D, etc.) se distribuyen bajo la licencia MIT.

from Linux Adictos https://ift.tt/iBNGMp4
via IFTTT