Ya fue liberada la nueva version de OpenSSL 3.3.0

OpenSSL

Openssl es una api que proporciona un entorno adecuado para encriptar los datos enviados

La nueva versión de OpenSSL 3.3.0 ya fue liberada y en este lanzamiento se han implementado una serie de mejoras para el protocolo QUIC, asi como también mejoras de soporte para diferentes arquitecturas, correcciones de errores y más.

OpenSSL es una biblioteca de código abierto esencial para la seguridad en comunicaciones en red que proporciona herramientas para cifrar y descifrar datos, generar claves y certificados digitales, implementar protocolos de seguridad como SSL/TLS, y realizar hashing y firmas digitales.

¿Qué hay de nuevo en OpenSSL 3.3.0?

En esta nueva versión, que se presenta de OpenSSL 3.3.0 una de las novedades más importantes, son las mejoras implementadas en el soporte para el protocolo QUIC (RFC 9000), complementario al protocolo UDP utilizado en HTTP/3. Entre las adiciones en la nueva versión se encuentra:

  • Soporte para qlog que es un formato de registro estándar utilizado para rastrear conexiones QUIC.
  • Se han agregado API para permitir configurar el tiempo de espera de inactividad negociado en conexiones QUIC, lo cual es útil para ajustar el comportamiento de las conexiones según los requisitos específicos de la aplicación.
  • Ahora es posible deshabilitar el procesamiento de eventos QUIC implícitos para objetos QUIC SSL utilizando nuevas API.
  • Se agregaron API para permitir consultar el tamaño y la utilización del búfer de escritura en una secuencia QUIC.
  • Se introdujo una nueva API llamada SSL_write_ex2, que se puede utilizar específicamente para enviar una condición de fin de flujo (FIN) de manera optimizada al utilizar QUIC. Esto mejora la eficiencia en la transmisión de datos utilizando QUIC.
  • Se ha agregado soporte limitado para el sondeo de conexiones QUIC y objetos de transmisión sin bloqueo. Esto puede mejorar la eficiencia y el rendimiento en entornos donde se requiere un manejo eficiente de múltiples conexiones QUIC.

Otro de los cambios que se destaca de esta nueva versión, es la implementación de extensiones al protocolo de gestión de certificados CMP (Certificate Management Protocol) según las especificaciones RFC 9480 y RFC 9483, asi como también que se añadió la capacidad de deshabilitar la función atexit en la etapa de construcción, una variante de la API SSL_SESSION para evitar el problema del año 2038 en sistemas de 32 bits, y la función EVP_PKEY_fromdata para obtener automáticamente parámetros del teorema del resto chino.

Además de ello, se agregó una nueva API llamada EVP_DigestSqueeze() que permite reducir múltiples veces con diferentes tamaños de salida al utilizar el algoritmo SHAKE, asi como también el soporte para ignorar nombres de algoritmos de firma desconocidos, configurar el uso prioritario de claves PSK en un servidor TLS 1.3,

Se implementaron mejoras en la capacidad de exportar archivos de compilación para CMake en sistemas Unix y Windows, junto con optimizaciones de rendimiento específicas para diversas arquitecturas y chips, como el funcionamiento optimizado del algoritmo AES-GCM en dispositivos Azure Cobalt 100, aceleración de AES-CTR en ARM Neoverse V1 y V2, optimizaciones AES y SHA3 en sistemas Apple con chips M3, y la implementación del ensamblador de md5 para CPU Loongarch64.

De los demás cambios que se destacan:

  • Se corrigieron problemas de seguridad, como el crecimiento ilimitado de la memoria en el manejo de sesiones en TLSv1.3, identificado como CVE-2024-2511. Además, se realizaron mejoras en la estabilidad y la confiabilidad del kit de herramientas OpenSSL.
  • Varias optimizaciones para rutinas criptográficas utilizando extensiones criptográficas vectoriales RISC-V
  • Implementación de compilacion agregada para md5 en loongarch64
  • Los ajustes de configuración de activación y carga suave para proveedores en openssl.cnf se han actualizado para requerir un valor de [1|yes|true|on] (en minúsculas o MAYÚSCULAS) para habilitar la configuración. Por el contrario, un valor de [0|no|false|off] deshabilitará la configuración.
  • En «openssl speed», se cambió la función hash predeterminada utilizada con «hmac» de «md5» a «sha256».

Si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.

¿Como instalar OpenSSL en Linux?

Para los que estén interesados en instalar OpenSSL en su distribucion, pueden seguir los pasos que compartimos dependiendo de la distribución específica que estés utilizando:

Ubuntu, Debian y derivados de estos pueden hacerlo abriendo una terminal y ejecutando el siguiente comando:

sudo apt install openssl

Fedora
En distribuciones basadas en Red Hat, como Fedora, puedes instalar OpenSSL usando dnf:

sudo dnf install openssl

Para usuarios de Arch Linux o distribuciones basadas en Arch:

sudo pacman -S openssl

from Linux Adictos https://ift.tt/tFWaZJw
via IFTTT

Fedora 40 llega con Gnome 46, mejoras en Wayland y mas

Fedora 40

Banner de Fedora 40

Hoy estamos de fiesta y el motivo es el lanzamiento oficial de la nueva versión de Fedora 40, la cual llega en tiempo y forma, ya que en diversos lanzamientos anteriores se presentaron retratos por problemas detectados y personalmente pensaba que Fedora 40 no sería la excepción, pues con el reciéntente problema de la biblioteca XZ, Canonical si retraso sus lanzamientos.

Pero bien, dejando de lado esto y continuando con el festejo, Fedora 40 presenta una gran cantidad de cambios y mejoras importantes, los cuales van desde mejoras en las herramientas, gestión de paquetes, asi como también con los cambios en las nuevas distribuciones personalizadas Atomic Desktops, entre otras cosas más.

¿Qué hay de nuevo en Fedora 40?

En esta nueva versión que se presenta de Fedora 40 en la edición de escritorio se implementó la nueva versión de GNOME 46 la cual trajo consigo una función de búsqueda global, permitiendo a los usuarios buscar en todo el sistema directamente desde el escritorio. Además, se mejoró el rendimiento del administrador de archivos y de los emuladores de terminal, se agregó soporte experimental para Variable Refresh Rate (VRR) y también se mejoró la calidad de salida para el escalado fraccionario, mejorando así la visualización en pantallas de alta resolución. Otras mejoras notables incluyen capacidades extendidas para conectarse a servicios externos, actualizaciones en el configurador del sistema y mejoras en el sistema de notificaciones y que GTK utiliza un nuevo motor de renderizado basado en la API de Vulkan.

En la edición de escritorio con KDE se actualizó a la versión KDE 6, utilizando el protocolo Wayland en lugar de X11, esta transición implicó la suspensión de la compatibilidad con sesiones basadas en X11, debido a la consideración de obsolescencia del servidor X.Org en RHEL 9 y su eliminación prevista en futuras versiones. Este cambio se vio facilitado por la transición de los controladores fbdev a controladores simplesdrm, que se integran mejor con Wayland, y por el soporte de Wayland en los controladores propietarios de NVIDIA

Por la parte de las distribuciones personalizadas, Fedora consolidó sus variantes bajo la marca Atomic Desktops, esto incluye a Fedora Silverblue basado en GNOME, Fedora Kinoite basado en KDE, Fedora CoreOS y Fedora IoT. Asimismo, las nuevas versiones de Fedora Sericea y Fedora Onyx ahora se distribuyen bajo los nombres Fedora Sway Atomic y Fedora  Budgie Atomic.

Además de ello, se destaca que se ha completado la segunda fase de la transición hacia el proceso de carga modernizado, la cual minimiza las diferencias con el arranque clásico al adoptar una imagen del kernel unificada denominada UKI. En esta segunda fase, se ha añadido la capacidad de cargar UKI directamente desde el módulo UEFI shim.efi, prescindiendo de un gestor de arranque separado como grub o sd-boot, se ha implementado el soporte para usar UKI en sistemas con arquitectura Aarch64, y se ha preparado una versión de la imagen UKI específicamente diseñada para entornos de nube y máquinas virtuales protegidas.

Otro de los cambios que se destaca de Fedora 40, es que se ha añadido al repositorio un paquete listo para usar con el marco de aprendizaje automático PyTorch. Este paquete actualmente admite la ejecución en CPU sin aceleración de GPU o NPU, pero se prevé agregar soporte para GPU y aceleradores NPU en versiones futuras.

También se han implementado mejoras en NetworkManager, pues en Fedora 40 ahora está habilitado, de forma predeterminada, un mecanismo para detectar conflictos de direcciones IPv4 en la red local, además sé ha habilitado una dirección MAC permanente para conexiones inalámbricas.

Herramientas de compilación como Mock, Koji y Copr ahora utilizan el administrador de paquetes DNF 5 para instalar dependencias de compilación, además de que ahora en DNF la carga de metadatos con listas de archivos incluidos en los paquetes está deshabilitada de forma predeterminada.

En Fedora 40, el paquete con la biblioteca OpenSSL 1.1 fue eliminado debido al fin de su soporte, y las dependencias relacionadas se han cambiado a OpenSSL 3.0. Además, se ha reemplazado la biblioteca Zlib por una bifurcación llamada Zlib-ng, que ofrece optimizaciones adicionales para mejorar el rendimiento mientras mantiene la compatibilidad a nivel de API con zlib.

Finalmente, se declaró obsoleta la biblioteca libuser y se eliminó el paquete passwd basado en libuser, reemplazándolo con una utilidad del paquete shadow-utils. Además, se están preparando cambios en GCC para incluir una versión más reciente del estándar de lenguaje C de forma predeterminada, lo que impactará algunas características del lenguaje heredado.

De los demás cambios que se destacan:

  • Se detuvo la generación de actualizaciones delta de paquetes RPM, lo que implica que durante las actualizaciones solo se cargan los datos modificados en relación con la versión previamente instalada del paquete. También se deshabilitó la compatibilidad con Deltarpm en DNF y DNF5.
  • Se introdujo Passim, un servidor de caché diseñado para distribuir archivos solicitados con frecuencia en la red local sin acceder directamente a los servidores principales ni recurrir a CDN globales.
  • Ahora se usa Image Builder para generar imágenes de Fedora Workstation Live y  osbuild para imágenes mínimas en arquitectura ARM.
  • Kiwi reemplazó a ImageFactory para producir imágenes de Fedora Cloud Edition.
  • Se reestructuraron los paquetes relacionados con Kubernetes y Fedora IoT ahora utiliza contenedores de arranque creados con OSTree y bootc.

Si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.

Descargar Fedora 40

Para los interesados en descargar esta nueva versión de Fedora 40 para instalar o probar en sus equipos, pueden obtener la imagen del sistema con Gnome o sus diferentes variantes (Spins) desde el sitio web oficial de la distribucion. El enlace es este.

from Linux Adictos https://ift.tt/JpROqTN
via IFTTT

Flathub actualiza la interfaz de su página web, que pasa a tener el diseño de una tienda de software de verdad

Nuevo diseño de Flathub

«Flathub es la tienda de aplicaciones para Linux», se puede leer en, claro, Flathub. Desde el principio ha pretendido ser esa tienda general de aplicaciones para Linux, y lo está consiguiendo. Creo que no tiene competencia, por mucho que le pueda doler a Canonical, ya que la mayoría de desarrolladores se decantan por ofrecer su software en paquetes flatpak antes de hacerlo en formato snap. Y con cambios como el que os traemos hoy por ahí, las cosas aún pintan mejor.

Echad un vistazo a la captura de cabecera. ¿No os recuerda a GNOME Software? Tiene un apartado de destacados en la parte superior, en un elemento interactivo; más abajo, la aplicación del día; a su derecha, las instrucciones para añadir soporte para Flathub a nuestra distribución Linux; ya después las diferentes secciones: tendencias, populares, nuevo y actualizado. Muy diferente a como estaba antes.

Flathub es cada día mejor tienda de software

Versión anterior de la tienda de software

La semana pasada Flathub era como en la imagen de encima de estas líneas. Para empezar, entraba a la página principal, lo que se podría considerar un comportamiento normal hasta que entras a la nueva versión y te dirige directamente a una opción en el idioma que tienes configurado tu navegador. Si os estáis preguntando por qué no tienen icono las apps, sencillamente porque es una captura de una web que tiene la página en su registro, tipo máquina del tiempo.

El cambio, por lo menos de momento, se ha quedado en la página principal de su sitio web, que no es poco. Cuando hacemos clic en la tarjeta de cualquier app, lo que vemos es lo mismo que veníamos viendo hasta ahora. Lo que tampoco hace es instalar las aplicaciones desde el botón de «instalar», a no ser que la tienda de software de nuestra distribución, la de verdad, aquella en la que conseguimos las aplicaciones, sea compatible.

Sin hacer mucho ruido, Flathub sigue dando pasos para convertirse en nuestra opción favorita para instalar aplicaciones en Linux sin importar en qué distribución estamos. Cambios como este no hacen más que contribuir, y seguro que llegan como agua de mayo para los usuarios de distribuciones que no tienen una tienda propia.

from Linux Adictos https://ift.tt/M8BucOJ
via IFTTT

Audacity 3.5 permite ahora guardar proyectos en la nube y cuenta con detección de tempo automática

Audacity 3.5.0

Cuando yo intentaba ser una estrella del rock, hace ya como una década de eso, lo primero que hacía en mi DAW de turno era poner un patrón de ritmo de fondo, empezar a tocar mi guitarra o bajo y grabar lo me me iba saliendo. Mal hecho, porque luego las líneas de los compases y todas esas guías estaban fuera de su sitio. Tenía que mirar qué tempo había usado, reajustar el proyecto y, entonces sí, tener todas las piezas bien colocadas. El software va mejorando, y ahora existen opciones que detectan eso automáticamente, y Audacity 3.5.0 es capaz de esto y mucho más.

Audacity 3.5.0 ha llegado hace unos instantes con tres novedades que destacan sobre el resto. Pero la que más llama mi atención es una nueva función en la que al arrastrar una pista de audio a un proyecto vacío, Audacity detectará el tempo y ajustará el proyecto para que tenga esa base. Digo en teoría, porque yo lo he probado en la AppImage para Linux y no he visto ninguna consulta para esto.

Novedades de Audacity 3.5.0

  • Han introducido una función para guardar en la nube que permite guardar los proyectos en audio.com. Esto nos permitirá empezar a trabajar en un equipo y terminar en otro.
  • Detección automática del tempo. Cuando arrastramos una pista de audio, debe mostrar una consulta por si queremos que cambie el tempo del proyecto al de ese audio. El secreto está en usar loops o bases con el tempo bien claro. En la siguiente imagen podéis ver que el tempo está en su sitio, y es algo que ha detectado Audacity 3.5.0. Para conseguirlo, me he bajado un audio de una base de batería de YouTube. Si no está perfecto es porque la batería está tocada a mano (no es una caja de ritmos) El audio lo puede sacar del sonido en sí, haciendo una especie de cálculo, y también de los metadatos de la pista, siempre y cuando estén incluidos..

Tempo reajustado

Entre el resto de novedades:

  • Ahora es posible cambiar el pitch de un audio de manera no destructiva presionando Alt + Flechas arriba/abajo. También está disponible desde el menú del clic derecho/tono y velocidad.
  • Se ha añadido la posibilidad de exportar etiquetas como archivos de subtítulos.
  • Se ha añadido una opción para omitir la exploración de plugins.
  • Se ha añadido un menú de desbordamiento e indicadores de velocidad y tono para los clips.
  • Varios cambios en diversas funciones.
  • Eliminadas algunas características de nicho para simplificar la aplicación. Esto debería hacer Audacity un poco menos abrumador de usar, y también acelerará el desarrollo futuro ya que menos cosas tienen que ser consideradas.

Ya disponible

Audacity 3.5.0 es una nueva versión mediana que ha llegado seis meses de la versión anterior y ya está disponible desde su página web. Desde allí, los usuarios de Linux podemos descargar una AppImage. En las próximas horas se actualizarán sus paquetes flatpak y snap – este lo dudo un poco, pues sigue en la v3.1.3 – y también llegará a los paquetes oficiales de algunas distribuciones Linux.

from Linux Adictos https://ift.tt/u6ORjrb
via IFTTT

MPV 0.38 llega con mejoras de compatibilidad, de escalado y mas

reproductor mpv

MPV

Se dio a conocer la nueva versión de MPV 0.38 la cual llega con una serie de cambios y mejoras significativas, entre las cuales se destacan su nuevo renderizador «vo_gpu_next», mejoras con Vulkan, mejoras en la escala de DPI, una serie de nuevas opciones de línea de comandos, entre otras cosas más.

Para quienes desconocen de MPV, deben saber que este es un reproductor multimedia de código abierto que está diseñado para ser ligero, rápido y altamente personalizable, lo que lo hace popular entre los usuarios que prefieren un reproductor de video simple pero potente. MPV es compatible con una amplia variedad de formatos de archivo multimedia y ofrece características como reproducción de video de alta calidad, controles de reproducción avanzados, soporte para subtítulos y capacidades de filtrado de video.

¿Qué hay de nuevo en MPV 0.38?

En esta nueva versión que se presenta de MPV, la 0.38.0 una de las características más notables es el desarrollo continuo del nuevo módulo del renderizador «vo_gpu_next», construido sobre la biblioteca libplacebo y utilizando sombreadores y API de gráficos Vulkan, OpenGL, Metal o Direct3D para el procesamiento y renderizado de video.

Otro de los aspectos destacados de esta nueva versión son las mejoras implementadas en las funciones relacionadas con Wayland, incluyendo compatibilidad multi-seat, soporte mejorado para desplazamiento de alta resolución, escalado mejorado en pantallas de alta densidad de píxeles (HiDPI), manejo mejorado del cambio de cursor, variable de entorno de requisitos de uso habilitada WAYLAND_DISPLAY para la inicialización y protección contra tamaños de configuración negativos.

Además de ello, MPV 0.38 introduce varias capacidades de secuencias de comandos nuevas, como «mp.input()», para una interacción de scripts, permitiendo la solicitud de entrada de datos de texto por parte del usuario y la adición de la opción «–deinterlace-field-parity» al reproductor para habilitar automáticamente el desentrelazado.

También incluye actualizaciones prácticas como la opción de desentrelazado automático e información ampliada en reproducción en Mac, que mejoran el control del usuario y la visibilidad de la información de reproducción.

Además, MPV 0.38 ha agregado soporte para MoltenVK en las compilaciones de Mac OS para brindar soporte para la API de Vulkan, mejorando el rendimiento gráfico aprovechando las funciones modernas de GPU y también hay numerosos ajustes en funcionalidades y las interacciones de la interfaz de usuario, como una mejor compatibilidad con el cambio de tamaño de ventanas y las funciones de arrastrar y soltar en macOS.

De los demás cambios que se destacan:

  • El reproductor elimina el código de soporte heredado no estándar específico de Raspberry Pi
  • Introduce una variedad de nuevos comandos y opciones que mejoran la personalización y el control de la reproducción.
  • Capacidad de cargar archivos de configuración dinámicamente
  • Ajustar el retraso de los subtítulos para subtítulos secundarios y controlar el volumen del audio en decibeles.
  • Continúa solucionando errores y mejorando funciones menores en diferentes sistemas para garantizar un rendimiento más fluido y una compatibilidad mejorada
  • Correcciones para controladores de audio específicos
  • Informes de modificadores de clave mejorados en macOS
  • Ahora se requiere como mínimo el uso de FFmpeg 4.4 o posterior
  • El Zoom de video ahora se puede controlar mediante «Ctrl+WHEEL_UP/DOWN»
  • Ahora el caché se guarda en archivos separados.

Si estás interesado en poder conocer más al respecto, puedes consultar la lista completa de cambios en el siguiente enlace.

¿Como instalar el reproductor MPV en Linux?

Si estás interesado en poder instalar este reproductor en tu sistema, puedes hacerlo siguiendo las instrucciones que compartimos a continuación.

Compilación desde el código fuente

El primer método y es general para cualquier distribucion, es realizando la compilación del código fuente. Para ello debes de abrir una terminal y ejecutar los siguientes comandos:

git clone https://github.com/mpv-player/mpv-build.git
cd mpv-build/
sudo apt install libfribidi-dev libfribidi-bin yasm
./rebuild -j4
sudo ./install

Esto descargará el código fuente de MPV, instalará las dependencias necesarias y compilará e instalará el reproductor en tu sistema.

Usando un repositorio externo (para Ubuntu y derivados)

Si eres usuario de Ubuntu o algún derivado de este y no quieres realizar la compilacion. Puedes optar por agregar un repositorio mantenido por un tercero y luego instalar MPV desde allí. Para ello debes de ejecutar estos comandos en la terminal:

sudo add-apt-repository ppa:mc3man/mpv-tests
sudo apt update
sudo apt install mpv

Esto agregará el repositorio, actualizará tus fuentes de paquetes y luego instalará MPV desde el repositorio añadido.

Para Arch Linux

En Arch Linux, puedes instalar MPV directamente desde los repositorios oficiales con este comando

sudo pacman -S mpv

Para openSUSE

En openSUSE también se cuenta con la aplicacion en los repositorios, por lo que solo debes de verificar que la nueva versión esté disponible en los repositorios y luego ejecutar en una terminal:

sudo zypper in mpv

Una vez instalado, puedes usar MPV desde la terminal. Puedes consultar su manual de uso con el comando help o visitar el siguiente enlace para obtener más información sobre su uso y opciones disponibles.

mpv --help

from Linux Adictos https://ift.tt/15a4Qle
via IFTTT

zlib-rs, una alternativa a zlib-rs en Rust que tiene como finalidad abordar los problemas causados ​​por errores de memoria

zlib-rs una alternativa de la biblioteca de compresión de datos zlib

zlib-rs

La biblioteca zlib, desarrollada por Jean-Loup Gailly y Mark Adler, es un componente esencial ya que es utilizada en una amplia gama de aplicaciones que están enfocadas en la compresión de archivos en formatos como ZIP, gzip y PNG debido a su eficiencia y versatilidad. Esta biblioteca ha estado presente desde 1995 y como resultado de su amplio uso, también ha sido blanco de múltiples vulnerabilidades de seguridad de la memoria.

El núcleo de zlib es el algoritmo de compresión DEFLATE, que combina las técnicas de compresión sin pérdida de datos del algoritmo LZ77 con una estructura de árbol Huffman para lograr tasas de compresión notables. Esta combinación de técnicas hace que zlib sea extremadamente eficiente en la compresión y descompresión de datos, siendo especialmente útil en aplicaciones donde el espacio de almacenamiento o el ancho de banda son limitados.

Además de la compresión de archivos, zlib también se utiliza en la transferencia de datos comprimidos en redes para reducir la carga de ancho de banda, en aplicaciones de almacenamiento y procesamiento de archivos, así como en aplicaciones multimedia para la compresión de datos de audio y video.

A lo largo del tiempo, zlib ha enfrentado algunas vulnerabilidades que han sido abordadas en versiones posteriores de zlib, como las mencionadas CVE-2005-1849, CVE-2016-9840, CVE-2016-9841 y CVE-2016-9842 (solo por mencionar algunas de las conocidas de zlib), que podían ser explotadas por atacantes para provocar una denegación de servicio (DoS) o incluso ejecutar código arbitrario y que debido a las fallas de seguridad de memoria común para las bibliotecas de compresión escritas en C/C++, zlib sigue siendo un blanco importante.

Con la finalidad de abordar estos problemas, sin dejar de lado la naturaleza y bondades de zlib, la ISRG (la organización detrás del proyecto Let’s Encrypt y dedicada a mejorar la seguridad en internet) dio a conocer recientemente el lanzamiento de un nuevo proyecto que tiene como finalidad el crear un análogo de zlib en el lenguaje de programación Rust.

Contratamos a Tweede Golf en diciembre de 2023 para una implementación inicial basada en zlib-ng , con un enfoque en mantener un rendimiento excelente al tiempo que introducimos la seguridad de la memoria.

Que sigue

Actualmente estamos buscando financiación para completar el trabajo necesario para que la implementación inicial esté lista para la producción.

La nueva alternativa tiene como nombre «zlib-rs» y esta se presenta como una solución de zlib escrita en Rust con el objetivo principal de abordar los problemas de seguridad asociados con errores de memoria y vulnerabilidades que suelen estar presentes en las bibliotecas de compresión escritas en C/C++.

El desarrollo de zlib-rs surge en respuesta a estadísticas de Microsoft y Google que señalan que aproximadamente el 70% de las vulnerabilidades se deben a un manejo inseguro de la memoria. Al utilizar Rust como lenguaje de programación, se espera reducir significativamente el riesgo de estas vulnerabilidades, como el acceso a áreas de memoria liberadas o el desbordamiento de búferes.

El proyecto zlib-rs contiene una implementación Rust del formato de archivo zlib que es compatible con la API zlib y el repositorio actualmente se están trabajando en dos implementaciones:

  • zlib-rs, una implementación de Rust basada en zlib con una API de Rust segura (actualmente se considera como inestable, pero se espera llegar a estabilizar la implementación en poco tiempo).
  • libz-rs-sys, una API C una API C para zlib-rs . La API es, en términos generales, equivalente a zlib-sysy zlib-ng-sys, pero actualmente no proporciona la familia de funciones gz*. Desde la perspectiva de rust, esta API no es muy ergonómica por lo que de momento se recomienda el trabajo con flate2.

Sobre el trabajo en el desarrollo actual, se menciona que el ofrecer un análogo en Rust pueda atraer la atención de otros y puedan sumarse al trabajo, ya que el ofrecer una alternativa enfocada en la seguridad y la prevención de errores comunes, pueda en cuestión de algunos años de trabajo y desarrollo ofrecer un sustituto transparente a zlib.

Finalmente cabe mencionar que actualmente el trabajo de zlib-rs se publica en GitHub en el siguiente repositorio y el código se distribuye bajo la licencia Zlib. Puedes consultar más al respecto en el siguiente enlace.

from Linux Adictos https://ift.tt/fuUB3IX
via IFTTT

I2P 2.5.0 implementa mejoras en túneles, I2PSnark y mas

I2P, la alternativa a Tor cifrada para ocultar el tráfico

I2P es una red anónima P2P que protege de la censura, la vigilancia y el monitoreo en línea.

Recientemente se dio a conocer el lanzamiento de la nueva versión de versión I2P 2.5.0 junto con el cliente C++ i2pd 2.51.0 y en esta nueva versión, se han realizado varias mejoras y adiciones, de las cuales uno de los principales puntos en los que se enfocaron los desarrolladores fue en fortalecer la implementación de la estrategia de aislamiento de NetDB, esta nueva versión intra seguridad de la red, ya que comparada con la versión anterior, 2.4.0 presenta cambios notables en varias áreas clave.

Para quienes desconocen de I2P, o Invisible Internet Project, deben saber que es una alternativa para acceder a internet de forma anónima, similar a Tor pero con diferencias significativas. Mientras que Tor utiliza capas de cifrado, I2P utiliza un enrutamiento llamado «garlic», donde los mensajes se agrupan en paquetes de datos denominados «dientes de ajo». Esta técnica evita que los observadores externos puedan adivinar la temporización de los mensajes, a diferencia del método de capas de Tor.

Aunque I2P tiene limitaciones para acceder a información superficial de la web, destaca por su capacidad para crear sitios exclusivos en la dark web, conocidos como eepsites. Estos eepsites permiten a los usuarios realizar actividades como enviar mensajes de forma segura y ocultar su ubicación geográfica a usuarios externos de internet.

¿Qué hay de nuevo en I2P 2.5.0?

En esta nueva versión que se presenta de I2P 2.5.0, como ya se mencionó al inicio, se destacan las mejoras de seguridad y correcciones de errores en la base de datos NetDB, utilizada para detectar pares en la red I2P. Las mejoras implementadas se realizaron en los ajustes para mejorar la resistencia al spam y la capacidad del enrutador para rechazar mensajes sospechosos. Esto fue parte de un esfuerzo para «auditar» la implementación de las defensas de «aislamiento de subbase de datos» desde la versión 2.4.0.

Otro de los cambios que se destaca de la nueva versión, es que ahora el cliente BitTorrent «I2PSnark» admite la capacidad de búsqueda en torrents y tiene una mejor compatibilidad con otros clientes BitTorrent que admiten I2P, como BiglyBT y qBittorrent.

Ademas de ello, el cliente de correo electrónico SusiMail ha recibido nuevas funciones, incluida la compatibilidad con el formato Markdown en correos electrónicos y admite la adjunción de archivos, arrastrando y soltando, permitiendo una presentación más atractiva y estructurada del contenido.

En I2P 2.5.0 se han mejorado los túneles creados con Hidden Service Manager mediante el administrador de servicios ocultos, ya que´ahora admiten «Keepalive», lo que mejora el rendimiento, además se han mejorado las herramientas del enrutador para bloquear mensajes sospechosos y se ha mejorado la generación de compilación para Android y Windows en i2pd.

De los demás cambios que se destacan de I2P 2.5.0:

  • Se han implementado nuevos algoritmos para calcular RTT, RTO y ventana deslizante en i2pd.
  • Mejoras en el protocolo de transporte SSU2, como el uso de SOCKS5 en lugar de SOCKS4
  • Nuevas implementaciones de reenvío de paquetes, búfer de envío, tiempos de espera y control de congestión.
  • Implementación de Keepalive/Persistencia del lado del servidor en I2PTunnel.
  • Almacenamiento comprimido de RI y LS en Datos.
  • Mejoras en la gestión de cambios de directorio en I2PSnark.
  • Diversas correcciones de errores en diferentes componentes para mejorar la estabilidad y seguridad.
  • Se han realizado actualizaciones de traducción y se han implementado mejoras en la API.

Si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el anuncio del lanzamiento en el siguiente enlace.

¿Como instalar I2P en Linux?

Si estás interesado en utilizar utilidad en tu sistema, debes saber que I2P es multiplataforma, es decir, ofrece paquetes tanto para Windows, Linux, MacOS e incluso para Docker y también para dispositivos móviles, dígase Android y iOS. Puedes descargar I2P 2.5.0 desde el siguiente enlace.

En el caso de Linux, puedes obtener los paquetes precompilados que se ofrecen para Ubuntu de manera oficial e incluso para Arch Linux (los cuales se construyen a partir de los paquetes .deb) u optar por descargar el archivo .jar para ejecutar I2P. En nuestro caso vamos a instalar I2P desde los repositorios de Ubuntu y para ello debemos abrir una terminal y teclear:

sudo apt-add-repository ppa:i2p-maintainers/i2p
sudo apt-get update
sudo apt-get install i2p

Mientras que para el caso de Arch Linux el único requisito es contar con el repositorio de AUR habilitado y contar con un asistente de AUR (por ejemplo yay). En una terminal debemos teclear:

yay -s i2p

Finalmente, para Debian y distribuciones basadas en esta, deben de realizar una serie de pasos, los cuales puedes encontrar en este enlace.

from Linux Adictos https://ift.tt/uqXoMzd
via IFTTT

La comunidad de Gentoo considera prohibir las contribuciones generadas por IA

Gentoo prohíbe el uso de IA

Gentoo Linux

Michał Górny, una figura destacada en la comunidad de Gentoo, ha resaltado preocupaciones sobre los crecientes problemas relacionados con el contenido generado por IA y es por ello que aboga por un enfoque en pro de salvaguardar la integridad del contenido de Gentoo al proponer una prohibición de las contribuciones generadas por IA.

Ante esta propuesta, la junta directiva de Gentoo ha establecido una serie de normativas que prohíben el uso de herramientas de inteligencia artificial, como ChatGPT, Bard y GitHub Copilot, para la creación de contenido relacionado con la distribución Gentoo. Esto abarca la redacción de código para componentes de Gentoo, la creación de ebuilds, la preparación de documentación y el envío de informes de errores.

Ademas de ello, propuesta de Górny tiene como objetivo mantener la reputación de Gentoo por su autenticidad y calidad. Al asegurarse de que el contenido sea creado por colaboradores humanos, Gentoo puede mantener sus estándares y evitar riesgos legales y éticos asociados con el contenido generado por IA.

Las principales preocupaciones que llevaron a esta prohibición incluyen:

Riesgo de infracción de derechos de autor

Actualmente, aún existe incertidumbre sobre posibles infracciones de derechos de autor en contenido generado por modelos de IA entrenados con grandes conjuntos de datos, por lo que la legalidad del contenido generado por IA en términos de derechos de autor sigue siendo incierta. Los modelos de IA a menudo se entrenan con material protegido por derechos de autor, y existe el riesgo de que las herramientas de IA produzcan contenido que infrinja las leyes de derechos de autor. Además, surge la preocupación por la incapacidad de garantizar el cumplimiento de los requisitos de licencia en el código generado por herramientas de IA, ya que el código generado puede ser considerado un trabajo derivado sujeto a ciertas licencias.

Por ejemplo, entrenar un modelo de inteligencia artificial en código sujeto a una licencia que requiere atribución, el código generado por herramientas de IA no cumple con este requisito, lo que podría ser considerado una violación de varias licencias abiertas como la GPL, MIT y Apache, que son comúnmente utilizadas en proyectos de software libre y de código abierto. Esto se debe a que el código generado no proporciona la atribución necesaria al autor original del código utilizado para entrenar el modelo.

Además, pueden surgir problemas de compatibilidad de licencias al incorporar código generado por modelos entrenados en proyectos que utilizan licencias copyleft en entornos con licencias permisivas. Las licencias copyleft, como la GPL, requieren que las obras derivadas se distribuyan bajo la misma licencia copyleft, lo que podría entrar en conflicto con las licencias permisivas que permiten una mayor libertad en el uso y distribución del software derivado.

 Garantía de Calidad

Aunque el código o texto generado por herramientas de IA puede parecer correcto superficialmente, se ha demostrado que el contenido generado por IA puede variar ampliamente en calidad. Si bien algunos modelos de IA pueden producir contenido plausible, existe el riesgo de generar material sin sentido o inexacto. El uso de este contenido sin verificación podría resultar en proyectos de menor calidad y aumentar la carga de trabajo para verificar la precisión y calidad del código.

La verificación de código generado por herramientas de inteligencia artificial requiere un esfuerzo considerable para garantizar la precisión y la calidad. Al analizar informes de errores generados automáticamente, los desarrolladores enfrentan el desafío de distinguir entre informes útiles y aquellos que no son relevantes o contienen información incorrecta. Esto puede resultar en la pérdida de tiempo al revisar repetidamente la información y verificar los hechos, ya que la calidad aparente del diseño puede generar una falsa sensación de confianza en la información proporcionada.

La calidad externa del diseño del código generado por IA puede dar la impresión de que todo está en orden, lo que puede llevar a los revisores a pasar por alto problemas y puede resultar en la necesidad de revisar y verificar múltiples veces la información contenida en los informes generados automáticamente, lo que consume tiempo y recursos valiosos de desarrollo.

Consideraciones Éticas

La rápida proliferación de contenido generado por IA ha planteado preocupaciones éticas y se mencionan preocupaciones éticas relacionadas con la infracción de derechos de autor al entrenar modelos de IA, el impacto ambiental debido a los altos costos de energía en la creación de estos modelos y potencialmente facilitar el spam y las estafas. Es por ello que la comunidad de Gentoo quiere garantizar que el contenido sea creado por colaboradores humanos se alinea con los valores de autenticidad y calidad de Gentoo.

Finalmente, se menciona que la comunidad de Gentoo señala que el nuevo requisito de prohibir el uso de herramientas de inteligencia artificial no se aplicará de manera selectiva a aquellas herramientas que puedan demostrar que no infringen derechos de autor, mantienen altos estándares de calidad y no plantean problemas éticos. Esto sugiere que, si una herramienta de IA puede garantizar la ausencia de conflictos legales, asegurar la calidad del trabajo producido y cumplir con estándares éticos aceptables, podría considerarse para su uso en proyectos de Gentoo, a pesar de la prohibición general.

Si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.

from Linux Adictos https://ift.tt/4JaFXvl
via IFTTT

OS Zone celebra cinco años de éxito invalidando patentes dirigidas contra el software libre

OS Zone iniciativa para invalidar patentes dirigidas al software de código abierto.

OS Zone celebra 5 años

Open Source Zone o mejor conocido como «OS Zone» es una iniciativa que nació de la mano de la Open Invention Network ( OIN) y Unified Patents, como respuesta a la famosa demanda que se realizó contra del proyecto Gnome por parte de Rothschild Patent Imaging (un troll de patentes que fue sumamente conocido por dirigirse a pequeñas empresas y empresas emergentes con demandas por infracción de patentes)  donde este realizo reclamaciones por infracción de patentes relacionadas con las funciones de importación y filtrado de imágenes de cámaras digitales en Shotwell.

El caso fue bastante conocido tanto en la comunidad de Linux, open source y en general, ya que se llevó un seguimiento por parte de muchos y sobre todo que muchos tendieron la mano (la Open Invention Network en especial) a Gnome para defenderse en los tribunales.

Recientemente, Open Invention Network anunció el quinto aniversario de la iniciativa OS Zone, la cual ha estado trabajando arduamente defendiendo a proyectos de código abierto de demandas y, especialmente, invalidando las patentes para prevenir que sean reutilizadas, lo cual es sumamente importante, ya que la mayoría de trolls de patentes basan su método en la adquisición de patentes y solo se basan en eso, en poseer la propiedad intelectual, sin involucrarse en actividades de desarrollo o producción. Esta situación hace imposible presentar una contrademanda por violación de términos de uso de las patentes en cualquier producto. Por ende, la estrategia se centra en demostrar la inconsistencia del producto utilizado en la reclamación de patente.

«Las empresas que crean productos que utilizan tecnologías de código abierto deben ayudar a proteger a las comunidades de código abierto de las amenazas planteadas por los abusadores de patentes de baja calidad», afirmó Justin Colannino, asesor general asociado de código abierto de Microsoft. «Aplaudimos el enfoque innovador adoptado por OS Zone y pedimos a otras empresas que apoyen soluciones que protejan la innovación de código abierto de amenazas específicas».

Y es que debido al caso de éxito de anular la demanda que había recibido Gnome, esto sentó una base sobre la cual la OS Zone ha trabajado para proteger el software de código abierto de los ataques de trolls de patentes y desde entonces OS Zone ha cumplido con su finalidad, el de proteger el software de código abierto de los ataques de trolls de patentes que no tienen activos y viven únicamente de demandas judiciales que utilizan patentes dudosas.

OS Zone recibe el apoyo de Unified Patents quien se enfoca en hacer costoso el litigio para los trolls de patentes, lo que puede desalentar sus ataques al hacer que el costo legal sea superior a cualquier regalía que busquen, mientras que la Open Invention Network trabaja para proteger el ecosistema Linux de reclamaciones de patentes por medio de sus miembros que acuerdan no hacer valer reclamaciones de patentes y permitir el uso libre de tecnologías patentadas en proyectos relacionados con Linux.

De los principales patrocinadores del trabajo de OS Zone, también empresas líderes en tecnología como Amazon, Apple, CableLabs, Mercedes-Benz, Meta, ServiceNow y Twilio han prometido su apoyo este año, demostrando el compromiso de la industria tecnológica con la protección y promoción del OSS frente a posibles amenazas legales.

Keith Bergelt, director ejecutivo de Open Invention Network, destacó la importancia de esta colaboración:

«Vemos un valor significativo en asociarnos nuevamente con The Linux Foundation y Microsoft para respaldar la Zona de SO de Patentes Unificadas. También nos complace dar la bienvenida a nuevas empresas que brindan apoyo financiero para continuar financiando las operaciones de OS Zone».

Por otra parte, también se menciona que OS Zone ha tenido éxito en impugnar más de 54 patentes PAE que representaban una amenaza para las tecnologías OSS en los últimos cuatro años. Proyectos y tecnologías de código abierto como Apache, Bluez, Linux, Kubernetes, Mozilla Firefox y muchos otros han sido protegidos gracias a esta iniciativa.

Si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.

from Linux Adictos https://ift.tt/MDm0FzJ
via IFTTT

Jpegli la nueva biblioteca open source de Google de codificación JPEG

Jpegli para codificación JPEG avanzada

Jpegli

Google dio a conocer hace a varios días mediante una publicación de blog el lanzamiento de Jpegli, una nueva biblioteca de código abierto que ofrece un codificador y decodificador de imágenes JPEG avanzado y que está diseñada para mejorar significativamente la compresión de imágenes sin comprometer la calidad.

Jpegli, tiene como objetivo reducir significativamente el tamaño de los archivos JPEG mientras mantiene la calidad de la imagen y evita los artefactos comunes en las imágenes comprimidas.  El término «li» al final de jpegli proviene de los dialectos alemanes suizos y significa «pequeño», lo que refleja su enfoque en la reducción del tamaño de los archivos JPEG.

Características de Jpegli

Una característica destacada de Jpegli es que es un poco mejor que WebP gracias a su compresión más rápida y de mayor calidad, además de que su capacidad para codificar imágenes con 10 o más bits por componente de color, manteniendo al mismo tiempo la compatibilidad con los decodificadores JPEG existentes que solo admiten 8 bits por componente de color. Esto garantiza que las imágenes codificadas con jpegli cumplan totalmente con el estándar JPEG y sean compatibles con visores y navegadores web convencionales. Además, la biblioteca ofrece una velocidad de codificación comparable a la de bibliotecas como libjpeg-turbo y MozJPEG.

De las características que se destacan de Jpegli, se mencionan las siguientes:

Mejoras de compatibilidad y compresión

Jpegli mantiene una alta compatibilidad con las versiones anteriores del formato JPEG, lo que garantiza una integración sin problemas en los sistemas existentes. Además, ofrece una mejora impresionante del 35% en la relación de compresión en configuraciones de alta calidad, lo que se traduce en un rendimiento más rápido de las páginas web sin comprometer la nitidez de las imágenes.

Mejoras de eficiencia y rendimiento

Jpegli es superior a los decodificadores JPEG existentes, ya que tiene una mejor eficiencia y rendimiento. El codificador y decodificador de Jpegli son totalmente interoperables y cumplen con el estándar JPEG original. Esto significa que los desarrolladores pueden integrar Jpegli en sus flujos de trabajo existentes sin sacrificar la velocidad de codificación o el uso de la memoria. Además, la velocidad de codificación de Jpegli es comparable a los enfoques tradicionales como libjpeg-turbo y MozJPEG, lo que garantiza un rendimiento óptimo.

Mejoras de calidad de Imagen

La biblioteca utiliza técnicas avanzadas para calcular de manera precisa los resultados intermedios durante la compresión y descompresión de imágenes. Esto se traduce en imágenes de alta calidad con menos artefactos visibles y una apariencia más nítida. Además permite la codificación con más de 10 bits por componente, lo que mejora aún más la calidad de imagen al reducir los artefactos de bandas en gradientes lentos.

Técnicas de codificación

Jpegli incorpora una serie de técnicas nuevas para mejorar la calidad de la imagen y reducir el ruido. Estas incluyen cuatro elementos clave para lograr una mayor compresión sin perder calidad:

  1. Cuantización Adaptativa: En lugar de utilizar cuantización fija como en los archivos JPEG tradicionales, jpegli emplea cuantización adaptativa. Esta técnica ajusta qué elementos de una imagen deben conservarse según las regiones de la imagen, reduciendo el ruido y manteniendo los detalles intactos. Esto permite una compresión del 35% sin comprometer la calidad.
  2. Selección de Matriz Mejorada: Jpegli utiliza una selección mejorada de matrices de cuantificación, lo que contribuye a optimizar la compresión y calidad de la imagen. Esta mejora se basa en las técnicas avanzadas de selección de matrices utilizadas en bibliotecas como JPEG XL.
  3. Cálculos Precisos: La biblioteca realiza cálculos precisos durante el proceso de compresión y descompresión, asegurando una representación fiel de la imagen original y evitando la introducción de artefactos no deseados.
  4. Espacio de Color Avanzado Opcional: Jpegli también ofrece la opción de utilizar un espacio de color avanzado, lo que permite una mayor flexibilidad y precisión en la representación de colores, especialmente en imágenes con una amplia gama cromática.

Lo más notable de jpegli es su enfoque en la calidad de imagen. Utiliza tecnologías avanzadas para reducir el ruido y mejorar la calidad visual, aplicando métodos de modelado psicovisual más efectivos para minimizar los artefactos en las imágenes resultantes. Estas mejoras se basan en las heurísticas de cuantificación adaptativas utilizadas en el proyecto JPEG XL, así como algoritmos mejorados para la selección de matrices de cuantificación y cálculos intermedios.

Si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace y puedes consultar su código fuente en el siguiente enlace.

from Linux Adictos https://ift.tt/WBh4nyU
via IFTTT