Sunny today!

En Veracruz hoy la condición actual es Clear y una temperatura de 22C.

La máxima temperatura será de 28C y la mínima de 21C.
Durante el día la condición se pronostica como Sunny

Sunrise December 31, 2021 at 06:57AM
Sunset December 31, 2021 at 05:57PM

Viento con dirección South y velocidad de 8 Km/h

With a high of 83F and a low of 69F.
via IFTTT

El principio del fin. La prehistoria de Unix parte 9

El principio del fin

Los laboratorios Bell albergaron a varios de los científicos más inteligentes de su generación. Algunos incluso llegaron a ocupar cargos gerenciales en la empresa madre. Sin embargo, fueron incapaces de ver el cambio que estaba sucediendo a su alrededor. Cambio que en gran parte era responsabilidad de los laboratorios Bell. Entender esta historia nos servirá para comprender por qué Unix se convirtió en el sistema operativo de referencia y, por qué en lugar de utilizarlo hoy la mayoría de las computadoras corren reimplementaciones o inspiraciones. Para los que me lo reclaman, cuando termine esta serie y antes de empezar con la historia de Unix, prometo publicar las fuentes bibliográficas.

El principio del fin de una institución

Los directivos de la AT&T cometieron el peor de los pecados. Se olvidaron de que dirigían una empresa. Ellos veían a su monopolio como una institución estadounidense al nivel de la torta de manzanas, los fuegos artificiales del 4 de julio o el partido de fútbol americano del Día de Acción de Gracias. Prefirieron ignorar las señales de que había políticos y burócratas que estaban dispuestos a recordárselo (Eso será parte del siguiente artículo) pero, tuvieron que enfrentarlo cuando fueron los propios consumidores estadounidenses quienes enviaron claramente el mensaje.

Cuando, en la segunda década del siglo XX, Theodore Vail se hizo cargo de la compañía decidió abandonar el sistema de expansión agresiva de sus predecesores y pactar las condiciones de un monopolio con las autoridades nacionales y estatales. En aquel momento un monopolio tenía sentido ya que las inversiones necesarias para construir un sistema de comunicaciones integrado (sobre todo en una geografía tan extensa y variada como la de USA) estaban solo al alcance de grandes compañías o gobiernos.

Vail no solo fue quién sugirió a las autoridades la creación de entes reguladores. También les enseñó que era lo que tenían que regular. Estableció como objetivo el ofrecer un servicio básico a nivel local a precios accesibles. Las comunicaciones de larga distancia eran más una necesidad de las grandes corporaciones y entes estatales que podían pagar tarifas más altas.

Me sorprendió saber que una de las fuentes de ingresos de la AT&T no tenía que ver con las comunicaciones sino con las finanzas. La empresa conseguía préstamos a tasas bajas para financiar la instalación de líneas y equipos. A su vez se las financiaba a los clientes a tasas un poco más elevadas quedándose con la diferencia.

Cambia, todo cambia

A principio de los cincuenta fue evidente para muchos que el sistema tenía que modificarse. La expansión de la red de carreteras, la popularización del automóvil, la emancipación de la mujer y la cantidad de gente que vio mundo gracias a la segunda guerra mundial produjeron cambios sociales profundos.

En primer lugar, los adolescentes comenzaron a buscar formas de diferenciarse de sus padres. En segundo, la gente se acostumbró a viajar lejos de casa. Cuando se construyó el monopolio, el objetivo era que la gente utilizara el teléfono dentro de su pueblo. Ahora se utilizaba cada vez más en llamadas de larga distancia. El problema era que en el esquema imaginado por Vail las comunicaciones a larga distancia subsidiaban las llamadas locales ya que el sistema se veía como una red de redes locales.

Y, no nos olvidemos del desbarajuste provocado por el amigo Shannon al demostrar como por el mismo sistema telefónico era posible transmitir señales de video y datos.

La AT&T barrió el problema abajo de la alfombra. En lugar de redefinir su servicio como una sola red para transmitir múltiples tipos de datos y enfocada a la larga distancia, decidió multiplicar sus esfuerzos en el negocio tradicional. Claro que hacer lo primero hubiera significado discusiones con los entes reguladores estatales y nacionales, y, eventualmente renunciar al monopolio.

Fue así como la empresa inició una campaña agresiva para la gente utilizara más el teléfono e incluso contratara una segunda o tercera línea. La Western Electric hizo la gran Apple diseñando aparatos que fueran decorativos. Incluso intentó (y fracasó) vender un videoteléfono en el mercado corporativo.

Como compensación empezó a ofrecer descuentos a grandes usuarios de llamadas de larga distancia.

Lo que tiene de bueno el capitalismo, es que siempre alguien detecta una necesidad y la satisface, siempre que sea rentable y sin importar que las regulaciones prohíban hacerlo. La AT&T tenía vedado el ingreso al mercado informático y era tanta su devoción al privilegio monopólico que evitaba comercializar equipos que pudieran identificarse como una computadora. Sin embargo, otras empresas a pesar de los impedimentos legales no vacilaron en comercializar centrales telefónicas automáticas y modems mucho más baratos. Con el correr del tiempo, los jueces fallarían a favor de estas empresas convirtiéndolas en legales.

¿Se acuerdan de los descuentos en llamadas internacionales para grandes usuarios? En seguida alguien descubrió el negocio de la intermediación. Compraba grandes planes de datos y los fraccionaba para que los usuarios individuales se beneficiaran de los menores costos. También la AT&T fracasó en impedirlo.

Y, por último, vino la inflación. Las bajas tasas de financiamiento que conseguía la compañía quedaron en el pasado. Y, como no podía aumentar las tarifas a los usuarios, lo que antes era una forma de ganar dinero ahora se transformó en una sangría de fondos.

Lo prometo, un artículo más y llegamos a Unix.

from Linux Adictos https://ift.tt/3EK5uGx
via IFTTT

El principio del fin. La prehistoria de Unix parte 9

El principio del fin

Los laboratorios Bell albergaron a varios de los científicos más inteligentes de su generación. Algunos incluso llegaron a ocupar cargos gerenciales en la empresa madre. Sin embargo, fueron incapaces de ver el cambio que estaba sucediendo a su alrededor. Cambio que en gran parte era responsabilidad de los laboratorios Bell. Entender esta historia nos servirá para comprender por qué Unix se convirtió en el sistema operativo de referencia y, por qué en lugar de utilizarlo hoy la mayoría de las computadoras corren reimplementaciones o inspiraciones. Para los que me lo reclaman, cuando termine esta serie y antes de empezar con la historia de Unix, prometo publicar las fuentes bibliográficas.

El principio del fin de una institución

Los directivos de la AT&T cometieron el peor de los pecados. Se olvidaron de que dirigían una empresa. Ellos veían a su monopolio como una institución estadounidense al nivel de la torta de manzanas, los fuegos artificiales del 4 de julio o el partido de fútbol americano del Día de Acción de Gracias. Prefirieron ignorar las señales de que había políticos y burócratas que estaban dispuestos a recordárselo (Eso será parte del siguiente artículo) pero, tuvieron que enfrentarlo cuando fueron los propios consumidores estadounidenses quienes enviaron claramente el mensaje.

Cuando, en la segunda década del siglo XX, Theodore Vail se hizo cargo de la compañía decidió abandonar el sistema de expansión agresiva de sus predecesores y pactar las condiciones de un monopolio con las autoridades nacionales y estatales. En aquel momento un monopolio tenía sentido ya que las inversiones necesarias para construir un sistema de comunicaciones integrado (sobre todo en una geografía tan extensa y variada como la de USA) estaban solo al alcance de grandes compañías o gobiernos.

Vail no solo fue quién sugirió a las autoridades la creación de entes reguladores. También les enseñó que era lo que tenían que regular. Estableció como objetivo el ofrecer un servicio básico a nivel local a precios accesibles. Las comunicaciones de larga distancia eran más una necesidad de las grandes corporaciones y entes estatales que podían pagar tarifas más altas.

Me sorprendió saber que una de las fuentes de ingresos de la AT&T no tenía que ver con las comunicaciones sino con las finanzas. La empresa conseguía préstamos a tasas bajas para financiar la instalación de líneas y equipos. A su vez se las financiaba a los clientes a tasas un poco más elevadas quedándose con la diferencia.

Cambia, todo cambia

A principio de los cincuenta fue evidente para muchos que el sistema tenía que modificarse. La expansión de la red de carreteras, la popularización del automóvil, la emancipación de la mujer y la cantidad de gente que vio mundo gracias a la segunda guerra mundial produjeron cambios sociales profundos.

En primer lugar, los adolescentes comenzaron a buscar formas de diferenciarse de sus padres. En segundo, la gente se acostumbró a viajar lejos de casa. Cuando se construyó el monopolio, el objetivo era que la gente utilizara el teléfono dentro de su pueblo. Ahora se utilizaba cada vez más en llamadas de larga distancia. El problema era que en el esquema imaginado por Vail las comunicaciones a larga distancia subsidiaban las llamadas locales ya que el sistema se veía como una red de redes locales.

Y, no nos olvidemos del desbarajuste provocado por el amigo Shannon al demostrar como por el mismo sistema telefónico era posible transmitir señales de video y datos.

La AT&T barrió el problema abajo de la alfombra. En lugar de redefinir su servicio como una sola red para transmitir múltiples tipos de datos y enfocada a la larga distancia, decidió multiplicar sus esfuerzos en el negocio tradicional. Claro que hacer lo primero hubiera significado discusiones con los entes reguladores estatales y nacionales, y, eventualmente renunciar al monopolio.

Fue así como la empresa inició una campaña agresiva para la gente utilizara más el teléfono e incluso contratara una segunda o tercera línea. La Western Electric hizo la gran Apple diseñando aparatos que fueran decorativos. Incluso intentó (y fracasó) vender un videoteléfono en el mercado corporativo.

Como compensación empezó a ofrecer descuentos a grandes usuarios de llamadas de larga distancia.

Lo que tiene de bueno el capitalismo, es que siempre alguien detecta una necesidad y la satisface, siempre que sea rentable y sin importar que las regulaciones prohíban hacerlo. La AT&T tenía vedado el ingreso al mercado informático y era tanta su devoción al privilegio monopólico que evitaba comercializar equipos que pudieran identificarse como una computadora. Sin embargo, otras empresas a pesar de los impedimentos legales no vacilaron en comercializar centrales telefónicas automáticas y modems mucho más baratos. Con el correr del tiempo, los jueces fallarían a favor de estas empresas convirtiéndolas en legales.

¿Se acuerdan de los descuentos en llamadas internacionales para grandes usuarios? En seguida alguien descubrió el negocio de la intermediación. Compraba grandes planes de datos y los fraccionaba para que los usuarios individuales se beneficiaran de los menores costos. También la AT&T fracasó en impedirlo.

Y, por último, vino la inflación. Las bajas tasas de financiamiento que conseguía la compañía quedaron en el pasado. Y, como no podía aumentar las tarifas a los usuarios, lo que antes era una forma de ganar dinero ahora se transformó en una sangría de fondos.

Lo prometo, un artículo más y llegamos a Unix.

from Linux Adictos https://ift.tt/3EK5uGx
via IFTTT

TikTok Live Studio viola la licencia GPL al utilizar código de OBS

Hace poco se dio a conocer en la red la noticia en la cual dan a conocer el resultado de la descompilación de la aplicación TikTok Live Studio, la cual libero recientemente para poder ser probada por los usuarios de TikTok.

Los hechos revelaron que al realizar la descompilacion del código, este toma prestado parte del código del proyecto libre «OBS Studio». Los detalles fueron revelados y se menciona que este hecho se ha realizado sin cumplir con los requisitos de la licencia GPLv2, que dio instrucciones para distribuir proyectos derivados en las mismas condiciones.

Básicamente, el problema en el cual se ha metido TikTok, es que este no cumplió con estas condiciones y comenzó a distribuir la versión de prueba solo en forma de compilaciones listas para usar, sin brindar acceso al código fuente de su bifurcación de OBS.

Actualmente, la página para cargar TikTok Live Studio ya se eliminó del sitio TikTok, pero los enlaces directos para descargar están disponibles mientras se trabaja.

Ademas de ello se observa que tras el primer examen superficial de TikTok Live Studio, los desarrolladores de OBS se sorprendieron de inmediato por alguna similitud estructural del nuevo producto con OBS.

En particular los desarrolladores de OBS señalan a los archivos «GameDetour64.dll», «Inject64.exe» y «MediaSDKGetWinDXOffset64.exe» que se parecían a los componentes «graphics-hook64.dll», «inject-helper64.exe» y «get-graphics-offsets64.exe» dentro del codigo que se distribuye en OBS.

Tras esto y al realizar la descompilación de TikTok Live Studio se confirmaron las conjeturas y se identificaron referencias directas a OBS en el código.

Hasta el momento aún no está claro si TikTok Live Studio puede verse como una bifurcación completa o si el programa usa solo fragmentos aislados de código OBS, pero independientemente del caso, esto produce una violación  directa a la licencia GPL con cualquier préstamo o replicación del código.

Por otra parte, los desarrolladores del sistema de transmisión de video en streaming OBS Studio han expresado su voluntad de resolver pacíficamente el conflicto y estarían felices de establecer una relación de trabajo amistosa con el equipo de TikTok si comienzan a cumplir con los requisitos de GPL.

Aunque hacen mención que en caso de ignorar el problema o no estar dispuesto a solucionar la infracción, el proyecto OBS se compromete a mantener bajo observación que se haga cumplir las pautas de la GPL y está listo para luchar contra el infractor. Se observa que el proyecto OBS ya ha dado los primeros pasos para resolver el conflicto.

Para quienes aún desconocen del proyecto OBS Studio, deben saber que este desarrolla una aplicación multiplataforma de código abierto para transmisión, composición y grabación de video.

OBS Studio admite la transcodificación de flujo de origen, la captura de video mientras se juega y la transmisión a Twitch, Facebook Gaming, YouTube, DailyMotion, Hitbox y más. Admite la composición con creación de escenas basada en secuencias de video arbitrarias, datos de cámaras web, tarjetas de captura de video, imágenes, texto, contenido de ventanas de aplicaciones o la pantalla completa.

Durante la transmisión, se permite cambiar entre varias opciones de escena predefinidas (por ejemplo, para cambiar de vista con énfasis en el contenido de la pantalla y la imagen de una cámara web). El programa también proporciona herramientas para la mezcla de sonido, filtrado con complementos VST, nivelación de volumen y supresión de ruido.

Es una práctica común crear aplicaciones de transmisión especializadas basadas en OBS, por ejemplo, StreamLabs y Reddit RPAN Studio se basan en OBS, pero estos proyectos cumplen con la GPL y publican el código fuente de sus productos bajo la misma licencia. Hubo un tiempo en que había un conflicto con StreamLabs relacionados con la infracción de la marca OBS debido a la utilización de este nombre en su producto, y se instaló en un principio, pero recientemente se encendió de nuevo debido a un intento de registrar la marca StreamLabs OBS.

Finalmente si estás interesado en conocer más al respecto, puedes seguir el hilo de la discusión en el siguiente enlace.

from Linux Adictos https://ift.tt/3z9IvUc
via IFTTT

Hora de hacer trampa. Trabajando con los formatos de Amazon

Hora de hacer trampa

Me gusta el software libre y de código abierto como al que más. Pero, también me gusta poder hacer lo que necesito. Si hay una cosa en que el software privativo nos gana es que puede contratar desarrolladores a tiempo completo. Quiero atraer vuestra atención al problema que viene ocupándonos hace dos artículos. La forma de quitarle la protección anticopia a los libros de Amazon para poder convertirlos a otros formatos y trabajar con ellos en otros dispositivos.


Cabe mencionar que la prohibición de hacerlo por parte de Amazon se produce también, aunque el autor de su permiso.

Volviendo al inicio del artículo, estuve hablando bastante de una solución basada en dos complementos para Calibre. Son soluciones de código abierto desarrolladas por voluntarios y que tienen limitaciones. A esto hay que sumarle que Amazon tiene ejércitos de desarrolladores dedicados a encontrar y corregir fallas de seguridad. Y, ellos también saben usar Google.
Como resultado, esos complementos funcionan por muy poco tiempo hasta que los desarrolladores encuentran ratos libres para hacer ingeniería inversa y sacar una nueva versión.

Es hora de hacer trampa. Usando aplicaciones privativas de Windows.

Existen algunas herramientas shareware que funcionan bajo Wine y, como son de pago y pueden tener desarrolladores a tiempo completo, funcionan durante más tiempo. Por supuesto, que en la modalidad gratuita tienen limitaciones en sus prestaciones.

  • Epubor Ultimate: Es la herramienta que más aparece mencionada en los artículos. Está disponible para Windows y Mac Además de los formatos de Kindle remueve también el DRM de Adobe, Kobo y Nook. El único problema es que la versión gratuita solo convierte el 20% del contenido por lo que deberás pagar los $24, 99 de la licencia. COmo contrapartida, podrás convertir varios libros a la vez
  • eBook Kindle DRM Removal: Convierte todo en formato. azw y algo de .kfx. La conversión puede ser a epub, doc, txt o html.  En todos los casos sin pérdida de calidad.
  • iSummersoft Kindle Converter: También disponible para Windows y Mac, elimina el DRM en los formatos  kfx, azw y azw3 sin pérdida de calidad. La version de prueba solo convierte tres libros. El costo de la versión de pago es $19,99 dólares.

Cuando todo lo demás falla

Si eres un hábil mecanógrafo, siempre puedes hacerte una copia del libro tipeándolo. Pero, si no lo eres hay un script que permite pasar manualmente las páginas del lector en la nube de Amazon y hacer una captura de cada una de ellas. Cuando termina el procedimiento solo tienes que unirlas en un pdf y pasarlas por un programa de reconocimiento óptico de caracteres. Por ejemplo subir el pdf a Google Drive y abrirlo con documentos de Google ya es suficiente.

Para poder hacer esto necesitamos dos programas que están en los repositorios de todas las distribuciones Linux:

  • Xdotool para simular la presión del ratón en un lapso indicado de tiempo.
  • Scrot es la herramienta que hará la captura de pantallla en segundo plano.

Procedimiento

  • Abre el navegador y ve al lector cloud, elige un libro, configúralo para la vista en una sola página y colócate en la página inicial.
  • Abre la terminar y minimizándola colócala en el lado izquierdo del navegador.
  • Escribe xdotool getmouselocation en la terminal, pero no presiones Enter.
  • Lleva el puntero contra el margen derecho a mitad de la altura del monitor y pulsa Enter.
  • Toma nota de los valores de X e Y. Cierra la terminal.
  • Abre el editor de textos y copia lo siguiente.

#!/bin/bash
while [ 1 ]; do
xdotool mousemove XXXX YYY click 1 &
scrot -q 100 '%Y-%m-%d-%H:%M:%S.png' -e 'mv $f ~/Imágenes/'
sleep 20
done

Recuerda reemplazar XXXX e YYY con las coordenadas que anotaste.

  • Guarda el archivo como script.sh en tu carpeta personal. Posa el puntero sobre su icono y con el botón derecho ve a Propiedades. Dale permiso de ejecución.
  • Escribe en la terminal ./script.sh y pon el navegador a pantalla completa.

Con este script se sacará una foto cada 20 segundos y la guardará en la carpeta imágenes hasta que cierres la terminal. Borra las que sobran. Para el reconocimiento necesitarás instalar los paquetes Tesseract y Tesseract-SPA además de alguna interfaz gráfica como Gscan2pdf. O, como te dije antes, Google drive y Docs.

Claro, que antes de hacer todo esto, deberías fijarte si alguien no subió el libro a Internet.

 

from Linux Adictos https://ift.tt/3sKeo4t
via IFTTT

OpenRGB 0.7 llega con un menú de configuración, correcciones de errores y mas

Para quienes desconocen de OpenRGB, deben saber que es un software de control de dispositivos de iluminación RGB y es una implementación ofrecida es bastante sólida que admite varias generaciones de controladores Aura en las plataformas Intel y AMD, lo que elimina la necesidad de instalar aplicaciones propietarias oficiales que están vinculadas a un fabricante específico.

OpenRGB es compatible con controladores compatibles con Aura utilizados en varios fabricantes de módulos de memoria RGB, incluidos G.Skill Trident Z RGB y otros.

El proyecto ofrece una biblioteca de funciones con una API universal para controlar la retroiluminación de las aplicaciones, una utilidad de consola y una interfaz gráfica en Qt. Admite la elección de modos de cambio de color (onda de color, etc.), control de las zonas de retroiluminación, aplicación de efectos avanzados, definición del diseño de los LED y sincronización de la retroiluminación con las acciones realizadas (música de color, etc.).

 

Principales novedades de OpenRGB 0.7

En esta nueva versión que se presenta se ha añadido un menú de configuración y en el cual ahora, para configurar una funcionalidad específica (E1.31, QMK, Philips Hue, Philips Wiz, dispositivos Yeelight y dispositivos controlados a través de un puerto serie, por ejemplo, basado en Arduino), no es necesario editar el archivo de configuración manualmente.

Otro de los cambios que se implementa, es en el control de inicio automático de OpenRGB el cual al iniciar el sistema ahora está disponible en el menú de configuración. Puede especificar acciones adicionales que OpenRGB llevará a cabo en este lanzamiento (aplicando perfiles, lanzando en modo servidor).

Tambien se destaca que se agregó la capacidad de guardar configuraciones en un dispositivo si hay memoria Flash en el dispositivo. El ahorro se realiza solo mediante comando para evitar el desperdicio de recursos Flash. Anteriormente, no se realizaba el guardado para dichos dispositivos por las mismas razones.

Los complementos ahora tienen un mecanismo de control de versiones para evitar fallas debido a compilaciones heredadas con versiones más nuevas de OpenRGB.

Ademas se agregó un control deslizante para controlar el brillo de los dispositivos que tienen esta configuración además de la configuración de color, tambien se agregó la capacidad de instalar complementos a través del menú de configuración y se agregó una consola de registro para facilitar la obtención de información sobre fallas de nuevos usuarios.

Finalmente, tambien se menciona que cuando se encuentran nuevos dispositivos que requieren un ajuste de dimensionalidad (controladores ARGB), OpenRGB le pedirá al usuario que lo haga.

En cuanto a los problemas que fueron resueltos:

  • Se corrigieron problemas con la detección de dispositivos USB relacionados con la interfaz / página / valores de uso que difieren entre sistemas operativos
  • Mapas de ubicación de teclas corregidos (diseños) en muchos dispositivos.
  • Formato mejorado de registros
  • Se corrigió el problema de inicialización de múltiples WMI (lo que resultó en la imposibilidad de volver a detectar dispositivos SMBus)
  • Interfaz de usuario ligeramente mejorada
  • Se corrigieron fallas de la aplicación al conectar ratones Logitech (G502 Hero y G502 PS)
  • Se corrigieron fallas de la aplicación al descargar complementos

En cuanto a la lista de nuevos dispositivos soportados, los podremos consultar aquí. Puedes consultar la compatibilidad de hardware que actualmente soporta esta utilidad en el siguiente enlace.

¿Cómo instalar OpenRGB en Linux?

Para quienes estén interesados en poder instalar OpenRGB en su sistema, deben seguir las instrucciones que compartimos a continuación.

Lo primero que debemos hacer es instalar la última edición de Qt Creator.

En el caso de Ubuntu y derivados debemos de instalar algunas dependencias:

sudo apt install qt5-default libusb-1.0-0-dev libhidapi-dev

Ahora vamos a obtener la utilidad con el comando:

git clone https://gitlab.com/CalcProgrammer1/OpenRGB

Hecho esto ahora debemos de actualizar los submodulos:

git submodule update --init –recursive

Y aquí podemos hacer dos cosas una de ellas es abrir el proyecto con QT creator o realizar la compilación de este en el sistema.

Para realizar la compilación basta con ejecutar los siguientes comandos:

cd OpenRGB
qmake OpenRGB.pro
make -j8
./OpenRGB

Al finalizar la compilación debemos de permitir el acceso a SMBus.

En Intel podemos hacerlo con el comando:

modprobe i2c-dev i2c-i801

O en el caso de AMD, debemos primero enumerar los controladores SMBus con:

sudo i2cdetect -l

Ya identificado el controlador debemos de otorgar permisos al controlador, por ejemplo:

sudo chmod 777 /dev/i2c-0

Por último se debe tomar en cuenta que todavía se carece de algunas capacidades para persistir en todos los reinicios, pero la funcionalidad principal de configurar colores y modos son estables.

Si quieres conocer más al respecto puedes consultar los detalles en el siguiente enlace.

from Linux Adictos https://ift.tt/3sMxerQ
via IFTTT

Identificaron otra vulnerabilidad Log4j 2 y esta marcada como peligrosa

log4j

Hace algunas semanas la noticia de los problemas de seguridad de Log4j estuvieron poniendo de cabeza a muchos usuarios en la red y es que es una de las fallas que más se ha explotado y la cual muchos expertos han etiquetado como «la más peligrosa en mucho tiempo», de las vulnerabilidades que se dieron a conocer en la red hablamos de algunas de ellas aquí en el blog y en esta ocasión hemos encontrado la noticia de otra.

Y es que hace pocos dias se dio a conocer la noticia de que se identificó otra vulnerabilidad en la biblioteca Log4j 2 (la cual ya está catalogada bajo CVE-2021-45105) y que, a diferencia de los dos problemas anteriores, se clasificó como peligrosa, pero no crítica.

El nuevo problema permite una denegación de servicio y se manifiesta en forma de bucles y terminaciones anormales al procesar ciertas líneas.

La vulnerabilidad afecta a los sistemas que utilizan la búsqueda de contexto, como ${ctx: var}, para determinar el formato de salida del registro.

Las versiones de Log4j de 2.0-alpha1 a 2.16.0 carecían de protección contra la recursividad incontrolada, lo que permitía a un atacante manipular el valor utilizado en sustitución para provocar un bucle sin fin que se quedaría sin espacio en la pila y provocaría que el proceso se bloqueara. En particular, el problema se produjo al sustituir valores como «$ {$ {:: – $ {:: – $$ {:: – j}}}}».

Además, se puede notar que investigadores de Blumira han propuesto un ataque a aplicaciones Java vulnerables que no aceptan solicitudes de redes externas, por ejemplo, se pueden atacar sistemas de desarrolladores o usuarios de aplicaciones Java de esta forma.

La esencia del método es que si hay procesos Java vulnerables en el sistema del usuario que aceptan conexiones de red solo desde el host local (localhost), o procesan RMI-solicitudes (Invocación de método remoto, puerto 1099), el ataque puede ser realizado por código JavaScript ejecutado cuando el usuario abre una página maliciosa en el navegador. Para establecer una conexión al puerto de red de una aplicación Java en un ataque de este tipo, se usa la API de WebSocket, a la cual, a diferencia de las solicitudes HTTP, no se aplican restricciones del mismo origen (WebSocket también se puede usar para escanear puertos de red en el local host para determinar los controladores de red disponibles).

También son de interés los resultados de evaluar la vulnerabilidad de las bibliotecas asociadas a las dependencias con Log4j publicados por Google. Según Google, el problema afecta al 8% de todos los paquetes en el repositorio de Maven Central.

En particular, 35863 paquetes Java relacionados con Log4j con dependencias directas e indirectas fueron expuestos a vulnerabilidades. A su vez, Log4j se utiliza como dependencia directa del primer nivel solo en el 17% de los casos, y en el 83% de los paquetes cubiertos por la vulnerabilidad, la vinculación se realiza a través de paquetes intermedios que dependen de Log4j, es decir. dependencias del segundo y más alto nivel (21% – el segundo nivel, 12% – el tercero, 14% – el cuarto, 26% – el quinto, 6% – el sexto).

El ritmo de reparación de la vulnerabilidad todavía deja mucho que desear, una semana después de que se identificó la vulnerabilidad, de 35863 paquetes identificados, el problema se ha solucionado hasta ahora solo en 4620, es decir, al 13%.

Los cambios en los paquetes son necesarios para actualizar los requisitos de dependencia y reemplazar los enlaces de versiones antiguas con versiones fijas de Log4j 2 (los paquetes de Java practican el enlace a una versión específica, y no un rango abierto que permite la instalación de la versión más reciente).

La eliminación de la vulnerabilidad en las aplicaciones Java se ve obstaculizada por el hecho de que los programas a menudo incluyen una copia de las bibliotecas en la entrega, y no es suficiente actualizar la versión Log4j 2 en los paquetes del sistema.

Mientras tanto, la Agencia de EE. UU. Para la Protección de la Infraestructura y la Ciberseguridad emitió una directiva de emergencia que requiere que las agencias federales para que identificaran los sistemas de información afectados por la vulnerabilidad Log4j e instalaran las actualizaciones que bloqueen el problema antes del 23 de diciembre.

Por otra parte, se dio una pauta hasta el 28 de diciembre, en la cual las organizaciones tenían la obligación de informar sobre el trabajo realizado. Para simplificar la identificación de sistemas problemáticos, se ha elaborado una lista de productos en los que se ha confirmado la manifestación de una vulnerabilidad (hay más de 23 mil aplicaciones en la lista).

Finalmente, cabe mencionar que la vulnerabilidad se solucionó en Log4j 2.17 la cual fue publicada hace algunos dias y se recomienda a los usuarios que tienen las actualizaciones desactivadas, realicen la actualización correspondiente, ademas de que el peligro de la vulnerabilidad se mitiga por el hecho de que el problema se manifiesta solo en sistemas con Java 8.

Fuente: https://logging.apache.org/

from Linux Adictos https://ift.tt/3qEXBwW
via IFTTT

Wxrd, un servidor compuesto basado en Wayland para sistemas de realidad virtual

Hace poco Collabora dio a conocer el servidor compuesto wxrd, el cual está implementado sobre la base del protocolo Wayland y diseñado para formar un escritorio basado en componentes xrdesktop dentro de entornos de realidad virtual tridimensionales.

Como base, se utilizan la biblioteca wlroots, desarrollada por los desarrolladores del entorno de usuario Sway y el servidor compuesto wxrc, diseñado para su uso en sistemas de realidad virtual.

A diferencia de la solución propuesta originalmente en xrdesktop, wxrd ofrece un servidor compuesto especializado para entornos de realidad virtual, en lugar de adaptar administradores de ventanas y skins de escritorio existentes para sistemas de realidad virtual (el proyecto xrdesktop proporciona parches separados para kwin y GNOME Shell, que requieren adaptación para cada nueva liberación de estos componentes).

El uso de wxrd le permite no solo reflejar el contenido de un escritorio bidimensional existente, al mismo tiempo que se muestra en un monitor normal, sino también manejar por separado las ventanas lanzadas especialmente para un escritorio tridimensional (es decir, no proporcionar acceso desde un VR casco al escritorio utilizado en el sistema actual) y forma un entorno separado para el casco de realidad virtual).

A diferencia de proyectos similares como Simula VR, Stardust , Motorcar y Safespaces, el servidor compuesto wxrd se construye teniendo en cuenta un mínimo de dependencias y consumo de recursos. Wxrd también permite trabajar no solo con aplicaciones basadas en el protocolo Wayland y hace posible ejecutar aplicaciones X11 usando el servidor xwayland DDX.

Dado que la extensión del protocolo Wayland para teclados virtuales está en desarrollo, la entrada de datos a wxrd se implementa a través de un sistema de emulación de teclado que transfiere todos los caracteres Unicode, incluidos los emoji, desde el teclado virtual proporcionado en xrdesktop.

Wxrd requiere una tarjeta de video compatible con la API de gráficos Vulkan y la extensión VK_EXT_image_drm_format_modifier, compatible con Mesa desde la versión 21.1 (incluida con Ubuntu 21.04). El uso de la API de Vulkan para renderizar requiere la extensión VK_EXT_physical_device_drm, que se introdujo en Mesa 21.2 (Ubuntu 21.10).

De las ventajas de usar un servidor compuesto separado para sistemas de realidad virtual en lugar de integrarse con los administradores de ventanas 2D que se usan para mostrar un escritorio tradicional:

  • Cuando se inicia en una sesión basada en Wayland o X11, la biblioteca wlroots abre una ventana en la que puede capturar fácilmente la entrada del teclado y los eventos del mouse y redirigir esa entrada a una ventana específica en un entorno de realidad virtual. En el futuro, planean aprovechar esta oportunidad para organizar la entrada no solo a través de un controlador de realidad virtual, sino también mediante un teclado y un mouse convencionales.
  • Las ventanas no están limitadas por los bordes de un escritorio 2D y pueden tener un tamaño arbitrario, limitado solo por el tamaño máximo de textura admitido por el hardware.
  • La representación de Windows en wxrd se realiza con la frecuencia de actualización nativa de los auriculares 3D (HMD), mientras que la duplicación de ventanas de los administradores de ventanas normales utiliza la frecuencia de actualización utilizada para actualizar la información en un monitor fijo.
  • La representación de fuentes se puede realizar teniendo en cuenta la densidad de píxeles del casco 3D, sin hacer referencia a la densidad de píxeles de un monitor fijo.
  • Es posible usar wxrd en sistemas que solo tienen un casco 3D y no tienen un monitor regular.

Mientras que las contras de un servidor compuesto separado para realidad virtual:

  • En un entorno de realidad virtual, solo se muestran las aplicaciones que se han lanzado especialmente para un servidor compuesto separado, sin la capacidad de transferir o reflejar ventanas que ya están abiertas en el escritorio tradicional al entorno de realidad virtual (es decir, para continuar trabajando con aplicaciones abiertas en un entorno de realidad virtual) pantalla normal, tendrá que reiniciar en un entorno separado para el casco 3D).
  • El soporte de Wayland puede estar limitado en las implementaciones de API de Vulkan. Por ejemplo, gbm y wlroots no se pueden usar con controladores propietarios de NVIDIA debido a la falta de soporte para la extensión VK_EXT_drm_format_modifier.

Fuente: https://www.collabora.com

from Linux Adictos https://ift.tt/3EGmsWq
via IFTTT

Amazon y sus formatos. Cómo tratar de trabajar con ellos

Amazon y sus formatos

Estoy escribiendo una serie de artículos sobre cómo usar el software libre y de código abierto para trabajar con e-books.  Establecí una distinción absolutamente arbitraria que es la de considerar e-books solo a aquellos formatos que permiten un alto nivel de interactividad, porque en mi opinión, es en donde este formato les saca gran ventaja a los libros en papel.


Amazon y sus formatos. Un auténtico dolor de cabeza

Para bien o para mal, Amazon es un referente ineludible en el mercado de e-books. En un mundo ideal, mi recomendación sería evitar comprarles ya que su modelo de distribución impone serias restricciones a los derechos de los usuarios. Pero, hay libros que solo se consiguen en Amazon. Como una curiosidad técnica (Jamás influiría en los lectores para que violaran la ley) les comenté que había tres métodos para saltarse la tecnología de protección de copia:

  1. Usar Calibre con un complemento.
  2. Usar shareware con Wine.
  3. Usar un script de captura de pantalla secuencial.

El primer método me llevó casi todo el artículo anterior y solo funciona correctamente usando versiones anteriores del programa o la app Kindle. que solo trabajen con el formato .azw. Sin embargo, después descubrí que hay un complemento que bajo ciertas condiciones permite convertir .kfx en otros formatos.

El complemento KFX Input permite importar libros en formato Amazon KFX y convertirlos a otros formatos de libros electrónicos, como EPUB, para archivarlos y leerlos en dispositivos alternativos. El complemento puede convertir desde varias versiones de KFX: KFX monolítico, KFX-ZIP o KPF.

Cuando descargamos un libro en formato .kfx de las páginas de Amazon, lo que obtenemos es un paquete de archivos compuesto por un contenedor principal cifrado, un contenedor de metadatos, contenedores auxiliares (cero o más) y los datos del DRM. Cada uno de ellos contiene solo una parte del contenido del libro y no se pueden convertir de a uno. Además de la extensión «.kfx» podemos verlos en otros programas con las extensiones («.azw», «.azw8» y «.azw9»).

Limitaciones

Este complemento tiene un campo de acción muy limitado. El método solo funcionará con las versiones 1.19 a 1.26 de las aplicaciones Kindle para PC / Mac y las versiones 5.6.5 a 5.12.1 del firmware del dispositivo Kindle de tinta electrónica. No conseguirás nada con libros descargados con otras versiones de ese software u obtenidos con las aplicaciones de Kindle para iOS o Android.

Tengamos en cuenta que todos los libros descargados con las versiones nuevas del hardware y software de Amazon tienen protección DRM, a lo sumo, lo único que puede decidir el editor es eliminar el límite de dispositivos en que el usuario puede instalarlos.

El método de instalación del complemento es exactamente igual al que vimos en el artículo anterior, solo que no debemos extraer la carpeta previamente.

Métodos de importación de archivos .kfx

Si estamos usando la versión 1.19 o superior de Kindle para Windows o Mac tendremos que ir a la carpeta My Kindle Content. En ella hallaremos una subcarpeta para cada libro, nombrada con el ASIN de diez caracteres del libro seguido de «_EBOK». Dentro de la misma encontraremos el archivo principal del libro tendrá una extensión «.azw», En los dispositivos Kindle de tinta electrónica conectados a través de USB, el archivo principal de cada libro se encuentra en la carpeta «documentos» o, tal vez, en una subcarpeta denominada «Descargas» dentro de la anterior. Los archivos se identifican tanto con el el título del libro como con el ASIN. Los libros en formato KFX tendrán una extensión «.kfx».

Una vez que encontramos el libro, podemos pulsar el botón Agregar libros e ir al directorio o simplemente arrastrarlo y soltarlo en la ventana de la aplicación. Bajo ningún caso debe hacerse la importación desde una carpeta diferente a la original. El proceso de importación puede tardar un poco y, en caso de que sea exitoso, veremos en la lista el archivo en formato .kfx. Ya está listo para la conversión a otros formatos.

Si son sensibles, no lean el siguiente artículo. No voy a portarme como se requiere en un difusor del código abierto. Pero, es que si no puedo hacerlo por las buenas, tendré que ir por las malas.

from Linux Adictos https://ift.tt/3mK0hIw
via IFTTT