ReactOS 0.4.14 llega con diversas mejoras de estabilidad

Después de un año y medio de desarrollo se presentó el lanzamiento de la nueva versión  del sistema operativo ReactOS 0.4.14, versión en la cual se han realizado diversos cambios que mejoran enormemente la experiencia de uso, ademas de que se han mejorado varios componentes del sistema.

Para aquellos de nuestros lectores que aún no conozcan ReactOS les puedo decir que este es un sistema operativo de código abierto para PC x86/x64 concebido para ser compatible a nivel binario con programas informáticos y controladores de dispositivos diseñados para Microsoft Windows Server 2003.

Por lo tanto, es importante resaltar y entender en este punto que ReactOS no es ningún sistema que utilice el Kernel de Linux, es un sistema creado desde cero que sigue el modelo de desarrollo FLOSS como una alternativa a Windows.

Principales novedades en ReactOS 0.4.14

En esta nueva versión la función «Enviar a» se ha agregado al Shell personalizado, que permite enviar archivos y directorios a ubicaciones predefinidas, como la sección «Mis documentos», el escritorio o el directorio con archivos comprimidos, ademas se agregaron los comandos «Abrir ubicación de archivo» y «Abrir símbolo del sistema aquí» al menú contextual del escritorio para abrir el directorio con el archivo seleccionado en el administrador de archivos y mostrar el cuadro de diálogo de la línea de comandos. Se resolvieron los problemas de desplazamiento, se mejoraron algunas interfaces del Modelo de objetos componentes (COM) y se corrigieron los cambios regresivos en la implementación de arrastrar y soltar.

Otra de las novedades que se destaca es que la pila de redes ha mejorado la compatibilidad con el Protocolo de mensajes de control de Internet (ICMP), que anteriormente no cubría toda la especificación. La nueva versión introduce soporte para llamadas IOCTL_ICMP_ECHO_REQUEST y reescribe completamente todos los procedimientos Icmp *. Como resultado, los controladores de red ahora pueden enviar correctamente paquetes con solicitudes y respuestas ICMP a las aplicaciones, y la utilidad tracert muestra toda la información necesaria.

Por otra parte, se continuó con el trabajo para eliminar errores y aumentar la estabilidad del kernel del sistema operativo.: se realizaron mejoras y se reescribieron algunas partes del administrador de memoria, se comenzó a trabajar en la implementación del soporte PAE (Physical Address Extension). Se movió el código para manejar excepciones a CRT (C Run-Time) desde la base de código de Wine.

Se agregó la capacidad de arrancar en computadoras NEC PC-9800 enviadas con procesadores más potentes que el i586 y más de 64 MB de RAM. Soporte para el trabajo en el Proyecto de Neko 21 / W también se implementa emulador.

Tambien se destaca que se agregó una implementación inicial de la biblioteca Resource Arbiter que se puede usar para resolver conflictos de recursos en controladores de bus como PCI. También se agregó código para depurar administradores de E/S y PnP. El Administrador de PnP brinda soporte para mapear las capacidades del dispositivo a los indicadores que representan esas capacidades.

Ademas el depurador de kernel ha sido actualizado y tambien varios módulos relacionados: en el depurador interactivo KDBG, se han mejorado los comandos cregs y tss y se ha reescrito el código de procesamiento de TSS. Se completó la implementación de filtros de depuración.

El paquete incluye el controlador NetKVM VirtIO, que le permite acelerar las operaciones de red en entornos que ejecutan sistemas de virtualización basados ​​en QEMU y KVM.

De los demás cambios que se destacan:

  • Cuadro de diálogo Quitar hardware con seguridad mejorado, que ahora muestra los dispositivos conectados.
  • Se ha mejorado el cargador FreeLoader, en el que ha aparecido la capacidad de arrancar sistemas de 64 bits basados ​​en el kernel de Linux y se han resuelto problemas con la lectura del Ext2 FS.
  • Se corrigieron fallas al cargar en modo de depuración. Se requiere emulación ARC agregada para admitir hardware NEC PC-98.
  • Soporte de descarga mejorado en dispositivos Xbox.
  • El controlador PnP (classpnp.sys) corrige errores que impedían el funcionamiento normal de los dispositivos de almacenamiento.
  • El subsistema de E / S ha mejorado la interacción con los dispositivos.
  • Se han corregido una serie de vulnerabilidades de desbordamiento de búfer.
  • Implementaciones actualizadas del teclado en pantalla y herramientas para personas con discapacidades.
  • Trabajo continuo en el controlador ISA PnP para detectar dispositivos en el bus ISA.
  • Se corrigieron errores en el módulo comctl32 (controles comunes) que impedían la visualización normal del instalador de Visual Basic 6.
  • Se eliminaron las fuentes obsoletas que dieron como resultado pequeñas ganancias de rendimiento, menor consumo de RAM y tamaño reducido de las imágenes del sistema.

Si quieres conocer más al respecto sobre los detalles de esta nueva versión, puedes consultar la lista completa de cambios en el siguiente enlace.

Descargar ReactOS  0.4.14

Si quieren probar este sistema operativo pueden obtener una imagen del sistema dirigiéndose a la página web oficial del proyecto y en la sección de descargas de la página podrán encontrar el enlace de descarga de esta nueva versión del sistema.

En esta sección podremos encontrar el sistema en dos versiones diferentes el cual uno es el famoso bootcdy LiveCD.

La imagen de instalación ISO tiene un peso de 115 MB y tambien se ofrece una compilación Live (en el archivo zip de 85 MB) los cuales están preparados para descargar.

from Linux Adictos https://ift.tt/3mLlimh
via IFTTT

Se meten los políticos. La prehistoria de Unix última parte

Se meten los políticos

De las discusiones políticas más absurdas que me ha tocado vivir, sin dudas la peor es la de quienes creen que lo que determina si una organización es eficiente o no es si la administra el Estado o la empresa privada. Ambas son igualmente absurdas porque la gente es igual de (in) capaz en la misma proporción en cualquiera de las dos.

De todas formas, cada uno de los tipos tiene especímenes que le son propios. Por ejemplo, los laboratorios Bell tuvieron que sufrir dos clases de individuos que pululan en el Estado; los demagogos y los cruzados.


Los demagogos, asumen su cargo pr el voto popular y hacen cualquier cosa para obtenerlo. Es por eso por lo que buscan cualquier éxito rápido y momentáneo que puedan capitalizar en las siguientes elecciones. Los cruzados son funcionarios de carrera que están convencidos de que, si no aplican las normas a rajatabla, el mundo occidental y cristiano (reemplazar por el hemisferio, religión o filosofía política que corresponda) colapsará irremediablemente.

El monopolio telefónico de la AT&T, compuesto por la compañía matriz, una serie de prestadoras telefónica locales, un fabricante de equipos telefónicos (Western Electric) y los laboratorios Bell suministró durante mucho tiempo un servicio telefónico decente a millones de usuarios en EE. UU a un precio razonable. Sus empleados cobraban sueldos comparativamente altos y las investigaciones de los laboratorios Bell contribuyeron al liderazgo científico, tecnológico y militar del país.

Sin embargo, esto no era suficiente para los demagogos y los cruzados. Los primeros querían precios aún más bajos para el abono telefónico. Los segundos rabiaban por no poder aplicar a rajatabla la legislación antimonopolio.

A lo largo de su historia, la AT&T fue cediendo en cuestiones menores. Renunció a seguir comprando prestadoras telefónicas y restringió la venta de los equipos telefónicos solo al mercado local.

En 1949 el Departamento de Justicia fue por Western Electric, el fabricante de equipos. Pretendían que AT&T hiciera competencias de precios con otros competidores. La demanda se resolvió algunos años después con la intervención de funcionarios del presidente Eisenhower que le dijo a la empresa que tipo de acuerdo ofrecer. Y aquí es donde la cosa se pone interesante para nosotros.

AT&T podía conservar el monopolio telefónico siempre que su negocio se limitara a los servicios de comunicaciones regulados públicamente o al trabajo militar. En otras palabras, renunciaba a entrar al mercado informático o al de la electrónica de consumo. Además, acordó licenciar sus patentes estadounidenses presentes y futuras a todos los solicitantes estadounidenses, «sin límite de tiempo o uso que se les pueda dar».

Es decir que la AT&T no solo se prohibió a sí misma ingresar en otros mercados de rápido crecimiento. También facilitó la aparición de nuevos competidores en su mercado natural.

En el artículo anterior conté como los costos de la empresa fueron aumentando mientras nuevos competidores amenazaron su mercado más rentable. El de las llamadas internacionales. La firma quiso romper el esquema de subsidios a las llamadas locales subiendo los precios, pero los políticos impulsados por los medios pusieron el grito en el cielo. Fue entonces que los cruzados del Departamento de Justicia, aprovechando el vacío de poder resultante de la remoción de Richard Nixon fueron por el premio mayor. La disolución del monopolio telefónico.

Casi diez años después, cuando nadie pensaba y casi nadie quería que el juicio prosperara, la AT&T aceptó desprenderse de sus filiales locales a cambio de poder ingresar al mercado informático y conservar Western Electric y los laboratorios Bell. Tenía los conocimientos para hacerlo, pero carecía de la estructura de comercialización. Sus competidores que se habían beneficiado de los conocimientos generados en los laboratorios Bell, si la tenían. Como era de esperar, la aventura informática fue un fracaso.

Los laboratorios Bell fueron cambiando de dueño y hoy, mucho más reducidos y menos importantes, son propiedad de Nokia.
No sé si el servicio telefónico en EE.UU será mejor o más barato. Lo que es seguro es que el país ya no tiene el liderazgo tecnológico que había conseguido en el siglo pasado.

Para el año que viene les prometo la historia de Unix. ¡Muchas Felicidades!

Bibliografía

Comencé a interesarme en la AT&T y los laboratorios Bell cuando leí un clásico libro de Peter Drucker llamado La gerencia. Tareas, responsabilidades y prácticas. En diferentes capítulos habla del rol de Theodore Vail no solo creando el monopolio sino también los organismos reguladores. No aparece en Amazon España con ese título por lo que es probable que se haya editado con un título diferente.

Drucker también fue la fuente para contar los motivos y la forma de la disolución. Le dedica al tema todo un capítulo de su libro Las fronteras de la administración.

El libro de Jon Gertner, The idea Factory (no parece haber traducción al español) no solo presenta de manera fascinante la historia de los laboratorios desde sus orígenes hasta el momento de la disolución. También hace un análisis muy interesante sobre los cambios en los modelos de innovación.

La personalidad de Claude Shannon no cabe en un solo libro. Sony y Gadner cuentan como hizo Claude Shannon para inventar la era de la información en A mind at play.   Por su parte, Paul J Nahin investiga la influencia del trabajo de George Boole y su influencia en Shannon en The Logician and the Engineer:

from Linux Adictos https://ift.tt/3qFkPTS
via IFTTT

Gestionando e-books con Calibre. El placer de usar software libre

Gestionando e-books con Calibre

Hay programas que son difíciles de usar y otros muy fáciles. También hay programas que constituyen un auténtico placer utilizarlos. En mi caso se trata de Calibre.

Dediqué los tres artículos anteriores a demostrar que intentar hacer algo con los libros para kindle que compramos que no coincida con los caprichos monopólicos de Amazon es un auténtico dolor de cabeza. Uno termina bajándose por izquierda los libros que compró para poder cambiar la tipografía, tomar notas cómodamente y trabajarlo con el software de nuestra preferencia. No insistan, no voy a recomendar ninguna página. de dónde hacerlo.

Gestionando e-books con Calibre

Los formatos privativos como los adoptados por Amazon y otros fabricantes de lectores de libros electrónicos son una traba para aprovechar las ventajas inherentes a los e-books. Particularmente la de combinar, modificar y compartir contenidos. Es decir, la de todo lo que ayuda a incorporar conocimientos y que no tiene nada que ver con violar los derechos de autor.

Por suerte, los estándares abiertos contribuyen a combatir esta situación.

En el caso de Calibre nos estamos refiriendo a tres programas distintos instalados desde un solo paquete:

  • Un gestor de libros electrónicos.
  • Un editor en formato .epub o .azw
  • Un visor de libros electrónicos.

Con respecto al editor, no puede crear un archivo desde cero. Pero, eso se soluciona exportando un documento en formato .epub usando LibreOffice.

Las versiones de Calibre son las siguientes:

sudo -v && wget -nv -O- https://download.calibre-ebook.com/linux-installer.sh | sudo sh /dev/stdin

Calibre no tiene aplicación para móviles Android, aunque se puede acceder desde el navegador del dispositivo a la aplicación instalada en la computadora de manera inalámbrica o, si está conectado vía usb navegar por los archivos del dispositivo usando el programa. Lo mismo vale para dispositivos iOS.

Iniciando el gestor de libros

La primera vez que iniciamos el programa, debemos optar por el idioma y por el lugar donde se alojará la biblioteca. Si queremos utilizar una diferente a la que nos propone por defecto, debemos elegir una carpeta vacía. Es decir que no puedes escoger un directorio donde ya tengas almacenados libros. Es posible utilizar un disco externo, aunque al conectarte a otra instalación de calibre deberás indicarle manualmente donde está almacenada la biblioteca.

Lo siguiente es elegir una configuración de dispositivo lector. En el caso de que el tuyo no figure, selecciona Dispositivo de tinta electrónica genérica.

Puedes volver a iniciar el asistente cuantas veces quieras pulsando el botón del lado derecho de la barra de herramientas. Con esto verás el botón de preferencias y, si bajas por este panel un botón llamado Ejecutar el asistente de bienvenida.

La pantalla inicial de Calibre nos muestra una serie de botones que tienen una flecha que da acceso a un menú desplegable.

Para comenzar a sacarle jugo a Calibre tenemos que añadir libros. Esto puede hacerse de diferentes formas:

  • Añadir libros de una única carpeta: Al seleccionar esta opción se abre un explorador de archivos que  nos permite acceder a una carpeta predeterminada. Ahí podemos elegir cuales libros importar.
  • Añadir libros de carpetas y subcarpetas. Elegimos una carpeta y el programa busca recursivamente. A menos que indiquemos lo contrario importará un solo archivo por subcarpeta, asumiendo que los demás son el mismo título con otros formatos.
  • Añadir varios libros desde un archivo (ZIP/RAR): Esto es ideal para tener que tomar la molestia de descomprimir los libros que te descargaste de Internet o que tenías comprimidos en algún medio de almacenamiento.
  • Añadir libro en blanco: Con esta opción puedes entrar los datos de uno o más libros que todavía no tienes en tu colección para no tener que hacerlo cuando lo incorpores.
  • Añadir a partir del ISBN: Si conoces el código ISBN esta opción te permite escribirlo en el formulario. Calibre buscará y descargará los datos en forma automática. SI ya lo tienes descargado puedes agregar la ruta al archivo y lo agregará a la biblioteca.
  • Añadir archivos a los registros de libros seleccionados: Te permite agregar archivos a la carpeta correspondiente a cada libro almacenado.
  • Añadir un archivo vacío a los registros de libros seleccionados: Permite agregar un archivo en blanco en diferentes formatos. Esto también es una buena opción para luego crear un libro con el editor.

Como la última opción de este menú es muy extensa, queda para el próximo artículo.

También podemos añadir libros arrastrándolo de la carpeta de origen y soltándolo en la venta del programa.

from Linux Adictos https://ift.tt/3pGAzqc
via IFTTT

El principio del fin. La prehistoria de Unix parte 9

El principio del fin

Los laboratorios Bell albergaron a varios de los científicos más inteligentes de su generación. Algunos incluso llegaron a ocupar cargos gerenciales en la empresa madre. Sin embargo, fueron incapaces de ver el cambio que estaba sucediendo a su alrededor. Cambio que en gran parte era responsabilidad de los laboratorios Bell. Entender esta historia nos servirá para comprender por qué Unix se convirtió en el sistema operativo de referencia y, por qué en lugar de utilizarlo hoy la mayoría de las computadoras corren reimplementaciones o inspiraciones. Para los que me lo reclaman, cuando termine esta serie y antes de empezar con la historia de Unix, prometo publicar las fuentes bibliográficas.

El principio del fin de una institución

Los directivos de la AT&T cometieron el peor de los pecados. Se olvidaron de que dirigían una empresa. Ellos veían a su monopolio como una institución estadounidense al nivel de la torta de manzanas, los fuegos artificiales del 4 de julio o el partido de fútbol americano del Día de Acción de Gracias. Prefirieron ignorar las señales de que había políticos y burócratas que estaban dispuestos a recordárselo (Eso será parte del siguiente artículo) pero, tuvieron que enfrentarlo cuando fueron los propios consumidores estadounidenses quienes enviaron claramente el mensaje.

Cuando, en la segunda década del siglo XX, Theodore Vail se hizo cargo de la compañía decidió abandonar el sistema de expansión agresiva de sus predecesores y pactar las condiciones de un monopolio con las autoridades nacionales y estatales. En aquel momento un monopolio tenía sentido ya que las inversiones necesarias para construir un sistema de comunicaciones integrado (sobre todo en una geografía tan extensa y variada como la de USA) estaban solo al alcance de grandes compañías o gobiernos.

Vail no solo fue quién sugirió a las autoridades la creación de entes reguladores. También les enseñó que era lo que tenían que regular. Estableció como objetivo el ofrecer un servicio básico a nivel local a precios accesibles. Las comunicaciones de larga distancia eran más una necesidad de las grandes corporaciones y entes estatales que podían pagar tarifas más altas.

Me sorprendió saber que una de las fuentes de ingresos de la AT&T no tenía que ver con las comunicaciones sino con las finanzas. La empresa conseguía préstamos a tasas bajas para financiar la instalación de líneas y equipos. A su vez se las financiaba a los clientes a tasas un poco más elevadas quedándose con la diferencia.

Cambia, todo cambia

A principio de los cincuenta fue evidente para muchos que el sistema tenía que modificarse. La expansión de la red de carreteras, la popularización del automóvil, la emancipación de la mujer y la cantidad de gente que vio mundo gracias a la segunda guerra mundial produjeron cambios sociales profundos.

En primer lugar, los adolescentes comenzaron a buscar formas de diferenciarse de sus padres. En segundo, la gente se acostumbró a viajar lejos de casa. Cuando se construyó el monopolio, el objetivo era que la gente utilizara el teléfono dentro de su pueblo. Ahora se utilizaba cada vez más en llamadas de larga distancia. El problema era que en el esquema imaginado por Vail las comunicaciones a larga distancia subsidiaban las llamadas locales ya que el sistema se veía como una red de redes locales.

Y, no nos olvidemos del desbarajuste provocado por el amigo Shannon al demostrar como por el mismo sistema telefónico era posible transmitir señales de video y datos.

La AT&T barrió el problema abajo de la alfombra. En lugar de redefinir su servicio como una sola red para transmitir múltiples tipos de datos y enfocada a la larga distancia, decidió multiplicar sus esfuerzos en el negocio tradicional. Claro que hacer lo primero hubiera significado discusiones con los entes reguladores estatales y nacionales, y, eventualmente renunciar al monopolio.

Fue así como la empresa inició una campaña agresiva para la gente utilizara más el teléfono e incluso contratara una segunda o tercera línea. La Western Electric hizo la gran Apple diseñando aparatos que fueran decorativos. Incluso intentó (y fracasó) vender un videoteléfono en el mercado corporativo.

Como compensación empezó a ofrecer descuentos a grandes usuarios de llamadas de larga distancia.

Lo que tiene de bueno el capitalismo, es que siempre alguien detecta una necesidad y la satisface, siempre que sea rentable y sin importar que las regulaciones prohíban hacerlo. La AT&T tenía vedado el ingreso al mercado informático y era tanta su devoción al privilegio monopólico que evitaba comercializar equipos que pudieran identificarse como una computadora. Sin embargo, otras empresas a pesar de los impedimentos legales no vacilaron en comercializar centrales telefónicas automáticas y modems mucho más baratos. Con el correr del tiempo, los jueces fallarían a favor de estas empresas convirtiéndolas en legales.

¿Se acuerdan de los descuentos en llamadas internacionales para grandes usuarios? En seguida alguien descubrió el negocio de la intermediación. Compraba grandes planes de datos y los fraccionaba para que los usuarios individuales se beneficiaran de los menores costos. También la AT&T fracasó en impedirlo.

Y, por último, vino la inflación. Las bajas tasas de financiamiento que conseguía la compañía quedaron en el pasado. Y, como no podía aumentar las tarifas a los usuarios, lo que antes era una forma de ganar dinero ahora se transformó en una sangría de fondos.

Lo prometo, un artículo más y llegamos a Unix.

from Linux Adictos https://ift.tt/3EK5uGx
via IFTTT

El principio del fin. La prehistoria de Unix parte 9

El principio del fin

Los laboratorios Bell albergaron a varios de los científicos más inteligentes de su generación. Algunos incluso llegaron a ocupar cargos gerenciales en la empresa madre. Sin embargo, fueron incapaces de ver el cambio que estaba sucediendo a su alrededor. Cambio que en gran parte era responsabilidad de los laboratorios Bell. Entender esta historia nos servirá para comprender por qué Unix se convirtió en el sistema operativo de referencia y, por qué en lugar de utilizarlo hoy la mayoría de las computadoras corren reimplementaciones o inspiraciones. Para los que me lo reclaman, cuando termine esta serie y antes de empezar con la historia de Unix, prometo publicar las fuentes bibliográficas.

El principio del fin de una institución

Los directivos de la AT&T cometieron el peor de los pecados. Se olvidaron de que dirigían una empresa. Ellos veían a su monopolio como una institución estadounidense al nivel de la torta de manzanas, los fuegos artificiales del 4 de julio o el partido de fútbol americano del Día de Acción de Gracias. Prefirieron ignorar las señales de que había políticos y burócratas que estaban dispuestos a recordárselo (Eso será parte del siguiente artículo) pero, tuvieron que enfrentarlo cuando fueron los propios consumidores estadounidenses quienes enviaron claramente el mensaje.

Cuando, en la segunda década del siglo XX, Theodore Vail se hizo cargo de la compañía decidió abandonar el sistema de expansión agresiva de sus predecesores y pactar las condiciones de un monopolio con las autoridades nacionales y estatales. En aquel momento un monopolio tenía sentido ya que las inversiones necesarias para construir un sistema de comunicaciones integrado (sobre todo en una geografía tan extensa y variada como la de USA) estaban solo al alcance de grandes compañías o gobiernos.

Vail no solo fue quién sugirió a las autoridades la creación de entes reguladores. También les enseñó que era lo que tenían que regular. Estableció como objetivo el ofrecer un servicio básico a nivel local a precios accesibles. Las comunicaciones de larga distancia eran más una necesidad de las grandes corporaciones y entes estatales que podían pagar tarifas más altas.

Me sorprendió saber que una de las fuentes de ingresos de la AT&T no tenía que ver con las comunicaciones sino con las finanzas. La empresa conseguía préstamos a tasas bajas para financiar la instalación de líneas y equipos. A su vez se las financiaba a los clientes a tasas un poco más elevadas quedándose con la diferencia.

Cambia, todo cambia

A principio de los cincuenta fue evidente para muchos que el sistema tenía que modificarse. La expansión de la red de carreteras, la popularización del automóvil, la emancipación de la mujer y la cantidad de gente que vio mundo gracias a la segunda guerra mundial produjeron cambios sociales profundos.

En primer lugar, los adolescentes comenzaron a buscar formas de diferenciarse de sus padres. En segundo, la gente se acostumbró a viajar lejos de casa. Cuando se construyó el monopolio, el objetivo era que la gente utilizara el teléfono dentro de su pueblo. Ahora se utilizaba cada vez más en llamadas de larga distancia. El problema era que en el esquema imaginado por Vail las comunicaciones a larga distancia subsidiaban las llamadas locales ya que el sistema se veía como una red de redes locales.

Y, no nos olvidemos del desbarajuste provocado por el amigo Shannon al demostrar como por el mismo sistema telefónico era posible transmitir señales de video y datos.

La AT&T barrió el problema abajo de la alfombra. En lugar de redefinir su servicio como una sola red para transmitir múltiples tipos de datos y enfocada a la larga distancia, decidió multiplicar sus esfuerzos en el negocio tradicional. Claro que hacer lo primero hubiera significado discusiones con los entes reguladores estatales y nacionales, y, eventualmente renunciar al monopolio.

Fue así como la empresa inició una campaña agresiva para la gente utilizara más el teléfono e incluso contratara una segunda o tercera línea. La Western Electric hizo la gran Apple diseñando aparatos que fueran decorativos. Incluso intentó (y fracasó) vender un videoteléfono en el mercado corporativo.

Como compensación empezó a ofrecer descuentos a grandes usuarios de llamadas de larga distancia.

Lo que tiene de bueno el capitalismo, es que siempre alguien detecta una necesidad y la satisface, siempre que sea rentable y sin importar que las regulaciones prohíban hacerlo. La AT&T tenía vedado el ingreso al mercado informático y era tanta su devoción al privilegio monopólico que evitaba comercializar equipos que pudieran identificarse como una computadora. Sin embargo, otras empresas a pesar de los impedimentos legales no vacilaron en comercializar centrales telefónicas automáticas y modems mucho más baratos. Con el correr del tiempo, los jueces fallarían a favor de estas empresas convirtiéndolas en legales.

¿Se acuerdan de los descuentos en llamadas internacionales para grandes usuarios? En seguida alguien descubrió el negocio de la intermediación. Compraba grandes planes de datos y los fraccionaba para que los usuarios individuales se beneficiaran de los menores costos. También la AT&T fracasó en impedirlo.

Y, por último, vino la inflación. Las bajas tasas de financiamiento que conseguía la compañía quedaron en el pasado. Y, como no podía aumentar las tarifas a los usuarios, lo que antes era una forma de ganar dinero ahora se transformó en una sangría de fondos.

Lo prometo, un artículo más y llegamos a Unix.

from Linux Adictos https://ift.tt/3EK5uGx
via IFTTT

TikTok Live Studio viola la licencia GPL al utilizar código de OBS

Hace poco se dio a conocer en la red la noticia en la cual dan a conocer el resultado de la descompilación de la aplicación TikTok Live Studio, la cual libero recientemente para poder ser probada por los usuarios de TikTok.

Los hechos revelaron que al realizar la descompilacion del código, este toma prestado parte del código del proyecto libre «OBS Studio». Los detalles fueron revelados y se menciona que este hecho se ha realizado sin cumplir con los requisitos de la licencia GPLv2, que dio instrucciones para distribuir proyectos derivados en las mismas condiciones.

Básicamente, el problema en el cual se ha metido TikTok, es que este no cumplió con estas condiciones y comenzó a distribuir la versión de prueba solo en forma de compilaciones listas para usar, sin brindar acceso al código fuente de su bifurcación de OBS.

Actualmente, la página para cargar TikTok Live Studio ya se eliminó del sitio TikTok, pero los enlaces directos para descargar están disponibles mientras se trabaja.

Ademas de ello se observa que tras el primer examen superficial de TikTok Live Studio, los desarrolladores de OBS se sorprendieron de inmediato por alguna similitud estructural del nuevo producto con OBS.

En particular los desarrolladores de OBS señalan a los archivos «GameDetour64.dll», «Inject64.exe» y «MediaSDKGetWinDXOffset64.exe» que se parecían a los componentes «graphics-hook64.dll», «inject-helper64.exe» y «get-graphics-offsets64.exe» dentro del codigo que se distribuye en OBS.

Tras esto y al realizar la descompilación de TikTok Live Studio se confirmaron las conjeturas y se identificaron referencias directas a OBS en el código.

Hasta el momento aún no está claro si TikTok Live Studio puede verse como una bifurcación completa o si el programa usa solo fragmentos aislados de código OBS, pero independientemente del caso, esto produce una violación  directa a la licencia GPL con cualquier préstamo o replicación del código.

Por otra parte, los desarrolladores del sistema de transmisión de video en streaming OBS Studio han expresado su voluntad de resolver pacíficamente el conflicto y estarían felices de establecer una relación de trabajo amistosa con el equipo de TikTok si comienzan a cumplir con los requisitos de GPL.

Aunque hacen mención que en caso de ignorar el problema o no estar dispuesto a solucionar la infracción, el proyecto OBS se compromete a mantener bajo observación que se haga cumplir las pautas de la GPL y está listo para luchar contra el infractor. Se observa que el proyecto OBS ya ha dado los primeros pasos para resolver el conflicto.

Para quienes aún desconocen del proyecto OBS Studio, deben saber que este desarrolla una aplicación multiplataforma de código abierto para transmisión, composición y grabación de video.

OBS Studio admite la transcodificación de flujo de origen, la captura de video mientras se juega y la transmisión a Twitch, Facebook Gaming, YouTube, DailyMotion, Hitbox y más. Admite la composición con creación de escenas basada en secuencias de video arbitrarias, datos de cámaras web, tarjetas de captura de video, imágenes, texto, contenido de ventanas de aplicaciones o la pantalla completa.

Durante la transmisión, se permite cambiar entre varias opciones de escena predefinidas (por ejemplo, para cambiar de vista con énfasis en el contenido de la pantalla y la imagen de una cámara web). El programa también proporciona herramientas para la mezcla de sonido, filtrado con complementos VST, nivelación de volumen y supresión de ruido.

Es una práctica común crear aplicaciones de transmisión especializadas basadas en OBS, por ejemplo, StreamLabs y Reddit RPAN Studio se basan en OBS, pero estos proyectos cumplen con la GPL y publican el código fuente de sus productos bajo la misma licencia. Hubo un tiempo en que había un conflicto con StreamLabs relacionados con la infracción de la marca OBS debido a la utilización de este nombre en su producto, y se instaló en un principio, pero recientemente se encendió de nuevo debido a un intento de registrar la marca StreamLabs OBS.

Finalmente si estás interesado en conocer más al respecto, puedes seguir el hilo de la discusión en el siguiente enlace.

from Linux Adictos https://ift.tt/3z9IvUc
via IFTTT

Hora de hacer trampa. Trabajando con los formatos de Amazon

Hora de hacer trampa

Me gusta el software libre y de código abierto como al que más. Pero, también me gusta poder hacer lo que necesito. Si hay una cosa en que el software privativo nos gana es que puede contratar desarrolladores a tiempo completo. Quiero atraer vuestra atención al problema que viene ocupándonos hace dos artículos. La forma de quitarle la protección anticopia a los libros de Amazon para poder convertirlos a otros formatos y trabajar con ellos en otros dispositivos.


Cabe mencionar que la prohibición de hacerlo por parte de Amazon se produce también, aunque el autor de su permiso.

Volviendo al inicio del artículo, estuve hablando bastante de una solución basada en dos complementos para Calibre. Son soluciones de código abierto desarrolladas por voluntarios y que tienen limitaciones. A esto hay que sumarle que Amazon tiene ejércitos de desarrolladores dedicados a encontrar y corregir fallas de seguridad. Y, ellos también saben usar Google.
Como resultado, esos complementos funcionan por muy poco tiempo hasta que los desarrolladores encuentran ratos libres para hacer ingeniería inversa y sacar una nueva versión.

Es hora de hacer trampa. Usando aplicaciones privativas de Windows.

Existen algunas herramientas shareware que funcionan bajo Wine y, como son de pago y pueden tener desarrolladores a tiempo completo, funcionan durante más tiempo. Por supuesto, que en la modalidad gratuita tienen limitaciones en sus prestaciones.

  • Epubor Ultimate: Es la herramienta que más aparece mencionada en los artículos. Está disponible para Windows y Mac Además de los formatos de Kindle remueve también el DRM de Adobe, Kobo y Nook. El único problema es que la versión gratuita solo convierte el 20% del contenido por lo que deberás pagar los $24, 99 de la licencia. COmo contrapartida, podrás convertir varios libros a la vez
  • eBook Kindle DRM Removal: Convierte todo en formato. azw y algo de .kfx. La conversión puede ser a epub, doc, txt o html.  En todos los casos sin pérdida de calidad.
  • iSummersoft Kindle Converter: También disponible para Windows y Mac, elimina el DRM en los formatos  kfx, azw y azw3 sin pérdida de calidad. La version de prueba solo convierte tres libros. El costo de la versión de pago es $19,99 dólares.

Cuando todo lo demás falla

Si eres un hábil mecanógrafo, siempre puedes hacerte una copia del libro tipeándolo. Pero, si no lo eres hay un script que permite pasar manualmente las páginas del lector en la nube de Amazon y hacer una captura de cada una de ellas. Cuando termina el procedimiento solo tienes que unirlas en un pdf y pasarlas por un programa de reconocimiento óptico de caracteres. Por ejemplo subir el pdf a Google Drive y abrirlo con documentos de Google ya es suficiente.

Para poder hacer esto necesitamos dos programas que están en los repositorios de todas las distribuciones Linux:

  • Xdotool para simular la presión del ratón en un lapso indicado de tiempo.
  • Scrot es la herramienta que hará la captura de pantallla en segundo plano.

Procedimiento

  • Abre el navegador y ve al lector cloud, elige un libro, configúralo para la vista en una sola página y colócate en la página inicial.
  • Abre la terminar y minimizándola colócala en el lado izquierdo del navegador.
  • Escribe xdotool getmouselocation en la terminal, pero no presiones Enter.
  • Lleva el puntero contra el margen derecho a mitad de la altura del monitor y pulsa Enter.
  • Toma nota de los valores de X e Y. Cierra la terminal.
  • Abre el editor de textos y copia lo siguiente.

#!/bin/bash
while [ 1 ]; do
xdotool mousemove XXXX YYY click 1 &
scrot -q 100 '%Y-%m-%d-%H:%M:%S.png' -e 'mv $f ~/Imágenes/'
sleep 20
done

Recuerda reemplazar XXXX e YYY con las coordenadas que anotaste.

  • Guarda el archivo como script.sh en tu carpeta personal. Posa el puntero sobre su icono y con el botón derecho ve a Propiedades. Dale permiso de ejecución.
  • Escribe en la terminal ./script.sh y pon el navegador a pantalla completa.

Con este script se sacará una foto cada 20 segundos y la guardará en la carpeta imágenes hasta que cierres la terminal. Borra las que sobran. Para el reconocimiento necesitarás instalar los paquetes Tesseract y Tesseract-SPA además de alguna interfaz gráfica como Gscan2pdf. O, como te dije antes, Google drive y Docs.

Claro, que antes de hacer todo esto, deberías fijarte si alguien no subió el libro a Internet.

 

from Linux Adictos https://ift.tt/3sKeo4t
via IFTTT

OpenRGB 0.7 llega con un menú de configuración, correcciones de errores y mas

Para quienes desconocen de OpenRGB, deben saber que es un software de control de dispositivos de iluminación RGB y es una implementación ofrecida es bastante sólida que admite varias generaciones de controladores Aura en las plataformas Intel y AMD, lo que elimina la necesidad de instalar aplicaciones propietarias oficiales que están vinculadas a un fabricante específico.

OpenRGB es compatible con controladores compatibles con Aura utilizados en varios fabricantes de módulos de memoria RGB, incluidos G.Skill Trident Z RGB y otros.

El proyecto ofrece una biblioteca de funciones con una API universal para controlar la retroiluminación de las aplicaciones, una utilidad de consola y una interfaz gráfica en Qt. Admite la elección de modos de cambio de color (onda de color, etc.), control de las zonas de retroiluminación, aplicación de efectos avanzados, definición del diseño de los LED y sincronización de la retroiluminación con las acciones realizadas (música de color, etc.).

 

Principales novedades de OpenRGB 0.7

En esta nueva versión que se presenta se ha añadido un menú de configuración y en el cual ahora, para configurar una funcionalidad específica (E1.31, QMK, Philips Hue, Philips Wiz, dispositivos Yeelight y dispositivos controlados a través de un puerto serie, por ejemplo, basado en Arduino), no es necesario editar el archivo de configuración manualmente.

Otro de los cambios que se implementa, es en el control de inicio automático de OpenRGB el cual al iniciar el sistema ahora está disponible en el menú de configuración. Puede especificar acciones adicionales que OpenRGB llevará a cabo en este lanzamiento (aplicando perfiles, lanzando en modo servidor).

Tambien se destaca que se agregó la capacidad de guardar configuraciones en un dispositivo si hay memoria Flash en el dispositivo. El ahorro se realiza solo mediante comando para evitar el desperdicio de recursos Flash. Anteriormente, no se realizaba el guardado para dichos dispositivos por las mismas razones.

Los complementos ahora tienen un mecanismo de control de versiones para evitar fallas debido a compilaciones heredadas con versiones más nuevas de OpenRGB.

Ademas se agregó un control deslizante para controlar el brillo de los dispositivos que tienen esta configuración además de la configuración de color, tambien se agregó la capacidad de instalar complementos a través del menú de configuración y se agregó una consola de registro para facilitar la obtención de información sobre fallas de nuevos usuarios.

Finalmente, tambien se menciona que cuando se encuentran nuevos dispositivos que requieren un ajuste de dimensionalidad (controladores ARGB), OpenRGB le pedirá al usuario que lo haga.

En cuanto a los problemas que fueron resueltos:

  • Se corrigieron problemas con la detección de dispositivos USB relacionados con la interfaz / página / valores de uso que difieren entre sistemas operativos
  • Mapas de ubicación de teclas corregidos (diseños) en muchos dispositivos.
  • Formato mejorado de registros
  • Se corrigió el problema de inicialización de múltiples WMI (lo que resultó en la imposibilidad de volver a detectar dispositivos SMBus)
  • Interfaz de usuario ligeramente mejorada
  • Se corrigieron fallas de la aplicación al conectar ratones Logitech (G502 Hero y G502 PS)
  • Se corrigieron fallas de la aplicación al descargar complementos

En cuanto a la lista de nuevos dispositivos soportados, los podremos consultar aquí. Puedes consultar la compatibilidad de hardware que actualmente soporta esta utilidad en el siguiente enlace.

¿Cómo instalar OpenRGB en Linux?

Para quienes estén interesados en poder instalar OpenRGB en su sistema, deben seguir las instrucciones que compartimos a continuación.

Lo primero que debemos hacer es instalar la última edición de Qt Creator.

En el caso de Ubuntu y derivados debemos de instalar algunas dependencias:

sudo apt install qt5-default libusb-1.0-0-dev libhidapi-dev

Ahora vamos a obtener la utilidad con el comando:

git clone https://gitlab.com/CalcProgrammer1/OpenRGB

Hecho esto ahora debemos de actualizar los submodulos:

git submodule update --init –recursive

Y aquí podemos hacer dos cosas una de ellas es abrir el proyecto con QT creator o realizar la compilación de este en el sistema.

Para realizar la compilación basta con ejecutar los siguientes comandos:

cd OpenRGB
qmake OpenRGB.pro
make -j8
./OpenRGB

Al finalizar la compilación debemos de permitir el acceso a SMBus.

En Intel podemos hacerlo con el comando:

modprobe i2c-dev i2c-i801

O en el caso de AMD, debemos primero enumerar los controladores SMBus con:

sudo i2cdetect -l

Ya identificado el controlador debemos de otorgar permisos al controlador, por ejemplo:

sudo chmod 777 /dev/i2c-0

Por último se debe tomar en cuenta que todavía se carece de algunas capacidades para persistir en todos los reinicios, pero la funcionalidad principal de configurar colores y modos son estables.

Si quieres conocer más al respecto puedes consultar los detalles en el siguiente enlace.

from Linux Adictos https://ift.tt/3sMxerQ
via IFTTT

Identificaron otra vulnerabilidad Log4j 2 y esta marcada como peligrosa

log4j

Hace algunas semanas la noticia de los problemas de seguridad de Log4j estuvieron poniendo de cabeza a muchos usuarios en la red y es que es una de las fallas que más se ha explotado y la cual muchos expertos han etiquetado como «la más peligrosa en mucho tiempo», de las vulnerabilidades que se dieron a conocer en la red hablamos de algunas de ellas aquí en el blog y en esta ocasión hemos encontrado la noticia de otra.

Y es que hace pocos dias se dio a conocer la noticia de que se identificó otra vulnerabilidad en la biblioteca Log4j 2 (la cual ya está catalogada bajo CVE-2021-45105) y que, a diferencia de los dos problemas anteriores, se clasificó como peligrosa, pero no crítica.

El nuevo problema permite una denegación de servicio y se manifiesta en forma de bucles y terminaciones anormales al procesar ciertas líneas.

La vulnerabilidad afecta a los sistemas que utilizan la búsqueda de contexto, como ${ctx: var}, para determinar el formato de salida del registro.

Las versiones de Log4j de 2.0-alpha1 a 2.16.0 carecían de protección contra la recursividad incontrolada, lo que permitía a un atacante manipular el valor utilizado en sustitución para provocar un bucle sin fin que se quedaría sin espacio en la pila y provocaría que el proceso se bloqueara. En particular, el problema se produjo al sustituir valores como «$ {$ {:: – $ {:: – $$ {:: – j}}}}».

Además, se puede notar que investigadores de Blumira han propuesto un ataque a aplicaciones Java vulnerables que no aceptan solicitudes de redes externas, por ejemplo, se pueden atacar sistemas de desarrolladores o usuarios de aplicaciones Java de esta forma.

La esencia del método es que si hay procesos Java vulnerables en el sistema del usuario que aceptan conexiones de red solo desde el host local (localhost), o procesan RMI-solicitudes (Invocación de método remoto, puerto 1099), el ataque puede ser realizado por código JavaScript ejecutado cuando el usuario abre una página maliciosa en el navegador. Para establecer una conexión al puerto de red de una aplicación Java en un ataque de este tipo, se usa la API de WebSocket, a la cual, a diferencia de las solicitudes HTTP, no se aplican restricciones del mismo origen (WebSocket también se puede usar para escanear puertos de red en el local host para determinar los controladores de red disponibles).

También son de interés los resultados de evaluar la vulnerabilidad de las bibliotecas asociadas a las dependencias con Log4j publicados por Google. Según Google, el problema afecta al 8% de todos los paquetes en el repositorio de Maven Central.

En particular, 35863 paquetes Java relacionados con Log4j con dependencias directas e indirectas fueron expuestos a vulnerabilidades. A su vez, Log4j se utiliza como dependencia directa del primer nivel solo en el 17% de los casos, y en el 83% de los paquetes cubiertos por la vulnerabilidad, la vinculación se realiza a través de paquetes intermedios que dependen de Log4j, es decir. dependencias del segundo y más alto nivel (21% – el segundo nivel, 12% – el tercero, 14% – el cuarto, 26% – el quinto, 6% – el sexto).

El ritmo de reparación de la vulnerabilidad todavía deja mucho que desear, una semana después de que se identificó la vulnerabilidad, de 35863 paquetes identificados, el problema se ha solucionado hasta ahora solo en 4620, es decir, al 13%.

Los cambios en los paquetes son necesarios para actualizar los requisitos de dependencia y reemplazar los enlaces de versiones antiguas con versiones fijas de Log4j 2 (los paquetes de Java practican el enlace a una versión específica, y no un rango abierto que permite la instalación de la versión más reciente).

La eliminación de la vulnerabilidad en las aplicaciones Java se ve obstaculizada por el hecho de que los programas a menudo incluyen una copia de las bibliotecas en la entrega, y no es suficiente actualizar la versión Log4j 2 en los paquetes del sistema.

Mientras tanto, la Agencia de EE. UU. Para la Protección de la Infraestructura y la Ciberseguridad emitió una directiva de emergencia que requiere que las agencias federales para que identificaran los sistemas de información afectados por la vulnerabilidad Log4j e instalaran las actualizaciones que bloqueen el problema antes del 23 de diciembre.

Por otra parte, se dio una pauta hasta el 28 de diciembre, en la cual las organizaciones tenían la obligación de informar sobre el trabajo realizado. Para simplificar la identificación de sistemas problemáticos, se ha elaborado una lista de productos en los que se ha confirmado la manifestación de una vulnerabilidad (hay más de 23 mil aplicaciones en la lista).

Finalmente, cabe mencionar que la vulnerabilidad se solucionó en Log4j 2.17 la cual fue publicada hace algunos dias y se recomienda a los usuarios que tienen las actualizaciones desactivadas, realicen la actualización correspondiente, ademas de que el peligro de la vulnerabilidad se mitiga por el hecho de que el problema se manifiesta solo en sistemas con Java 8.

Fuente: https://logging.apache.org/

from Linux Adictos https://ift.tt/3qEXBwW
via IFTTT

Wxrd, un servidor compuesto basado en Wayland para sistemas de realidad virtual

Hace poco Collabora dio a conocer el servidor compuesto wxrd, el cual está implementado sobre la base del protocolo Wayland y diseñado para formar un escritorio basado en componentes xrdesktop dentro de entornos de realidad virtual tridimensionales.

Como base, se utilizan la biblioteca wlroots, desarrollada por los desarrolladores del entorno de usuario Sway y el servidor compuesto wxrc, diseñado para su uso en sistemas de realidad virtual.

A diferencia de la solución propuesta originalmente en xrdesktop, wxrd ofrece un servidor compuesto especializado para entornos de realidad virtual, en lugar de adaptar administradores de ventanas y skins de escritorio existentes para sistemas de realidad virtual (el proyecto xrdesktop proporciona parches separados para kwin y GNOME Shell, que requieren adaptación para cada nueva liberación de estos componentes).

El uso de wxrd le permite no solo reflejar el contenido de un escritorio bidimensional existente, al mismo tiempo que se muestra en un monitor normal, sino también manejar por separado las ventanas lanzadas especialmente para un escritorio tridimensional (es decir, no proporcionar acceso desde un VR casco al escritorio utilizado en el sistema actual) y forma un entorno separado para el casco de realidad virtual).

A diferencia de proyectos similares como Simula VR, Stardust , Motorcar y Safespaces, el servidor compuesto wxrd se construye teniendo en cuenta un mínimo de dependencias y consumo de recursos. Wxrd también permite trabajar no solo con aplicaciones basadas en el protocolo Wayland y hace posible ejecutar aplicaciones X11 usando el servidor xwayland DDX.

Dado que la extensión del protocolo Wayland para teclados virtuales está en desarrollo, la entrada de datos a wxrd se implementa a través de un sistema de emulación de teclado que transfiere todos los caracteres Unicode, incluidos los emoji, desde el teclado virtual proporcionado en xrdesktop.

Wxrd requiere una tarjeta de video compatible con la API de gráficos Vulkan y la extensión VK_EXT_image_drm_format_modifier, compatible con Mesa desde la versión 21.1 (incluida con Ubuntu 21.04). El uso de la API de Vulkan para renderizar requiere la extensión VK_EXT_physical_device_drm, que se introdujo en Mesa 21.2 (Ubuntu 21.10).

De las ventajas de usar un servidor compuesto separado para sistemas de realidad virtual en lugar de integrarse con los administradores de ventanas 2D que se usan para mostrar un escritorio tradicional:

  • Cuando se inicia en una sesión basada en Wayland o X11, la biblioteca wlroots abre una ventana en la que puede capturar fácilmente la entrada del teclado y los eventos del mouse y redirigir esa entrada a una ventana específica en un entorno de realidad virtual. En el futuro, planean aprovechar esta oportunidad para organizar la entrada no solo a través de un controlador de realidad virtual, sino también mediante un teclado y un mouse convencionales.
  • Las ventanas no están limitadas por los bordes de un escritorio 2D y pueden tener un tamaño arbitrario, limitado solo por el tamaño máximo de textura admitido por el hardware.
  • La representación de Windows en wxrd se realiza con la frecuencia de actualización nativa de los auriculares 3D (HMD), mientras que la duplicación de ventanas de los administradores de ventanas normales utiliza la frecuencia de actualización utilizada para actualizar la información en un monitor fijo.
  • La representación de fuentes se puede realizar teniendo en cuenta la densidad de píxeles del casco 3D, sin hacer referencia a la densidad de píxeles de un monitor fijo.
  • Es posible usar wxrd en sistemas que solo tienen un casco 3D y no tienen un monitor regular.

Mientras que las contras de un servidor compuesto separado para realidad virtual:

  • En un entorno de realidad virtual, solo se muestran las aplicaciones que se han lanzado especialmente para un servidor compuesto separado, sin la capacidad de transferir o reflejar ventanas que ya están abiertas en el escritorio tradicional al entorno de realidad virtual (es decir, para continuar trabajando con aplicaciones abiertas en un entorno de realidad virtual) pantalla normal, tendrá que reiniciar en un entorno separado para el casco 3D).
  • El soporte de Wayland puede estar limitado en las implementaciones de API de Vulkan. Por ejemplo, gbm y wlroots no se pueden usar con controladores propietarios de NVIDIA debido a la falta de soporte para la extensión VK_EXT_drm_format_modifier.

Fuente: https://www.collabora.com

from Linux Adictos https://ift.tt/3EGmsWq
via IFTTT