La prehistoria de Unix y el rol de los laboratorios Bell

La prehistoria de Unix

Aunque Linux no es Unix, su desarrollo estuvo fuertemente influenciado por este. Lo mismo que Hurd, el proyecto para el cual Stallman comenzó a desarrollar las herramientas del proyecto GNU. Entonces podemos decir que el software libre tal cual lo conocemos no hubiera existido sin Unix, y Unix no hubiera existido sin los laboratorios Bell.

Daniel Coyle es un periodista que ha investigado y escrito dos libros sobre el tema de la producción de talentos. El discute la idea del talento innato, de la persona que de la nada posee una habilidad en la que se destaca. Para Coyle, la aparición del talento es el resultado de una serie de factores que incluyen estar expuestos a estímulos para desarrollarlos. Esos estímulos se producen en un momento y en un lugar geográfico determinado.

Según Coyle, los genios no se distribuyen de manera uniforme a lo largo del tiempo y del espacio. Surgen en momentos y lugares determinados en ambientes donde personas lo suficientemente motivadas se reúnen para aprender entre ellos y los que saben más para aprender, practicar y experimentar.

Del grupo de seis personas que escribieron los protocolos originales para la comunicación en red, tres venían de la misma escuela secundaria. La revolución informática de los ochenta tuvo su epicentro en Silicon Valley. Linux y el software libre encontraron su lugar en la red haciendo que las distancias dejaran de ser un obstáculo.

¿Por qué estoy escribiendo sobre esto en lugar de un tutorial sobre como hackear la cafetera desde la terminal?

Porque la clave de un desarrollo exitoso es la existencia de comunidades en la que se permita una comunicación franca y abierta entre sus participantes. Y, hoy por hoy lo que tenemos son comunidades en donde la dictadura de lo políticamente correcto, los personalismos y los intereses económicos son más importantes que la libre discusión que caracterizó los orígenes del movimiento del software libre.

Vuelvo a la afirmación del principio. Linux y GNU no hubieran sido posibles sin Unix y Unix no hubiera sido posible sin la cultura abierta a la innovación de los laboratorios Bell.

La prehistoria de Unix. El rol de los laboratorios Bell

Durante la mayor parte del siglo XX, los laboratorios Bell estuvieron entre las organizaciones más innovadoras del mundo. Creados para apoyar los esfuerzos de investigación y desarrollo de la entonces monopólica compañía telefónica del país, American Telephone & Telegraph (AT&T), aquellos de sus inventos que no tuvieran relación con el negocio de la compañía madre eran cedidos a bajo o ningún costo a empresas e instituciones que pudieran aprovecharlos.

Cuando en 1890 vencieron las patentes de Alexander Graham Bell otras compañías entraron en el negocio, la AT&T no era precisamente fanática del libre mercado. No solo recurría a los tribunales si no también a sabotear a los competidores.

Siempre que era posible, adquiría a los proveedores de equipos además de negarse a transportar las llamadas telefónicas generadas por otras empresas en sus líneas de largas distancia.

Se cuenta que las empresas y profesionales debían tener dos o tres líneas telefónicas para poder comunicarse con todos sus clientes.

Tampoco es que el servicio fuera muy bueno; había interrupciones, mala calidad de sonido y mezcla de conversaciones. En zonas rurales los usuarios debían compartir una misma línea.

Esto comenzaría a cambiar en 1907 cuando Theodore Vail asume la presidencia de la empresa. Vail había comenzado desde abajo iniciando su carrera como operador de telégrafos.

Después de un cuidadoso análisis, descubrió que la competencia agresiva estaba socavando la rentabilidad de la industria por lo que optó por una estrategia diferente. Abandono los litigios en tribunales y decidió cooperar con pequeñas empresas de telefonía, absorbiéndolas cuando podía o transportando sus llamadas a cambio de una tarifa cuando no era posible.

El nuevo presidente creía que permitir al gobierno federal fijar los gastos, precios y beneficios de su empresa era un precio aceptable para poder convertirse en la fuerza dominante de la industria y obtener ganancias razonables.

La otra pata de la estrategia era transformar a la AT&T en un líder de la industria con un ejército de ingenieros trabajando para mejorar el sistema no solo en el momento actual si no también para el futuro.

Todos estos ingenieros estarían al servicio de la visión de Vail de “Una política, un sistema y un servicio universal”.

En el próximo artículo veremos lo que sería el gran impulso de los laboratorios Bell, la incorporación de científicos.

from Linux Adictos https://ift.tt/32xGt1g
via IFTTT

NVIDIA compra ARM: consecuencias para la industria

ARM, NVIDIA: tumba

La noticia ya venía dando vueltas desde hace un tiempo. Los rumores de una posible compra de ARM por parte de NVIDIA eran cada vez más fuertes. A pesar de eso, aún quedaban algunas esperanzas, como que no se diese por buena la adquisición, o que Boris Johnson vetase la compra para salvar la sede de Cambridge en Reino Unido. Pero nada de eso ha ocurrido y se han cumplido las peores expectativas. Tampoco es que hubiese muchas esperanzas…

Muchos pueden pensar que el movimiento es algo positivo, y lo cierto es que depende para quien. Desde luego que NVIDIA no ha desembolsado 40.000 millones de dólares por gusto. El movimiento le reportará grandes beneficios y una posición mucho más dominante en el sector, pero desde luego que habrá muchas víctimas por el camino, y la principal podría ser incluso la propia ARM.

Introducción sobre ARM

Logo ARM

Acorn Computer fue una empresa fundada por Hermann Hauser y Chris Curry, y con un proyecto liderado por Sophie Wilson y Steve Furber, entre otros. Ésta comenzaría a desarrollar la arquitectura ARM en 1983, lanzando su primero producto basada en él en 1987. El objetivo inicial era desarrollar un procesador avanzado con una arquitectura similar a los MOS 6502, tipo RISC. Así podría potenciar a su línea de ordenadores personales para sustituir a los chips 6502 en los que se basaban entonces, y cuyos desarrolladores se sentían cómodos.

Al comienzo, Acorn RISC Machine (más tarde Advanced RISC Machine) prácticamente no tenía ningún interés más allá de estos productos propios. Pero con la llegada de los dispositivos móviles, su buena relación rendimiento-eficiencia energética, los puso en el objetivo de todos. Pasaron de ser casi una rareza a estar en multitud de dispositivos, desde modems, routers, TVs, como controladores de multitud de aparatos, hasta los dispositivos móviles.

En los últimos años, empresas como Cavium (ahora propiedad de Marvel) con su ThunderX, Amazon con su Graviton, Fujitsu con su A64FX, el propio proyecto EPI, etc., se interesaron por ARM más allá de la electrónica móvil, para implantarlos también en el ámbito del HPC, como los centros de datos. Y no solo eso, algunos estaban también creando chips de alto rendimiento para comenzar a potenciar algunos PCs, como ciertos Chromebook, la propia empresa de Cupertino con sus Apple Silicon una vez se han desecho de Intel, etc.

En definitiva, “de la noche a la mañana”, ARM pasó de ser algo poco conocido a estar prácticamente en todos los lugares. Algo que también recuerda a la progresión que ha tenido el propio kernel Linux…

Resumiendo mucho, el nuevo negocio de Arm se transformó, siendo una de las empresas más codiciadas. El gigante japonés SoftBank hizo un movimiento desastroso para Europa, comprando la compañía por 28.950 millones de euros, quitándole una de las propiedades tecnológicas más importantes que quedaban en el Viejo Continente (que está en clara dependencia tecnológica de EE.UU. y China). Pero la nipona tuvo su propiedad poco tiempo, ya que la compra se produjo en 2016 y en 2020 la ha vendido…

Y no precisamente porque el negocio no fuera rentable, ya que la forma en la que Arm tiene de aportar su tecnología a los demás es bastante productiva. Y lo hace con dos modelos diferentes:

  • Permite usar su ISA ARM, es decir, el repertorio de instrucciones que han diseñado. Todo aquel que quiera usarlo, podrá hacerlo, como ha hecho Fujitsu para sus chips A64FX, que son una microarquitectura diseñada desde cero usando este set de instrucciones. Apple Silicon también es otro de estos casos, usando una ISA ARM, pero con un diseño hecho por la propia Apple para sus chips A-Series.
  • Otra posibilidad de las que ofrece es el licenciamiento de sus núcleos IP ya diseñados. Es decir, proveer de una microarquitectura ya hecha para que otros diseñadores puedan integrarlos en sus propios diseños. Es el caso del propio proyecto EPI (CPU ARM + aceleradores RISC-V), o de la mayoría de SoCs para dispositivos móviles, como Qualcomm Snapdragon, Samsung Exynos, Mediatek Helio, HiSilicon Kirin, etc., que integran uno o varios de los núcleos Cortex-A, Cortex-M,… En este caso, se ahorran el costoso proceso de diseñar la microarquitectura.

No confundas la ISA, que es la definición de una serie de instrucciones que se pueden ejecutar, los tipos de datos que se pueden manejar, el formato,… con la microarquitectura, que no es más que la implementación física del diseño capaz de ejecutar dichas instrucciones definidas en la ISA. Una misma ISA puede implementarse de muchas formas, es decir, puede haber muchas microarquitecturas, pero una misma microarquitectura no puede ser compatible con varias ISAs, al menos de forma nativa sin emuladores o artimañas similares.

En ambos casos se paga a Arm por obtener dicho beneficio… Un beneficio que no ha sido el principal revulsivo de NVIDIA para comprar a SoftBank la división Arm, ya que los intereses de Graphzilla van más allá de eso, y se centran en obtener una nueva ventaja y dominio en ciertos sectores como ahora detallaré. Por cierto, como ya sabrás, la compra se cerrará por 40.000 millones de dólares, unos 33.770 millones de euros.

Además, ese modelo es la base del éxito de Arm. Si se eliminase, el éxito podría desparecer y pasar de una Arm triunfante a una mera herramienta para beneficio de NVIDIA. Y quiero dejar claro que esto no es un monólogo contra NVIDIA, pero hay que reconocer que implica riesgos muy graves para todos. Nunca antes hubo tanta preocupación por una adquisición de este calibre.

¿A quién afectará la compra de ARM por parte de NVIDIA?

chip ARM

Algunas voces autorizadas y analistas del sector de la tecnología, y voces bastante cercanas a Arm, aseguran que este acuerdo podría significar el fin de la propia Arm, al menos tal como la conoces ahora. Pasando a ser un producto más del stuff de NVIDIA para monopolizar algunos sectores en los que ahora NVIDIA no puede dominar frente a otras grandes compañías.

Aunque muchos aseguran que los modelos de núcleos IP o el uso de la ISA se mantendrían intactos tras el acuerdo, no todos están igual de seguros. Por tanto, el hecho de que dejasen de proveer alguna de ellas, significaría una gran pérdida y contratiempo para empresas como Samsung, Qualcomm, Mediatek, y un largo etc. que ahora dependen de alguno de esos modelos.

Por cierto, siempre estoy citando empresas como Samsung, Qualcomm, Mediatek, HiSilicon, Apple, etc., pero no son los únicos. También compran licencias otros como Intel, AMD (para sus Security Processor), Rockchip, Marvel, Renesas, STMicroelectronics, NXP, Amazon, Fujitsu, Broadcom (para, entre otras cosas, los chips de la Raspberry Pi) y muchísimos más. Todos ellos ahora están bajo una incertidumbre importante, y muchos de ellos competidores directos de NVIDIA en algunos sectores…

Es más, al pertenecer ahora a una empresa estadounidense, el veto de Trump en sus guerras comerciales contra China o Europa, también podría evitar que algunos usasen la tecnología de Arm, lo que sería realmente catastrófico. Y es que diseñar una microarquitectura competitiva desde cero no es cuestión de días ni de meses, se necesita mucho tiempo y dinero, por lo que pondría a muchas empresas en una clara desventaja.

El peligro no está tanto en NVIDIA en sí, como en las leyes de Estados Unidos que ahora controlarán lo que se hace con Arm. De hecho, Hermann Hauser, cofundador de Arm, escribió una carta al primer ministro de Reino Unido, Boris Johnson para pedirle que impidiera la compra de la compañía. Algo en lo que puedes poner 0 esperanzas teniendo en cuenta que se trata de Boris y de las relaciones que existen entre Reino Unido y EE.UU.. El propio Hermann asegura que la guerra tecnológica y comercial de Estados Unidos vs China dejará un daño colateral que afectará a Reino Unido. Incluso asegura que pone en riesgo los modelos comerciales actuales de Arm que son algo así como un modelo “Suizo” de la industria con más de 500 licenciatarios, muchos de ellos competidores de la propia NVIDIA. Todos ellos podrían perder ese trato de favor actual.

Además, voces como Ryan Smith, de AnandTech, ha expresado que el acuerdo por la adquisición fue la parte fácil del trato. Lo complicado será ahora convencer a todos esos consumidores que ahora dependen de Arm de que se queden.

Una de las voces más críticas ha sido un ex-ingeniero retirado de la industria, como es Chia Kok-Hua. Él ya lleva tiempo alarmando de esta posible compra antes de que se produjera, y asegura tener información de primera fuente sobre el acuerdo, asegurando que no es nada bueno. Él va más allá y asegura que, incluso si NVIDIA mantiene el negocio tal cual está ahora, sus competidores no tendrían mucho que hacer debido a la ventaja con la que contaría ahora NVIDIA.

¿Por qué dice eso? Pues sencillo, y es que ahora Arm solo era un diseñador que no se dedicaba a producir o vender sus propios diseños, sino que simplemente desarrollaba para los demás. Por tanto, no era una amenaza, sino simplemente una fuente de tecnología. En cambio, NVIDIA no solo será una fuente, sino también un competidor, y hará todo lo posible por sacar beneficio de ello, no lo dudes. Usará su estatus para obtener ventaja con el resto.

Por ejemplo, podría introducir cambios en la ISA o el ecosistemas para su propio beneficio, lo cual no sería adecuado para otros diseñadores.

NVIDIA la gran beneficiada

NVIDIA Logo

El gran beneficiado de este movimiento es la propia NVIDIA. El movimiento de Arm no ha sido el único que la pone en una situación mucho más ventajosa:

  1. NVIDIA adquirió Mellanox por 6.900 millones de dólares el pasado año. Por tanto, se queda con las tecnologías de InfiniBand y Ethernet que esta compañía tenía en su poder. Es decir, tecnologías claves para las redes de alta velocidad usados en el sector del HPC. Ahora, esa tecnología está bajo la designación NVIDIA Networking.
  2. NVIDIA adquiere Arm por 40.000 millones de dólares. Sí, casi 47.000 millones de gasto, pero ahora está en una posición que le va a reportar mucho más que eso.

¿Qué pretendo decir con esto? Pues simple, y es que NVIDIA ahora está en la mejor posición para dominar en el sector HPC, e incluso poner en riesgo empresas muy poderosas como detallo en el siguiente apartado. ¿Motivo? Ninguna otra tiene soluciones integrales, NVIDIA ahora sí: CPUs ARM + GPUs + Redes. ¿Quién puede igualar eso?

x86 en peligro

supercomputadora NVIDIA

Como he mencionado en el apartado anterior, incluso x86 podría estar en serio peligro tras este movimiento de NVIDIA. Al menos en el HPC y veremos si también en otros sectores, y no lo digo yo. También hay cierta preocupación entre ciertos trabajadores de empresas como Intel y AMD, que podrían ser otras de las víctimas colaterales de este acuerdo entre Graphzilla y Arm.

En el sector de los centros de datos, cada vez cobra más importancia Arm, y ahora con todas estas adquisiciones, NVIDIA podrá posicionarse como un líder indiscutible e ir desplazando a los chips Intel Xeon y AMD EPYC, que hasta ahora necesitaba junto con sus GPUs, pero ahora ya no.

Recuerda que AMD es una compañía algo más débil que Intel, y podría ser uno de los principales afectados. Y tras este repunte con sus Zen, se podría llevar un nuevo revés con este movimiento de su competidor directo en el ámbito de los gráficos. Intel es el gigante, la Chipzilla, pero una Chipzilla muy muy debilitada y en una situación que no es la mejor, por lo que una leve brisa podría hacer tambalear su liderazgo…

Intel cuenta con un mercado fuerte de CPUs, pero aún está débil en cuanto a soluciones GPU, pese a Intel Xe. AMD le ocurre lo contrario, está relativamente fuerte en GPU, pero su cuota de mercado de CPUs no es tan fuerte como el de Intel, pese a que Zen ha conseguido poner contra las cuerdas a Intel. En cambio, NVIDIA ahora tiene todos los puntos fuertes tras la compra…

Insisto, hay que quitarse el sombrero ante el movimiento de NVIDIA, que ganará mucho, pero que podría traer serios problemas para el resto. Por tanto, aunque sea un movimiento magistral y estratégico, no es nada esperanzador. De hecho, la monopolización y estas ventajas tan abismales siempre terminan perjudicando también a los propios usuarios…  Jensen Huang, CEO de NVIDIA, ha sido avispado, pero es un movimiento que algunos como Kevin Krewell, califican de “movimiento muy imprudente“.

Y por cierto, Apple, que se ha librado de Intel y ha emprendido su camino particular con Apple Silicon basados en la ISA ARM, también podrían verse seriamente afectados. Algunos analistas aseguran que tienen dos opciones, o tratar de frenar a NVIDIA, o tomar un camino alternativo. Lo primero no lo veo, ya que Apple no compite directamente contra NVIDIA en el sector de ordenadores, y destinar recursos para una lucha de este calibre no seria beneficioso. Pero es que tampoco la segunda alternativa es una solución barata y para corto plazo…

¿Y Raspberry Pi y Arduino?

Raspberry Pi Arduino

Se está rumoreando también sobre que la SBC Raspberry Pi está en peligro, debido a que usa chips ARM de Broadcom. Pero no se ha hablado mucho de la placa de desarrollo Arduino, la otra plataforma libre que también cuenta con algunas placas basadas en ARM, y no solo con chips Atmel Atmega.

Dependiendo de los acuerdos de licencias que mantenga NVIDIA, podrían verse afectados en mayor o menor medida. Aún es pronto para decidir, pero no estaría de más que se deshagan de ARM y miren hacia RISC-V, que es una ISA abierta. De hecho, ya existen algunas placas RISC-V de desarrollo muy interesantes…

Actualmente, Broadcom es la que fabrica el SoC de la Raspberry Pi, mientras que Atmel lo hace para Arduino. Dependiendo del trato que tengan estas con NVIDIA dependerá el futuro de estas placas.

¡Ojo! Lo mismo se puede decir de todas aquellas placas compatibles o similares que existen en el mercado, como ODROID, Orange Pi, Banana Pi, UDOO, y placas como Beagle, Tenssy, etc.

Microcontroladores ARM

Cortex M, MCU, microcontrolador

Otro de los grandes olvidados de los análisis que he visto es el Cortex-M, la serie de MCUs o microcontroladores de Arm. Estos chips están destinados a otros objetivos, como dispositivos empotrados o embebidos, maquinaria industrial, vehículos, IoT, dispositivos cotidianos de consumo, etc.

Esta línea ¿será rentable para NVIDIA? Dependiendo de si es del interés de NVIDIA o no, podría quedar algo relegada, lo que haría a muchos que ahora dependen de ella perder estos diseños IP. Y eso iría más allá del propio sector de los computadores y supercomputadores.

Lo mismo ocurre para los ARM Cortex-R, otra serie de CPUs RISC basada en ARM y, en este caso, optimizada para aplicaciones seguras y críticas, así como para Real-Time (tiempo real). Otra pieza clave para ciertas aplicaciones industriales y de otro tipo.

Desde luego que, aunque no es tan popular, es un sector muy jugoso. Y nuevamente nos encontramos con otra duda. Y es que, aunque NVIDIA mantenga el desarrollo de estas MCUs, podría sacar una gran ventaja de ello en sectores claves para el futuro como los vehículos, IoT, etc. Gran beneficio de uno, perjuicio de muchos…

Afectados colaterales: RISC-V

logo RISC-V

NVIDIA no es la única beneficiada de este movimiento en la compra de Arm. Hay otro beneficiado, pero casi de forma colateral. Sin buscarlo, la ISA RISC-V podría ser la gran vencedora, ya que muchos de esos clientes actuales de Arm descontentos, podrían terminar recalando en RISC-V, lo que atraería más inversión, desarrollo, y potenciación del ecosistema.

Por cierto, aunque NVIDIA sea uno de los partners de RISC-V Foundation, no creas que lo ha hecho pensando en ellos. De hecho, si RISC-V comienza a ganar adeptos tras el movimiento, ésta pasaría a transformarse también en un enemigo para la propia NVIDIA. Así que ya veremos qué ocurre con su contribución actual…

Mike Demler, uno de los analistas senior de The Linley Group, también ha asegurado que “personas clave podrían desertar. Más clientes de Arm podrían mirar a RISC-V“, refiriéndose al acuerdo entre NVIDIA y Arm.

Quizás otros como MIPS y OpenPOWER también podrían verse beneficiados con este acuerdo, ya que estas ISAs podrían cobrar interés si NVIDIA decide hacer artimañas extrañas con ARM. Veremos…

Conclusión 

En definitiva, el movimiento es un claro paso adelante para NVIDIA, pero un serio retroceso para todos los demás. E incluso si mantuvieran sus actuales clientes de Arm y no afectase a los actuales modelos de licencias, la propia NVIDIA obtendrá una ventaja en el mercado, y eso podría tener sus consecuencias también en los clientes y usuarios, ya que la competencia se verá afectada.

Mucha certeza de que NVIDIA ganará, pero mucha incertidumbre en todo lo demás… El tiempo dirá.

Ahora resonará la famosa frase que Linus Torvalds pronunciara hace tiempo refiriéndose a NVIDIA… quizás ahora tiene un poco más de sentido. Y ahora tocará mirar hacia RISC-V y desearle toda la suerte por el bien de todos…

from Linux Adictos https://ift.tt/33zBD2P
via IFTTT

Gaia-X una plataforma de nube pública única de OVHcloud y T-Systems basada en OpenStack

Se acaba de anunciar el proyecto Gaia X en la cual GDPR OVHcloud y T-Systems, han acordado cooperar. Esta asociación conducirá a la creación de una oferta de nube pública confiable para Alemania, Francia y otros mercados europeos, con el fin de abordar todos los sectores sensibles a la soberanía de datos y al cumplimiento del GDPR.

Ambos proveedores tienen en mente al sector público como clientes, pero también a operadores de infraestructura y empresas de diversos tamaños.

Ya se conocen algunos detalles sobre la implementación técnica: La oferta debe basarse en la arquitectura OpenStack gratuita y utilizar servidores refrigerados por agua de OVHcloud, que deben ofrecer una buena eficiencia energética.

T-Systems contribuirá con la infraestructura de red y también está previsto que los sistemas del socio francés se ejecuten en los centros de datos de Telekom en Alemania.

La plataforma de nube pública, basada en OpenStack, está prevista para principios de 2021 y con ello se intentará satisface las necesidades del sector público, las OIV, así como las empresas “de todos los tamaños que trabajan en sectores estratégicos o sensibles de interés público”.

Con esta asociación, OVHcloud y T-Systems participarán en el desarrollo de una única plataforma de nube pública basada en OpenStack.

Esta plataforma contribuye a la iniciativa europea Gaia-X que garantiza los más altos niveles de apertura y transparencia, soberanía, confidencialidad y seguridad de los datos europeos.

“Deutsche Telekom es un firme partidario de una nube soberana europea” , dijo Frank Strecker, jefe de actividad de nube pública de Deutsche Telekom. “Sin embargo, para que una infraestructura de nube soberana europea tenga éxito, necesitamos escalar rápidamente. Y para eso necesitamos el apoyo del sector público. “

Max Ahrens, director de tecnología de T-Systems, añade:

“Por eso, con OVHcloud, estamos desarrollando esta oferta de nube pública de confianza totalmente europea. Nuestros socios franceses aportan su tecnología de Cloud Computing de vanguardia, basada en su dominio de la cadena de producción de servidores y un sistema de información de código abierto, mientras nos ocupamos de la infraestructura y operaciones en nuestros centros de datos alemanes. “

De hecho, el objetivo de la iniciativa franco-alemana es establecer reglas y estándares comunes en los que las empresas puedan basarse para aportar su propuesta de valor.

Por ejemplo, las empresas listadas deberán declarar dónde se almacenan los datos y dónde se encuentran los centros de datos, especificando si están sujetos a normativas como el Reglamento General de Protección de Datos (RGPD).

Gaia-X busca ser una alternativa a los proveedores de servicios estadounidenses para brindar un acceso más enfático a las instituciones públicas y a las empresas tras el fin del escudo de la privacidad.

Con ello tanto Francia como Alemania quieren contrarrestar el dominio de los gigantes estadounidenses con una alternativa de nube europea, además de que otro factor son las medidas que el gobierno de Trump ha tomado encontrá de Huawei y ahora Tiktok ya que como ejemplo tenemos a la Fundación RISC-V con sus acciones de mover su cede.

Este proyecto supone un impulso concreto y colectivo para convertir las aspiraciones de Gaia-X en acciones concretas que beneficien al mercado europeo.

«Nuestra asociación con T-Systems se basa, entre otras cosas, en valores que compartimos, tales como la reversibilidad, seguridad y transparencia de los datos, que son importantes para nosotros como miembros fundadores de la iniciativa Gaia-X», añade Falk Weinreich, director general para Europa central de OVHcloud. «Desde hace más de veinte años, apoyamos la innovación en el mercado cloud, ofreciendo gran eficiencia, lo último en tecnología y conceptos de refrigeración respetuosos con el medio ambiente. Al combinarlo con la vasta experiencia de T-Systems, podemos ofrecer a los clientes con datos sensibles posibilidades totalmente nuevas».

Esta plataforma de public cloud será un activo clave que contribuirá a ampliar el catálogo de casos de uso de la iniciativa Gaia-X. T-Systems y OVHcloud, como miembros fundadores de Gaia-X, desarrollarán esta nueva oferta aplicando desde su diseño sus principios rectores: pleno cumplimiento del RGPD y estándares abiertos, pero también reversibilidad, privacidad de los datos y los máximos estándares de seguridad.

from Linux Adictos https://ift.tt/2GWmJfs
via IFTTT

KnotDNS 3.0.0, un servidor DNS de código abierto que proporciona funciones de DNS esenciales

Se ha publicado el lanzamiento de Knot DNS 3.0.0, un servidor DNS autorizado de alto rendimiento (el recursor se crea como una aplicación separada) que admite todas las características modernas de DNS.

Knot DNS es un servidor autorizado de código abierto para el sistema de nombres de dominio. Fue creado desde cero y es desarrollado activamente por CZ.NIC. El propósito de este proyecto es proporcionar una implementación alternativa de código abierto de un servidor DNS autorizado adecuado para que los operadores de TLD aumenten la seguridad, la estabilidad y la resistencia generales del Sistema de nombres de dominio.

Se implementa como un demonio de subprocesos múltiples, utilizando una serie de técnicas de programación y estructuras de datos para hacer que el servidor sea muy rápido.

Sobre Knot DNS

Knot DNS utiliza un analizador de zonas escrito en Ragel para lograr una carga muy rápida de las zonas al inicio. También es capaz de agregar y eliminar zonas sobre la marcha cambiando el archivo de configuración y recargando el servidor usando la utilidad ‘knotc’.

Knot DNS se centra en el procesamiento de consultas de alto rendimiento, para lo cual utiliza una implementación multiproceso y en su mayoría sin bloqueo que se adapta bien a los sistemas SMP.

Se proporcionan características como agregar y eliminar zonas sobre la marcha, transferencia de zona entre servidores, DDNS (actualizaciones dinámicas), extensiones NSID (RFC 5001), EDNS0 y DNSSEC (incluido NSEC3), limitación de la tasa de respuesta (RRL).

Principales novedades de KnotDNS

En esta nueva version se agregó el modo de red de alto rendimiento, implementado utilizando el subsistema XDP (eXpress Data Path), que proporciona un medio para procesar paquetes en el nivel del controlador de red antes de ser procesados ​​por la pila de red del kernel de Linux. Este modo requiere el kernel de Linux 4.18 o posterior.

Se agregó soporte para “Zonas de catálogo” para simplificar el mantenimiento de servidores DNS secundarios. Cuando esta función está habilitada, en lugar de definir registros separados para cada zona secundaria en el servidor secundario, el catálogo de zona se transfiere entre los servidores primario y secundario, después de lo cual las zonas creadas en el servidor primario marcadas como incluidas en el catálogo se crearán automáticamente en el servidor secundario sin la necesidad de editar archivos. Configuración. Se ofrece la utilidad kcatalogprint para administrar el catálogo.

Se agregó soporte para el estado de revocación de KSK (clave de firma de clave) (RFC 5011) en el modo de administración de claves manual de DNSSEC.

Se agregó soporte para la generación determinista de firmas digitales usando algoritmos ECDSA (requiere GnuTLS 3.6.10 y más reciente para funcionar).

De los demás cambios que se destacan de esta nueva version:

  • Se agregó un nuevo modo de verificación DNSSEC.
  • Se agregó la utilidad kzonesign para la generación manual de firmas digitales para DNSSEC.
  • Se agregó la utilidad kxdpgun con implementación de DNS de alto rendimiento sobre generador de tráfico UDP para Linux.
  • Kdig agrega compatibilidad con DNS sobre HTTPS (DoH) con GnuTLS y libnghttp2.
  • Se propone un método seguro para realizar copias de seguridad y restaurar datos de zonas DNS.
  • El rendimiento del módulo de estadísticas se ha mejorado significativamente.
  • Cuando se habilita el modo multiproceso para generar firmas digitales para zonas DNS, se paralelizan algunas operaciones adicionales con zonas.
  • Eficiencia de almacenamiento en caché mejorada y rendimiento de consultas mejorado.

Descargar e instalar

Para poder instalar este servidor DNS en tu sistema debes de realizar la compilación de su código y para ello debes contar con las siguientes dependencias:

  • make
  • libtool
  • pkg-config
  • autoconf >= 2.65
  • python-sphinx

Ahora solo tienes que obtener el código de la última version. Esto lo puedes hacer dirigente a su sitio web oficial y en su sección de descargas podrás obtener el paquete.

En cuanto a los pasos a realizar para la compilación, no es la gran ciencia, solo tienes que ejecutar:

autoreconf -i -f

./configure

make

Y si requieres de una instalación mas personalizada, puedes consultar los detalles en el siguiente enlace.

from Linux Adictos https://ift.tt/2RrkClV
via IFTTT

QBS 1.17 llega con mejoras para C/C++, Android y mas

Se acaba de presentar el lanzamiento de la nueva version de QBS 1.17, siendo este el cuarto lanzamiento desde que Qt Company dejó el proyecto y fue producido por la comunidad interesada en continuar desarrollando Qbs.

Qbs utiliza una versión simplificada del lenguaje QML para definir scripts de compilación para un proyecto, lo que permite definir reglas de compilación bastante flexibles en las que se pueden conectar módulos externos, se pueden usar funciones de JavaScript y se pueden crear reglas de compilación arbitrarias.

El lenguaje de secuencias de comandos utilizado en Qbs está adaptado para automatizar la generación y el análisis de secuencias de comandos de compilación mediante entornos de desarrollo integrados.

Además, Qbs no genera makefiles, pero sí, sin intermediarios como la utilidad make, controla el lanzamiento de compiladores y enlazadores, optimizando el proceso de construcción en base a un gráfico detallado de todas las dependencias.

La presencia de los datos iniciales sobre la estructura y las dependencias en el proyecto le permite paralelizar efectivamente la ejecución de operaciones en varios hilos. Para proyectos grandes con una gran cantidad de archivos y subdirectorios, el rendimiento de la reconstrucción con Qbs puede superar el rendimiento varias veces; la reconstrucción es casi instantánea y no obliga al desarrollador a perder tiempo esperando.

Recordemos que, en 2018, Qt Company decidió detener el desarrollo de Qbs. Qbs evolucionó como un reemplazo de qmake, pero finalmente se decidió usar CMake como el sistema de compilación principal para Qt a largo plazo.

El desarrollo de Qbs ahora continúa como un proyecto independiente apoyado por la comunidad y los desarrolladores interesados. Para el desarrollo, se sigue utilizando la infraestructura de Qt Company.

Principales novedades de Qbs 1.17

En esta nueva version presentada, se añaden cerca de 272 contribuciones desde la versión 1.16.0 y es que de los mas grandes cambios que se destacan, podremos encontrar que se agregó el soporte inicial para Qt 6.

Además de que también se agregó el módulo capnp para usar el protocolo de serialización de datos Cap’n Proto en aplicaciones C++ y que además se han realizado muchas mejoras en el soporte de la cadena de herramientas para dispositivos bare-metal en general.

También se destaca que se agregó la capacidad de especificar las variables de producto y proyecto en el lado derecho de las definiciones de propiedad de moduleProvider (por ejemplo, “moduleProviders.mygenerator.chooseLettersFrom: project.beginning”).

Se agregó soporte para kits de herramientas para construir proyectos C/C ++ para trabajar sobre equipos sin un sistema operativo, KEIL (ARMCLANG, C166, C251), IAR (CR16, AVR32, M68K) y GCC (CR16, M68K, M32C, M32R, Super-H, V850, RISC-V, Xtensa).

Por otra parte, también se destaca la inclusión del soporte de compilación mejorado para la plataforma Android, pues se agregó la propiedad packageType al módulo Android.sdk para crear paquetes “aab” (Android App Bundles) en lugar de “apk”, así como la propiedad aaptName para usar el nuevo aapt2 (Android Asset Packaging Tool) y se eliminó el soporte para la creación de aplicaciones de Android para plataformas ARMv5, MIPS y MIPS64.

De los demás cambios que se destacan de esta nueva version:

  • Se agregó soporte para el entorno de desarrollo Xcode 12.0 para macOS.
  • Se limpiaron los módulos “Qt para Android”.
  • Se ha creado Qt para aplicaciones de Android como bibliotecas estáticas.
  • Las barras diagonales finales ya no se eliminan del entorno de Visual Studio
  • El módulo cpp de MSVC no utilizó cpp.distributionIncludePaths
    propiedad
  • El generador de Visual Studio se ha corregido para que funcione con Visual Studio.
  • Se corrigió la extracción de información de compilación de variables en instalaciones Qt “CONFIG y QT_CONFIG”
  • El número de versión ya no se agrega a los archivos .so en Android
    * Las definiciones del compilador ahora se pasan correctamente a moc al procesar
    archivos de encabezado

Finalmente si quieres conocer mas al respecto sobre esta nueva version liberada, puedes consultar los detalles de la publicación original en el siguiente enlace.

Y para los interesados en construir Qbs, deben saber que se requiere Qt como dependencia, aunque Qbs está diseñado para organizar la construcción de cualquier proyecto.

from Linux Adictos https://ift.tt/2FlkK4b
via IFTTT

Así debes configurar tu móvil para jugar a Call of Duty: Mobile como un profesional

Después de pasar un tiempo en Call of Duty: Mobile, si ya te sientes preparado y te has acostumbrado a la jugabilidad, es el momento de dar el siguiente paso para poder convertirte en un profesional dentro del juego. Una de las cosas que pasan por alto muchos jugadores, es la configuración, la cual puede hacer la diferencia entre ser un simple principiante, o jugar como todo un jugador avanzado.

Es por esto, que hay que hacer ciertos cambios tanto en gráficos como en controles para poder jugar el Multijugador y Battle Royale como un verdadero pro. A continuación, te dejamos los pasos para que puedas modificar cada uno de estos apartados de Call of Duty: Mobile y ser un poco más ágil y eficaz al momento de entrar en un combate.

Saber más: Cómo obtener rachas de puntos en el Multijugador de Call of Duty: Mobile

Configuración de los gráficos

Así debes configurar tu móvil para jugar a Call of Duty: Mobile como un profesional

Call of Duty: Mobile – Configuración: Gráficos

Los gráficos de Call of Duty: Mobile vienen por defecto en “Normal” y con varias opciones desactivadas. Para poder disfrutar al máximo la experiencia del combate, hay que activar e incrementar todos los gráficos, y para ello, debes ir a Configuración (ícono de tuerca en la parte superior de la pantalla), seleccionar Gráficos y aplicar los siguientes cambios:

  • Calidad Gráfica: Alta.
  • Cuadros por Segundo: Alta.
  • Profundidad de Campo: Activada.
  • Brillo: Activada.
  • Sombras en Tiempo Real: Activada.
  • Ragdoll: Activada.
  • Reflejo de Agua: Activada.

Configuración de los controles

Así debes configurar tu móvil para jugar a Call of Duty: Mobile como un profesional

Call of Duty: Mobile – Configuración: Controles BR

Por otro lado, algo que cambia significativamente el modo de juego de Call of Duty: Mobile, es la modalidad de controles. Tanto en Multijugador, como en Battle Royale, se puede seleccionar el tipo de control que deseas usar, por defecto viene el Modo Simple, que hace que el personaje apunte automáticamente, lo cual en ocasiones no es muy efectivo, mientras que el Modo Avanzado, te permite controlar todo manualmente. Para activar el Modo Avanzado en BR y MJ, solo debes ir a Configuración, pulsar en Controles y escoger dicha modalidad.

Configuración de Personalización de Controles

Así debes configurar tu móvil para jugar a Call of Duty: Mobile como un profesional

Call of Duty: Mobile – Personalización de Controles

No obstante, en la parte inferior de la opción de Modo Avanzado, también puedes pulsar en Configuración de Personalización para literalmente modificar cada uno de los botones que aparecen en pantalla y adaptarlos como te sientas más cómodo.

De esta manera, haciendo cada uno de los cambios que te hemos indicado, tendrás la mejor configuración de Call of Duty: Mobile para convertirte en uno de los mejores jugadores del juego. De igual forma, también es necesario que consideres la personalización de armas en Gunsmith, lo cual te dará aun más ventaja en las partidas.

Saber más: Cómo ganar en el Ataque de los No Muertos de Call of Duty: Mobile

Entra en Andro4all para leer el artículo completo

Puedes unirte a nosotros en Twitter, Facebook

¡Suscríbete a nuestro canal de YouTube!

Publicado recientemente en Andro4all

La entrada Así debes configurar tu móvil para jugar a Call of Duty: Mobile como un profesional se publicó primero en Andro4all.

from Andro4all https://ift.tt/2H5fTEE
via IFTTT