Scrcpy, una excelente aplicación para duplicar la pantalla Android en tu PC

Scrcpy

Scrcpy es una aplicación de duplicación de pantalla gratuita y de código abierto que permite el control de un dispositivo Android desde una computadora de escritorio con Windows, macOS o Linux.

Si lo que buscas es poder controlar tu dispositivo Android desde tu ordenador o simplemente poder duplicar la pantalla de tu móvil en tu ordenador, la aplicacion de la que hablaremos el día de hoy puede que sea de tu interés.

Y es que hace poco se dio a conocer el lanzamiento de la nueva versión de la aplicación Scrcpy 2.0, que permite reflejar el contenido de la pantalla de un teléfono inteligente en un entorno de usuario estacionario con la capacidad de controlar el dispositivo, trabajar de forma remota en aplicaciones móviles usando el teclado y el mouse, ver videos y audio.

Sobre Scrcpy

Scrcpy es una herramienta gratuita de duplicación de pantalla de Android de código abierto que permite a los usuarios controlar Android en PC y Mac (a través de USB y de forma inalámbrica), sin siquiera instalar ninguna aplicación.

La herramienta es compatible con Windows 10, macOS y Linux. La característica más importante de Scrcpy es su baja tasa de latencia de 35 y 70 ms, lo que hace que su rendimiento esté a la par con Vysor, una de las aplicaciones más populares para duplicar Android.

La conexión del teléfono inteligente se puede realizar a través de USB o TCP/IP. Se inicia una aplicación de servidor en el teléfono inteligente, que interactúa con un sistema externo a través de un túnel organizado mediante la utilidad adb.

Pero a diferencia del modelo freemium de Vysor, Scrcpy es completamente gratuito e incluye todas las funciones necesarias, como compartir archivos, cambiar la resolución, grabar pantalla, hacer clic en capturas de pantalla y mucho más. Dado que Scrcpy no implica la instalación de una aplicación, también es una de las aplicaciones espejo más seguras para Android.

No se requiere acceso root al dispositivo. La aplicación del servidor genera un flujo de video (a elegir entre H.264, H.265 o AV1) con el contenido de la pantalla del teléfono inteligente y el cliente decodifica y muestra el video. Los eventos de entrada de teclado y mouse se transmiten al servidor y se sustituyen en el sistema de entrada de Android.

Características clave:

  • Alto rendimiento (30~120fps).
  • Compatibilidad con resoluciones de pantalla de 1920 × 1080 y superiores.
  • Baja latencia (35~70ms).
  • Alta velocidad de inicio (alrededor de un segundo antes de que se muestren las primeras imágenes de la pantalla).
  • Emisión de sonido.
  • Posibilidad de grabar sonido y video.
  • Admite la duplicación cuando la pantalla del teléfono inteligente está apagada/bloqueada.
  • Portapapeles con la capacidad de copiar y pegar información entre una computadora y un teléfono inteligente.
  • Calidad de transmisión de pantalla personalizable.
  • Compatibilidad con el uso de un teléfono inteligente Android como cámara web (V4L2).
  • Simulación de un teclado y un mouse conectados físicamente.
  • Modo OTG.

De los cambios que se realizaron en la nueva versión, se destacan los siguientes:

  • Se agregó la capacidad de reenviar sonido (funciona en teléfonos inteligentes con Android 11 y Android 12).
  • Se agregó compatibilidad con los códecs de video H.265 y AV1.
  • Se agregaron las opciones «–list-displays» y «–list-encoders».
  • Habilitada la opción «–turn-screen-off» para trabajar en todas las pantallas.
  • Herramientas de plataforma actualizadas 34.0.1 (adb), FFmpeg 6.0 y SDL 2.26.4 para la versión de Windows.

Descargar y obtener Scrcpy

Para los interesados en poder obtener los programas cliente para la gestión de smartphones, deben saber que están preparados para Linux, Windows y macOS. El código del proyecto está escrito en lenguaje C (aplicación móvil en Java) y se distribuye bajo la licencia Apache 2.0.

Por la parte de los requisitos para el dispositivo Android, se mencinona que se requiere al menos API 21 (Android 5.0), el reenvío de audio es compatible con API 30 (Android 11) y tener habilitada la depuración de USB en su(s) dispositivo(s).

En algunos dispositivos, también se debe habilitar una opción adicional USB debugging (Security Settings) (este es un elemento diferente de USB debugging) para controlarlo con un teclado y un mouse. Es necesario reiniciar el dispositivo una vez que se establece esta opción.

Scrcpy está empaquetado en varias distribuciones y administradores de paquetes y se pueden instalar desde los repositorios de estas.

Por ejemplo para los que son usuarios de Debian/Ubuntu, basta con abrir una terminal y en ella teclear el siguiente comando:

sudo apt install scrcpy

Mientras que para Arch Linux, Manjaro, Arco Linux o cualquier otra distro basada en Arch, el comando de instalación es el siguiente:

sudo pacman -S scrcpy

Para el caso de Fedora y derivados de este, primero debemos habilitar un repositorio para poder instalar el paquete:

sudo dnf copr enable zeno/scrcpy && dnf install scrcpy

En el caso de Gentoo:

emerge scrcpy

Finalmente, para cualquier distribucion de linux con soporte para Snap, basta con teclear:

snap install scrcpy

 

from Linux Adictos https://ift.tt/yWa7FB4
via IFTTT

Los 30 años de Red Hat

Red Hat cumple 30 años

Linux lleva mucho tiempo entre nosotros y el software libre bastante más, por lo que no es extraño que haya proyectos que tengan un par de décadas a sus espaldas. Sin embargo, los 30 años de Red Hat son una muestra del poder de código abierto.

Antes de ser adquirida por IBM, Red Hat fue la primera compañía independiente basada en software libre en obtener capitalización y ganancias record.  Novell ya no existe, Oracle no empezó con software libre y Canonical fue fundada por un millonario, por lo tanto podemos decir que es la única que se hizo desde abajo

Los 30 años de Red Hat

Hace 30 años, dos años después de que Linus Torvalds publicaba la primera versión del núcleo Linux y Richard Stallman la segunda de la licencia GPL, un pequeño empresario conoció en una conferencia de tecnología a un joven que había creado su propia distribución de Linux y la distribuía en cd’s por correo desde su casa de Carolina del Norte.

Todo comenzó cuando Bob Young, que vendía piezas de computadora por correo desde su casa en Connecticut, compró varias copias de la distribución y las agregó a su catálogo. Se vendieron como pan caliente.

El nombre surgió porque Marc Ewing, el creador de la distribución, usaba siempre una gorra roja que perteneció a su abuelo. Cada vez que alguien necesitaba ayuda en el laboratorio de computación de su universidad lo mandaban a hablar con «el de la gorra roja». La gorra no era el sombrero fedora del actual logotipo sino una de Lacrosse, un deporte de origen nativo muy popular en ciertas regiones de Estados Unidos.

Sin embargo, el primer logo no fue ninguno de los dos sino un sombrero de copa sobre las palabras Red Hat. Francamente, me di cuenta que es un sombrero de copa por la descripción. Para mi es una flecha apuntando hacia abajo.  Posteriormente lo cambiaron por la silueta negra de un hombre caminando con un maletín. La única nota de color es un sombrero rojo. Lo creo un ingeniero de la empresa modificando un clip art.

En 1996 se registra el primer logo y hace su aparición el sombrero fedora rojo en la cabeza del «Hombre sombra». Este superhéroe, con aspecto de espía o detective privado, intenta reflejar la filosofía de la empresa. Recordemos que eran los noventa en los que Microsoft comenzaba su reinado y el modelo de licencias privativas de software era la regla. El hombre sombra venía a desafiar los cimientos de la industria con productos basados en la colaboración de la comunidad y en la libre distribución de la información.

En 1999 Red Hat logra su primer éxito económico con una oferta pública de acciones en la que consiguió una capitalización de cinco mil millones de dólares un día después de su debut.

En el año 2001 cambió el modelo de negocios. En lugar de vender el software en caja, loe empezó a distribuir bajo la forma de suscripción y dirigido exclusivamente al mercado corporativo. La distribución cambió su nombre a Red Hat Enterprise Linux.

En el año 2012 Red Hat se convirtió en la primera empresa basada en tecnologías de código abierto que logró superar los mil millones de dólares de ingresos. Cuatro años después pasó la barrera de los dos mil millones de dólares de ingresos. En el 2018 el sombrero se convirtió en el protagonista indiscutible del logo.

En los que muchos temíamos fuera su final, IBM consumó la adquisición de una empresa de software más importante de la historia comprando Red Hat en treinta y cuatro mil millones de dólares.  Afortunadamente la empresa continuó manteniendo su independencia más allá de algunas decisiones polémicas como forzar a CentOS a convertirse en un banco de pruebas o usar su poder en diversas comunidades detrás de proyectos de código abierto  para imponer sus tecnologías por sobre los desarrollos de sus competidores.

Alguien dijo que las cosas son como son y no como debieran ser. Hoy el mundo Linux está dominado por las corporaciones y Red Hat tuvo mucho que ver en eso. Puede que sea parte de una gran empresa, pero sigue siendo una empresa que se hizo desde abajo y que, aunque al menos a mi no me gusta la forma en que lo hace, dedica sus considerables recursos a sostener varios proyectos de código abierto.

from Linux Adictos https://ift.tt/Cxk4c8H
via IFTTT

Ubuntu Cinnamon se confirma como sabor oficial. Primera entrega, la beta de Lunar Lobster

Ubuntu Cinnamon es sabor oficial

Como ya adelantamos a finales de enero, más concretamente lo hizo mi compañero Diego, Ubuntu Cinnamon ya es oficialmente un sabor oficial de Ubuntu, valga la redundancia. Hace dos meses ya le habían dado la bienvenida, pero semi-internamente. En aquel momento, ni el líder del proyecto ni ninguno de sus colaboradores dijo nada por ningún medio, y se han esperado hasta esta semana para dar la noticia, lo que tiene su sentido.

El líder de Ubuntu Unity lo hizo poco más o menos igual. Si mi memoria no me falla, Sudra sí dijo algo en cuanto se enteró, pero el comunicado oficial lo dio justo cuando faltaban días para lanzar la beta de la familia Kinetic Kudu. Lunar Lobster llegará el 20 de abril, y en unos días, de hecho ya están subiendo imágenes y haciendo las pruebas pertinentes, ya se podrá probar la beta de Ubuntu 23.04, momento en el que Ubuntu Cinnamon, ahora ya al 100%, será un sabor oficial. La diferencia entre ese momento y el comunicado de su llegada, como hace dos meses con el mensaje menos público, es que su beta ya aparecerá en el cdimage de Ubuntu.

Ubuntu Cinnamon llevaba 4 años como «Remix»

Hace ya casi 4 años desde que Ubuntu Cinnamon Remix empezó a dar sus primeros pasos. Recuerdo que después del verano de 2019 encontré algo en Twitter sobre Ubuntu Cinnamon, y me di un paseo por todo su Timeline para enterarme bien de todo. Era eso, un nuevo «Remix», la coletilla que llevan todas las distribuciones basadas en Ubuntu que quieren llegar a formar parte del equipo oficial. Lo recuerdo bien, porque además pasó algo que no me gustó nada: aquel post fue copiado, traducido y pegado en un medio brasileño (un saludo si me leen), y Joshua Peisach les felicitó y agradeció la difusión a ellos. Luego se me acusó a mí de plagio, porque un retardo en la publicación en redes hacía parecer que mi artículo había sido el que plagiaba.

No está mal basarse/inspirarse en la información de otros, pero el copia/pega, si no es de fuentes oficiales, es de hacérselo mirar. Una cosa es enterarse de una noticia por otro medio e ir a la fuente oficial, y la otra es hacer tuyo el contenido creado por otro sin citar fuentes.

Pero eso es parte del pasado, y ahí debe quedar. El presente es que Ubuntu Cinnamon ha conseguido formar parte del equipo oficial. Fue el primero en aparecer de una lista, digamos, mediana en la que también estuvo Ubuntu Unity y están Ubuntu Web, UbuntuEd (los tres anteriores del mismo desarrollador), UbuntuDDE y Ubuntu Sway, no sé si me dejo alguno. Además, se espera una resurrección, la de Edubuntu que podría volver de la mano del líder del proyecto de Ubuntu Studio y su mujer, quien sería la líder oficial, o por lo menos en los despachos.

¿Competencia para Linux Mint?

Sobre el sabor en sí, hay que saber que la relación entre Ubuntu Cinnamon, Ubuntu y Cinnamon será parecida a la de Kubuntu, Ubuntu y KDE neon. KDE neon tiene base Ubuntu, pero el escritorio lo crea KDE y lo sube antes al sistema operativo que más controla. Kubuntu también es de KDE, pero está bajo el paraguas de Canonical, y no actualiza Plasma hasta que cambian de versión, a no ser que se añada su repositorio Backports. De una manera similar, Ubuntu Cinnamon es ahora parte de Ubuntu, pero no ha llegado para competir directamente con Linux Mint, también de base Ubuntu. El sabor principal del linux «menta» es el Cinnamon, y tiene toda la preferencia. Además, Linux Mint no está obligado a hacer nada de lo que diga Canonical, y de hecho deshace muchos de los cambios polémicos que la compañía de Mark Shuttleworth obliga a introducir.

En cuanto a plazos, Ubuntu sale en abril y octubre, y Linux Mint sobre junio y diciembre. Las nuevas versiones de Mint incluyen una nueva versión de Cinnamon, mientras que las del sabor oficial de Canonical llega con un Cinamon que fue lanzado de 4 a 5 meses antes.

En lo personal, y aunque le doy la bienvenida a Ubuntu Cinnamon, creo que yo no lo usaré nunca. Si uso Ubuntu, me decanto por la edición principal (GNOME) o Kubuntu, y si quiero Cinnamon + Ubuntu, Linux Mint me atrae más. Ahora bien, si Canonical ha decidido aceptar un nuevo componente en la familia es porque cumple con sus requisitos de calidad, lo que es otra manera de decir que Ubuntu Cinnamon tiene a una gran compañía detrás. Como siempre se dice en estos casos, al final la decisión es nuestra.

from Linux Adictos https://ift.tt/4ObiFxP
via IFTTT

PiEEG, un dispositivo con una RPi que permite una persona conecte su cerebro a una computadora

PIEEG

PiEEG es un dispositivo para un lector asequible pero preciso de bioseñales cerebrales

Ildar Rakhmatulin, un investigador del Imperial College en el Reino Unido, ha desarrollado un dispositivo que convierte una Raspberry Pi en una interfaz cerebro-computadora

Este dispositivo llamado PiEEG, es un módulo adicional que se conecta a la Raspberry Pi. Al igual que otros dispositivos de electroencefalografía (EEG), electromiografía (EMG) y electrocardiografía (ECG), PiEEG sería capaz de medir las señales eléctricas del cerebro y más allá de interpretar las recibidas.

Según Rakhmatulin, este proyecto se inició porque notó que el interés por la neurociencia aumentaba con los años. Al principio, Rakhmatulin inventó una pequeña interfaz cerebro-computadora portátil. De acuerdo con la descripción hecha por el investigador, este equipo compacto de EEG que tenía una forma circular y un radio de solo 25 mm permitía un uso diario cómodo de día y de noche.

Los datos recopilados por el dispositivo debían enviarse a un servidor personal mediante el protocolo TCP-IP, lo que permitía el funcionamiento inalámbrico y un rango de movimiento decente para el usuario. Este primer modelo también tenía una capacidad de supresión de ruido incorporada para mejorar la precisión de las grabaciones con un ruido de entrada máximo de menos de 0,35 μV.

Después del diseño, el costo total de este primer modelo fue de alrededor de $350 por 24 electrodos. Pero la escasez de chips que se produjo entre 2020 y 2021 aumentó considerablemente el costo del dispositivo. Para no abandonar su proyecto, el investigador decidió lanzar una segunda versión de su interfaz cerebro-computadora, pero esta vez basada en una Raspberry Pi lo que permitió un funcionamiento inalámbrico y un rango de movimiento decente para el usuario.

La elección de Raspberry Pi se hizo porque, según Rakhmatulin, es la computadora de placa única más popular del mercado y la forma más fácil de comenzar a dar los primeros pasos en neurociencia. Para esta segunda iteración, el investigador explica que el escudo se puede obtener usando Raspberry Pi 3 o 4, que cuesta menos de $100. Por lo tanto, es económico y fácil de mantener.

Combinado con el complemento, PiEEG costará entre $ 250 y $ 350 con las siguientes características:

  • Compatible con Raspberry Pi 3 o 4
  • 8 canales para conectar electrodos húmedos o secos
  • Transferencia de datos a través del protocolo SPI con una frecuencia de 250 SPS a 16 kSPS y una resolución de 24 bits por canal
  • Ganancia de señal programable: 1, 2, 4, 6, 8, 12, 24
  • Capacidad para medir la impedancia
  • Relación de rechazo de modo común de CMRR: 120
  • Ruido interno: 0,4 μV
  • Ruido externo: 0,8 μV
  • Relación señal/ruido (SNR): 130 dB
  • LED para indicación de alimentación e indicación de conexión ADS1299
  • 3 pines libres para conectar objetos externos (tierra y canal Raspberry Pi)
  • Los 33 pines de Raspberry Pi GPIO se pueden usar para varias tareas, como conectar dispositivos externos
  • Fácil programación con el software de código abierto suministrado para leer y procesar datos en Python, C y C++

Para aquellos que deseen obtenerlo, recientemente se ha lanzado una campaña de crowdfunding. La versión de 4 canales del PiEEG cuesta $250 y la versión de 8 canales cuesta $350.

Rakhmatulin y sus colaboradores también publicaron un artículo que demuestra su funcionalidad: pudieron controlar un ratón de juguete parpadeando.

«Pero el potencial es mucho mayor y el dispositivo se puede usar en muchas industrias diferentes, según los deseos y las capacidades del usuario», escribió.

De hecho, informa Rakhmatulin, las señales PiEEG se pueden usar, por ejemplo, para el control inteligente del hogar, juegos, robótica, entrada de teclado virtual o incluso experimentos de polígrafo de bricolaje. El dispositivo «también puede ser utilizado por entusiastas del aprendizaje automático para crear proyectos para controlar robots y miembros mecánicos con poder de pensamiento, control del sueño, control de la meditación o como detector de movimiento, mentiras y muchos más», señala Rakhmatulin.

La buena noticia con este tipo de proyectos de bajo costo es que podrían aprender más sobre el cerebro en los próximos 10 años de lo que hemos aprendido en los últimos 50. Sin embargo, el problema ahora sería encontrar personas que acepten que cualquiera puede conectarse a su cerebro. Pero además, no se pueden excluir las dificultades materiales. De hecho, se informa que los electrodos se desgastan rápidamente con el tiempo, lo que podría aumentar el costo de usar el dispositivo. Además, es necesario encontrar una manera de mantener estos electrodos en su lugar durante un largo período, lo que no es fácil durante los experimentos.

Pero ya con la capacidad de leer señales cerebrales de forma económica y realizar tareas a partir de esas señales, está resurgiendo el polémico debate sobre mantener la memoria humana en un dispositivo de almacenamiento.

Fuente: https://arxiv.org

from Linux Adictos https://ift.tt/CYTtPBb
via IFTTT

Arduino UNO R4, un paso de gigante para una comunidad de código abierto

Arduino-Store_UNO-R4

El UNO R4 vendrá en dos versiones, UNO R4 WiFi y UNO R4 Minima

En los últimos años, la electrónica modular se ha vuelto cada vez más popular entre aficionados y profesionales. El concepto de construir sistemas electrónicos a partir de componentes prefabricados e intercambiables ofrece muchas ventajas, entre las que se incluyen una creación de prototipos más rápida, un mantenimiento más sencillo y una mayor flexibilidad en el diseño.

Uno de los sistemas electrónicos modulares más conocidos y ampliamente utilizados es la plataforma Arduino, que proporciona una forma fácil de usar para crear proyectos electrónicos interactivos.

Arduino ha anunciado el lanzamiento de Arduino UNO R4, el sucesor del UNO R3 y lo que la compañía dice es un «gran salto adelante» para la popular serie de microcontroladores.

El UNO R4 conservará el mismo factor de forma, compatibilidad de blindaje y voltaje operativo de 5 V que otros miembros de la familia UNO. Bajo el capó cuenta con un procesador Renesas RA4M1 Cortex-M4 de 32 bits funciona a 48 MHz, lo que le permite trabajar tres veces más rápido que el UNO R3.

«Además de eso», dice un anuncio, «SRAM pasó de 2kB a 32kB, y la memoria flash pasó de 32kB a 256kB para adaptarse a proyectos más complejos». En total, dice Arduino, el UNO R4 contará con un aumento de tres a 16 veces en la velocidad del reloj, la memoria y el almacenamiento flash.

Arduino anunció:

En Arduino estamos encantados de anunciar una nueva revisión innovadora de la icónica placa UNO, que ampliará el concepto del producto más icónico y popular de la marca de código abierto, al tiempo que brinda a la comunidad de creadores una actualización tan esperada en términos de rendimiento y posibilidades.

De hecho, el Arduino UNO R4 conserva las características bien conocidas de la familia UNO (factor de forma estándar, compatibilidad con blindaje, voltaje de funcionamiento de 5 V, robustez excepcional), al tiempo que ofrece nada menos que un Cortex®-M4 de 32 bits y un aumento de 3 a 16 veces en velocidad de reloj, memoria y almacenamiento flash.

La nueva placa, que estará disponible en Wi-Fi y versiones Minima «económicas», llega con un DAC analógico de 12 bits, además de otras actualizaciones de rendimiento y calidad de vida, como un puerto USB-C y un aumento máximo de la tensión de alimentación a 24V. Además, un bus CAN y un puerto SPI permiten a los usuarios «minimizar el cableado y ejecutar diferentes tareas en paralelo conectando múltiples escudos».

La versión WiFi viene con un módulo WiFi Espressif S3, lo que amplía las posibilidades creativas para creadores, educadores y aficionados, mientras que el UNO R4 Minima es una opción rentable para aquellos que buscan el nuevo microcontrolador sin funciones adicionales.

Arduino UNO R4 está equipado con el Renesas RA4M1 a 48 MHz (3 veces en comparación con el UNO R3), además, se ha aumentado la SRAM de 2 a 32 KB y la memoria flash de 32 a 256 KB para poder realizar proyectos más complejos.

Por otra parte, se menciona que el puerto USB se actualizó a USB-C y el voltaje de suministro máximo se incrementó a 24 V con un diseño térmico mejorado. La placa proporciona un bus CAN, lo que permite a los usuarios minimizar el cableado y ejecutar diferentes tareas en paralelo conectando múltiples pantallas. Finalmente, la nueva tarjeta incluye un convertidor de analógico a digital de 12 bits.

En general, Arduino UNO R4 es la respuesta a las solicitudes de mejoras y actualizaciones de la comunidad de desarrolladores y creadores, lo que hace que comenzar a usar Arduino sea más fácil que nunca.

En cuanto a la compatibilidad de hardware, el pinout, el voltaje y el factor de forma no cambian con respecto al UNO R3, lo que garantiza la máxima compatibilidad eléctrica y de hardware con los escudos y proyectos existentes. En el lado del software, se hace un gran esfuerzo para maximizar la compatibilidad con versiones anteriores de los más populares.

Cabe mencionar que Arduino UNO R4 está programado para fines de mayo, cuando se revelarán más detalles sobre sus características.

Fuente: https://blog.arduino.cc

from Linux Adictos https://ift.tt/p6PAux2
via IFTTT

SUSE tiene nuevo CEO

SUSE cambia a su máximo ejecutivo

Se acaba de conocer que en la compañía basada en Linux más grande del mundo va a haber cambio de autoridades. SUSE tiene nuevo CEO.

La noticia es buena para los linuxeros, pero no para los fanáticos de la corrección política. Se va una mujer y entra un hombre. Pero, se trata de un veterano del Universo Unix y Linux.

SUSE tiene nuevo CEO

Melissa Di Donato, actualmente la principal ejecutiva de la firma, abandona inmediatamente su puesto para «Comenzar la siguiente etapa de su carrera» lo cuál puede ser cierto o un eufemismo. Con el mundo corporativo nunca se sabe.

Hasta que su reemplazante asuma, el puesto será ocupado por el responsable de finanzas Andy Myers que seguirá también en su actual puesto.

Esto sucederá hasta el primero de mayo de 2023 en que Dirk-Peter van Leeuwen asumirá formalmente sus funciones.

El legado de Melissa Di Donato

Di Mateo lideró la oferta pública de acciones de SUSE y aumentó sus ingresos en un 60%.También posicionó en un excelente lugar a la compañía en el mercado de servicios basados en Kubernetes mediante la adquisición de una compañía especializada.

Actualmente SUSE, que cambió de dueño varias veces, está basada en Luxemburgo y declara ingresos por 168,4 millones de dólares y un beneficio neto de 6,19 millones en lo que llevamos del año, lo que hace esperar muchos mejores resultados que su desempeño del año anterior.

Dirk-Peter van Leeuwen

Los antecedentes del nuevo CEO incluyen paradojas. Trabajó en SCO como director para Bélgica, Países Bajos y Escandinavia, SCO era una empresa basada en Unix que demandó a Novell por violación de patentes. Novell fue durante muchos años la empresa detrás de SUSE Linux. También fue vicepresidente y ejecutivo principal para la división norteamericana de Red Hat.

Hasta su compra por IBM, Red Hat fue la compañía independiente basada en Linux más grande por su volumen.

Nos guste o no, el destino del mundo Linux está cada vez más en manos corporativas. SUSE S.A, empresa basada como dijimos en Luxemburgo, tiene más de dos mil empleados en todo el mundo y presume de tener entre sus clientes al sesenta por ciento de las quinientas empresas más grandes según la revista Fortune.

from Linux Adictos https://ift.tt/7nYX96N
via IFTTT

JingOS: «El proyecto está muerto»

JingOS ha muerto

A principios de 2021, un nuevo proyecto Linux se presentó al mundo. Su nombre, JingOS, e incluso se fabricó y se vendió una tablet que contaba con un hardware más que aceptable. Se llegó a valorar la posibilidad de que llegara a la PineTab, lo que a un usuario como yo le dio esperanzas, pero el tiempo nos ha devuelto a una triste realidad: por lo menos en cuanto a tablets, los sistemas operativos móviles dejan mucho que desear, eso en el caso de que reciban soporte.

Ya a principios de 2022 había rumores de que las cosas no iban bien el en equipo de JingOS. La tienda no funcionaba, se decía que miembros del equipo habían sido despedidos… y durante un tiempo no ha habido noticias de ningún tipo. Por curiosidad, porque tengo una PineTab que lleva sin actualizarse desde noviembre del año pasado y porque dudo de que suba a Ubuntu 20.04, he buscado algo de información, y lo que he encontrado es, literalmente, un mensaje de hace tiempo que dice que el proyecto está muerto.

JingOS renació… para morir también

El mensaje que se está compartiendo en Telegram, y probablemente en otras redes, dice:

-Dejad de hacer click en texto azul.
-El foro está caído.
-La web está caída.
-No, no se ejecutará en tu *inserta tu mierda de iPad 2 aquí*.
-Si tienes una JingPad, deberías usar Ubuntu Touch (https://ubuntu-touch.io/).

El proyecto está muerto.

Si quieres restaurar archivos para JingOS en la rom de Android (SÓLO PARA LA JINGPAD):

https://ift.tt/pl7D5O3

Difícil ser más claro. Además, es cierto que su web no funciona, ni se puede acceder a su tienda, por lo que es imposible comprar una JingPad. Recomiendan usar Ubuntu Touch si ya se tiene la tablet, un sistema operativo que dista mucho de lo que ofrecía esta «no-distro» basada en Ubuntu y con software de Plasma modificado para tablets. Se creó un proyecto alternativo, pero HummingbirdOS también ha desaparecido.

Esto nos tiene que servir para tener más paciencia y mantenernos un poco al margen. En los teléfonos parece que hay más acción y mantenimiento, pero en el terreno de las tablets la cosa pinta mal. La PineTab está casi abandonada (o abandonada del todo), y las mejores alternativas desaparecen. Ahora sólo nos queda mirar, y yo aconsejaría que desde la barrera, cómo le va a la PineTab2. Yo, por mi parte, sólo compraré un dispositivo móvil con Linux cuando esté seguro de que sirve para algo en el presente y va a tener futuro. Paso de volver a quedar colgado como un jamón.

from Linux Adictos https://ift.tt/O5pawGc
via IFTTT

Murió Gordon Moore, pionero de los microprocesadores.


En la industria de la tecnología se da una paradoja, cuanto más famoso es un personaje menor es su contribución. Ayer 24 de marzo murió Gordon Moore, uno de los pioneros de los microprocesadores  y probablemente muy pocos sepan de quien estamos hablando.

Conocido principalmente por la ley que lleva su nombre  y que predijo de manera bastante acertada como iría creciendo la capacidad de los semiconductores, su contribución no se limita solo a esto.

Muríó Gordon Moore

En nuestra serie de artículos sobre los laboratorios Bell contamos cómo la búsqueda de materiales más durables y eficientes que los tubos de vacío llevaron a la invención del transistor. Cuando este se impuso, la nueva meta fue encontrar materiales menos resistentes a la electricidad.

William Shockley, uno de los responsables de la  invención del transistor, fundó una empresa llamada Shockley Semiconductor para comercializar transistores de silicio. Uno de los jóvenes científicos que convocó fue Gordon Moore.

Moore nació en California en 1929 y cursó estudios superiores en el Instituto Tecnológico de ese estado donde se especializó en física y se doctoró en química.  Luego se trasladó a la Universidad John Hopkins en cuyo Laboratorio de Física Aplicada realizó una investigación post doctoral donde fue reclutado por Shockley.

«Los ocho traidores»

Desencantado por el estilo de gestión de Shockley y la falta de resultados, junto con siete de sus compañeros se sumó a Fairchild Semiconductor lo que fue calificado por éste como una traición. Fairchild fue una de las primeras empresa en mudarse a Silicon Valley en 1957.

La ley de Moore

En su función de director de investigación y desarrollo en Fairchild, Moore enunciaría la ley que haría famoso su apellido en el mundo de la tecnología. La ley de Moore se enunció por primera vez en un artículo de la revista Electronics Magazine publicado en 1965, en el que se señaló que el número de componentes que podían ponerse en un circuito integrado se había duplicado año a año y que ese ritmo continuaría. Diez años después cambió el plazo a dos años.

En 1968 junto con un colega de Fairchild fundó NM Electronics la que después sería bautizada como Intel Corporation donde sería vicepresidente, presidente y jefe ejecutivo.  

Una vez jubilado se dedicaría a la filantropía apoyando numerosas causas medioambientales.

from Linux Adictos https://ift.tt/SZBr47j
via IFTTT

La entrada y salida de IBM. Breve historia de la Inteligencia Artificial 7

IBM desarrolló el primer programa para demostrar un teorema geométrico.

Durante décadas, IBM fue el líder indiscutido de la industria informática. Aún hoy, aunque no ocupa el rol preponderante que alguna vez supo tener, su trabajo continúa siendo relevante. Sin embargo, en el caso de la Inteligencia Artificial, la entrada y salida de IBM fue bastante rápida aunque muy importante.

En los cincuenta, las investigaciones sobre esta disciplina se consideraban parte integral de los conocimientos necesarios para construir mejores ordenadores. Por lo que IBM decidió dar luz verde al desarrollo de un programa que resolviera teoremas.

La entrada y salida de IBM

Habíamos visto en artículos anteriores que Simon y su equipo tuvieron éxito con un programa que demostraba teoremas matemáticos. Para esto, tuvieron que crear un lenguaje de programación nuevo.

El desafío que encaraba IBM tenía un problema adicional. Para que el ordenador pudiera demostrar un teorema geométrico tenía que ver la figura. Todavía no se habían inventado las cámaras web ni software capaz de procesar imágenes.

El equipo elegido para la tarea fue la IBM 704. Considerada como uno de los primeros superordenadores del mundo fue el primero de incorporar el hardware de punto flotante.

Las operaciones de punto flotante incluyen la adición, sustracción, división multiplicación y cálculo de raíz cuadrada con números muy grandes o muy pequeños.

Contaba además con una memoria de núcleo magnético que era más rápida que el sistema de tambor magnético utilizado en modelos anteriores y era capaz de ejecutar cuarenta mil instrucciones por segundo expresadas en instrucciones de 36 bits.

El software tardó tres años en estar listo ya que su responsable, un doctor en física llamado Herbert Gellenter, tuvo que inventar un nuevo lenguaje de programación que pudiera manipular símbolos como IPL pero que tuviera la facilidad de programación de Fortran, un desarrollo de la propia IBM para la creación de aplicaciones para cálculo científico.

El programa recibía información sobre la figura geométrica con la que tenía que trabajar en forma de una serie de coordenadas ingresadas en forma de tarjetas perforadas e iba deduciendo resultados intermedios a partir de los datos conocidos.

El software se conoció como Geometry Theorem Prover (Probador de problemas de Geometría) y basándose en aquellas propiedades que pudiera comprobar en el dibujo logró resolver un teorema de dos pasos a veinticinco posibilidades diferentes cuando haciéndolo a ciegas tendría que analizar un millón.

El probador de problemas de geometría fue el primero en usar una técnica conocida como referenciación de modelos. A menos que hayas aterrizado en un plato volador hace 5 minutos seguramente habrás escuchado hablar de uno de los últimos resultados de la aplicación de esta técnica: ChatGPT.

En el campo de la inteligencia artificial un modelo es una representación de un proceso complejo a partir de la cual se pueden hacer inferencias. En el caso del probador el modelo eran las coordenadas de la figura geométrica, en el de ChatGPT un modelo capaz de procesar el lenguaje humano.

Otros ordenadore de IBM se dedicaban a cosas menos serias como aprender a jugar a las damas o al ajedrez. En el primer caso el objetivo era ver si una máquina era capaz de aprender sobre la forma de jugar de su oponente. Finalmente logró vencerlo por lo que parece que sí.

Los éxitos tempranos de IBM fueron también la causa de su abandono de este campo. Los ordenadores dedicados a jugar al ajedrez y las damas tuvieron mucho éxito entre la prensa, pero no tanto entre los accionistas de la empresa que lo consideraron un despilfarro de dinero.

A esto hay que sumarle que el departamento de marketing de la empresa notó que entre sus potenciales clientes aumentaba la desconfianza hacia los ordenadores. Había miedo entre los encargados de adquirirlas de que su compra los terminara reemplazando.

Las investigaciones en Inteligencia Artificial se abandonaron y la nueva estrategia de marketing fue caracterizar a los ordenadores como procesadores de datos que solo hacían lo que se les decía.

¿Pasará lo mismo con las nuevas herramientas ahora tan en boga? ¿Se las prohibirá en las empresas por miedo a que terminen ocupando los más altos puestos?

Tendremos que esperar para verlo.

from Linux Adictos https://ift.tt/LKovdnW
via IFTTT

Microsoft ha gastado millones de dólares para construir la supercomputadora en la que se basa ChatGPT

Microsofts

Microsoft anunció nuevas máquinas virtuales potentes y enormemente escalables que integran las últimas GPU NVIDIA H100 Tensor Core y la red NVIDIA Quantum-2 InfiniBand

Microsoft ha gastado cientos de millones de dólares en la construcción de una supercomputadora masiva para ayudar a impulsar el chatbot ChatGPT de OpenAI, en un informe Microsoft explica cómo creó la poderosa infraestructura de inteligencia artificial de Azure utilizada por OpenAI y cómo sus sistemas se están volviendo aún más robustos.

Para construir la supercomputadora que impulsa los proyectos OpenAI, Microsoft afirma haber conectado miles de unidades de procesamiento de gráficos (GPU) NVIDIA a su plataforma de computación en la nube Azure. Esto, a su vez, permitió a OpenAI entrenar modelos cada vez más potentes y «desbloquear las capacidades de IA» de herramientas como ChatGPT y Bing.

Scott Guthrie, vicepresidente de inteligencia artificial y nube de Microsoft, dijo que la compañía gastó varios cientos de millones de dólares en el proyecto, según un comunicado. Y si bien eso puede parecer una gota en el océano para Microsoft, que recientemente amplió su inversión multianual y multimillonaria en OpenAI, ciertamente demuestra que está listo para invertir aún más dinero en el espacio de IA.

Cuando Microsoft invirtió $ 1 mil millones en OpenAI en 2019, acordó construir una supercomputadora masiva y de última generación para la puesta en marcha de investigación de inteligencia artificial. El único problema: Microsoft no tenía nada que OpenAI necesitara y no estaba completamente seguro de poder construir algo tan grande en su servicio en la nube de Azure sin que se rompiera.

OpenAI estaba tratando de entrenar un conjunto cada vez más grande de programas de inteligencia artificial llamados modelos, que ingirieron mayores volúmenes de datos y aprendieron más y más parámetros, las variables que el sistema de IA descubrió a través del entrenamiento y el reentrenamiento. Esto significaba que OpenAI necesitaba acceso a potentes servicios de computación en la nube durante largos períodos de tiempo.

Para enfrentar este desafío, Microsoft tuvo que encontrar formas de vincular decenas de miles de chips gráficos A100 de NVIDIA y cambiar la forma en que coloca los servidores en bastidores para evitar cortes de energía.

“Construimos una arquitectura de sistema que podría funcionar y ser confiable a gran escala. Esto es lo que hizo posible ChatGPT”, dijo Nidhi Chappell, gerente general de Microsoft para la infraestructura de Azure AI. “Es un patrón que salió de ahí. Habrá muchos, muchos más”.

La tecnología permitió a OpenAI lanzar ChatGPT, el chatbot viral que atrajo a más de un millón de usuarios a los pocos días de su salida a bolsa en noviembre y ahora está siendo absorbido por los modelos comerciales de otras empresas, desde las administradas por el multimillonario fundador de fondos de cobertura Ken Griffin en el momento de la entrega.

A medida que las herramientas de IA generativa, como ChatGPT, ganen el interés de las empresas y los consumidores, habrá una mayor presión sobre los proveedores de servicios en la nube, como Microsoft, Amazon y Google para garantizar que sus centros de datos puedan proporcionar la enorme potencia informática necesaria.

Ahora Microsoft está utilizando el mismo conjunto de recursos que creó para OpenAI para entrenar y ejecutar sus propios grandes modelos de IA, incluido el nuevo bot de búsqueda Bing presentado el mes pasado. La empresa también vende el sistema a otros clientes. El gigante del software ya está trabajando en la próxima generación de la supercomputadora de IA, como parte de un acuerdo ampliado con OpenAI en el que Microsoft ha agregado $ 10 mil millones a su inversión.

«No los construimos como algo personalizado; comenzó como algo personalizado, pero siempre lo construimos de manera que se generalizara para que cualquier persona que quiera entrenar un modelo de lenguaje grande pueda aprovechar las mismas mejoras». dijo Guthrie en una entrevista. «Realmente nos ayudó a convertirnos en una mejor nube para la IA en general».

Entrenar un modelo masivo de IA requiere una gran cantidad de unidades de procesamiento de gráficos conectadas en un solo lugar, como la supercomputadora de IA ensamblada por Microsoft. Una vez que un modelo está en uso, responder a todas las preguntas planteadas por los usuarios (lo que se denomina inferencia) requiere una configuración ligeramente diferente. Microsoft también implementa chips gráficos para inferencia, pero esos procesadores (cientos de miles) están dispersos geográficamente en las más de 60 regiones de centros de datos de la empresa. Ahora, la compañía está agregando el último chip de gráficos NVIDIA para cargas de trabajo de IA (el H100) y la última versión de la tecnología de red Infiniband de NVIDIA para compartir datos aún más rápido.

La decisión de Microsoft de asociarse con OpenAI se basó en la creencia de que esta escala de infraestructura sin precedentes produciría resultados (nuevas capacidades de IA, un nuevo tipo de plataforma de programación) que Microsoft podría convertir en productos y servicios que brindarían beneficios reales a los clientes, dijo Waymouth. Esta creencia ha alimentado la ambición de las empresas de superar todos los desafíos técnicos para construirlo y continuar ampliando los límites de la supercomputación de IA.

Fuente: https://news.microsoft.com/

from Linux Adictos https://ift.tt/NnXeBhA
via IFTTT