Las últimas build de LineageOS para Raspberry Pi ya soportan aceleración por hardware

LineageOS en la Raspberry Pi 4Hace unas semanas escribí un artículo sobre qué era lo mejor que podemos usar en una Raspberry Pi 4. En resumen, lo mejor no es ponerse cabezón buscando un sistema operativo para conquistarlos a todos; lo más inteligente es tener varios pendrives o tarjetas SD para elegir lo mejor para cada caso. Por ejemplo, LibreELEC si queremos un Kodi perfectamente funcional o RetroPie si queremos jugar. En la lista de opciones hay espacio para LineageOS, cuyas últimas actualizaciones están mejorando justo en donde más falta le hacía.

LineageOS no crea imágenes oficiales para la Raspberry Pí, pero sí lo hace un desarrollador cuyo nick es KonstaKANG. Su trabajo es coger el LineageOS oficial y crear builds o versiones para placas como la Raspberry Pi, entre otros aparatos. Desde que yo descubrí su proyecto, en la lista de problemas aparecía uno que podía preocupar un poco: no estaba soportada la aceleración por hardware. Se suponía que la anterior ya la soportaba, pero en la más reciente ha vuelto a aparecer en el apartado de problemas.

LineageOS 19 está basado en Android 12L

KonstaKANG ha devuelto el tema de la decodificación por hardware al apartado de «issues», pero no porque el soporte haya desaparecido. Lo que está pasando es que ha descubierto que su rendimiento varia dependiendo del decodificador elegido y la resolución de vídeo. Por lo tanto, lo que en un principio parecía ser una imagen casi perfecta, en realidad sigue siendo un trabajo «en proceso» o «en construcción», pero ya queda mucho menos.

Por mencionar el resto de problemas, KonstaKANG también dice que hay algunas aplicaciones de cámaras de terceros que no funcionan con los módulos de cámara oficiales de Raspberry Pi, y que SELinux está en modo permisivo. También menciona «y más», pero como no da detalles, no podemos saber exactamente a qué se refiere, a no ser que especulemos con que hay pequeños bugs que podemos experimentar en cualquier momento. Pero teniendo en cuenta que esta en concreto es una imagen para una placa, y que cada uno debe saber lo que instala, yo nunca le he dado importancia a ninguno de estos dos problemas.

Aún así, y aunque LineageOS para Raspberry Pi llegue a funcionar perfectamente, sigo pensando que merece la pena ir separando las cosas en diferentes unidades. También es cierto es que si consigue que todo se vea bien en una resolución de 1920×1080 esta puede ser una de las mejores opciones si lo que queremos es una especie de TV Box. En cualquier caso, es una opción más que mejora con el paso del tiempo.

Si estáis interesados, toda la información está en este enlace. KonstaKANG nos pide que respetemos los enlaces de las descargas. Hagámoslo.

from Linux Adictos https://ift.tt/3djTDJ6
via IFTTT

OpenXLA, un proyecto open source para acelerar y simplificar el aprendizaje automático

OpenXLA

OpenXLA es un ecosistema de compilador de ML de código abierto desarrollado conjuntamente

Hace poco, las mayores empresas dedicadas al desarrollo en el campo del aprendizaje automático presentaron el proyecto OpenXLA, destinado al desarrollo conjunto de herramientas para compilar y optimizar modelos para sistemas de aprendizaje automático.

El proyecto se ha hecho cargo del desarrollo de herramientas que permitan unificar la compilación de modelos preparados en los frameworks TensorFlow, PyTorch y JAX para un entrenamiento y ejecución eficiente en diferentes GPUs y aceleradores especializados. Empresas como Google, NVIDIA, AMD, Intel, Meta, Apple, Arm, Alibaba y Amazon se sumaron al trabajo conjunto del proyecto.

El Proyecto OpenXLA proporciona un compilador de ML de última generación que puede escalar en medio de la complejidad de la infraestructura de ML. Sus pilares fundamentales son el rendimiento, la escalabilidad, la portabilidad, la flexibilidad y la extensibilidad para los usuarios. Con OpenXLA, aspiramos a aprovechar el potencial real de la IA acelerando su desarrollo y entrega.

OpenXLA permite a los desarrolladores compilar y optimizar modelos de todos los marcos de ML líderes para una capacitación y servicio eficientes en una amplia variedad de hardware. Los desarrolladores que utilicen OpenXLA verán mejoras significativas en el tiempo de capacitación, el rendimiento, la latencia de servicio y, en última instancia, el tiempo de comercialización y los costos de cómputo.

Se espera que al unir los esfuerzos de los principales equipos de investigación y representantes de la comunidad, será posible estimular el desarrollo de sistemas de aprendizaje automático y resolver el problema de la fragmentación de la infraestructura para varios marcos y equipos.

OpenXLA permite implementar soporte efectivo para varios hardware, independientemente del marco en el que se base el modelo de aprendizaje automático. Se espera que OpenXLA reduzca el tiempo de capacitación del modelo, mejore el rendimiento, reduzca la latencia, reduzca la sobrecarga informática y reduzca el tiempo de comercialización.

OpenXLA está formado por tres componentes principales, cuyo código se distribuye bajo la licencia Apache 2.0:

  1. XLA (álgebra lineal acelerada) es un compilador que le permite optimizar modelos de aprendizaje automático para una ejecución de alto rendimiento en diferentes plataformas de hardware, incluidas GPU, CPU y aceleradores especializados de varios fabricantes.
  2. StableHLO es una especificación e implementación básica de un conjunto de operaciones de alto nivel (HLO, High-Level Operations) para usar en modelos de sistemas de aprendizaje automático. Actúa como una capa entre los marcos de trabajo de aprendizaje automático y los compiladores que transforman el modelo para que se ejecute en un hardware específico. Se preparan capas para generar modelos en formato StableHLO para los frameworks PyTorch, TensorFlow y JAX. La suite MHLO se utiliza como base para StableHLO, que se amplía con soporte para serialización y control de versiones.
  3. IREE (Entorno de ejecución de representación intermedia) es un compilador y tiempo de ejecución que convierte los modelos de aprendizaje automático en una representación intermedia universal basada en el formato MLIR (Representación intermedia de varios niveles) del proyecto LLVM. De las características, se destacan la posibilidad de precompilación (antes de tiempo), soporte para control de flujo, la capacidad de usar elementos dinámicos en modelos, optimización para diferentes CPU y GPU, y baja sobrecarga.

Por la parte de las principales ventajas de OpenXLA se menciona que se ha logrado un rendimiento óptimo sin tener que profundizar en la escritura de código específico del dispositivo, ademas de proporcionar optimizaciones listas para usar, incluida la simplificación de expresiones algebraicas, asignación eficiente de memoria, programación de ejecución, teniendo en cuenta la reducción del consumo máximo de memoria y las sobrecargas.

Otra de las ventajas, es la simplificación del escalado y paralelización de los cálculos. Es suficiente que un desarrollador agregue anotaciones para un subconjunto de tensores críticos, sobre la base de los cuales el compilador puede generar automáticamente código para computación paralela.

Tambien se destaca que se proporciona la portabilidad con soporte para múltiples plataformas de hardware, como GPU AMD y NVIDIA, CPU x86 y ARM, aceleradores de ML de TPU de Google, IPU de AWS Trainium Inferentia, Graphcore y Cerebras Wafer-Scale Engine.

Soporte para conectar extensiones con la implementación de funciones adicionales, como soporte para escribir primitivas de aprendizaje automático profundo usando CUDA, HIP, SYCL, Triton y otros lenguajes para computación paralela, asi como tambien la posibilidad de ajuste manual de cuellos de botella en modelos.

Finalmente si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.

from Linux Adictos https://ift.tt/3o5ZRfy
via IFTTT

Brave y DuckDuckGo se apuntan a resultados basados en inteligencia artificial, cada uno a su manera

Brave Search remarcando una respuesta

Nadie quiere quedarse atrás. Bueno, parece que Apple, de quien no tenemos ninguna noticia al respecto, pero Google, Microsoft, Brave, DuckDuckGo… Todos se están moviendo para implementar de alguna manera la inteligencia artificial a sus servicios. El más rápido fue Microsoft, quien invirtió 10.000M$ en ChatGPT y ya ofrece sus respuestas en Bing, siempre y cuando se use en Windows y Edge. Google ya ha dicho que lanzará su propio chatbot, y DuckDuckGo y Brave también ha anunciado algo recientemente.

Si va a ser suficiente o no es algo que descubriremos con el tiempo, y a mí me da que el tímido movimiento de Brave sabrá a poco. Sí es útil, pero puede que insuficiente. Anunciado a principios de marzo, ya podemos probar lo que ellos llaman Summarizer, una herramienta de inteligencia artificial para resultados relevantes resumidos. Según explican, cuando preguntemos algo en la caja de búsqueda de Brave Search, lo que veremos será lo mismo que antes, con una diferencia: en negrita se mostrará la respuesta, tal y como vemos en la captura de cabecera.

Summarizer de Brave, DuckAssist de DuckDuckGo

Por otra parte, DuckDuckGo ha presentado DuckAssist, una nueva función que genera respuestas con lenguaje natural a las preguntas que le hagamos. Está en fase beta, y disponible, en teoría, en las aplicaciones de DuckDuckGo y sus extensiones, pero a mí aún no me ha aparecido ni en el ordenador ni el móvil. Si la respuesta está en la Wikipedia, DuckAssist aparecerá y usará su AI para responder con un resumen. Es gratis, privado y no se requiere inicio de sesión.

Son un par de acercamientos a lo que parece que está cambiando la manera en la que vemos y consumimos Internet, pero creo que son muy tímidos si tenemos en cuenta qué ofrece la opción más popular. Unas negritas, que sinceramente he tenido que fijarme bien y leer la información oficial para notar el cambio, o información de la Wikipedia (y alguna otra fuente), que en ocasiones no es precisa en absoluto, no me parecen nada especialmente innovador, pero algo es algo. Y veremos qué es lo siguiente.

Más información en los artículos originales sobre Summarizer y DuckAssist.

from Linux Adictos https://ift.tt/TcZWodn
via IFTTT