PineTime, el reloj inteligente de código abierto, ya disponible por sólo 27$

PineTime ya disponible

Hace casi dos años os hablamos del PineTime. Como todo lo que ofrece PINE64, es un dispositivo en el que software y hardware es de código abierto. Mucho más populares, en parte porque existen desde hace más tiempo, son los PineBook, PinePhone y PineTab, todo aparatos con precios que llaman la atención. Esto también es así con este reloj inteligente, hasta el punto de que cuesta unas diez veces menos que otros smartwatches, incluso veinte (o más) si lo comparáramos con el Apple Watch.

Así lo han publicado en la nota de julio. Accediendo a este enlace podemos reservar parece que comprar el PineTime por 26.99$. Su precio será de 29.99$, por lo que comprándolo ahora nos estaríamos ahorrando un 10%. Hay que recordar que PINE64 pone los precios sin IVA ni otros impuestos, por lo que el precio final podría estar por encima de los 35€ en España.

Especificaciones técnicas del PineTime

  • Dimensiones: 37.5mm x 40mm x 11mm.
  • Peso: 38gr.
  • Caja: aleación de zinc y plástico.
  • Pantalla táctil capacitativa IPS, RGB 65k colores. 1.3″ con resolución 240×240.
  • SoC: NORDIC Semiconductor nRF52832
  • CPU: 64MHz ARM Cortex-M4F
  • Memoria interna Flash de 512KB y 64KB de RAM. Adicional de 4MB SPI NOR.
  • Bluetooth 5, lo que incluye el de bajo consumo.
  • Sensores: acelerómetro y sensor de pulso.
  • Vibrador.
  • Batería: LiPo de 170-180mAh. Carga: 2 pins con conexión USB A.

No podemos decir que sea el mejor del mercado, pero tampoco lo pretenden. Es más un reloj para el que quiere algo inteligente que además sea de código abierto, como su teléfono y su tablet, pero aún más limitado (y barato). En la nota mensual se ve una imagen en movimiento que muestra cómo funcionaría el firmware. Parece que se mueve bien, pero creo que está un poco (bastante) limitado. Pero bueno, tampoco es que mi PineTab sea la mejor tablet que he probado.

from Linux Adictos https://ift.tt/3z3tAK0
via IFTTT

X2Go: escritorios remotos fáciles en tu distro GNU/Linux

X2Go

Cada vez es más frecuente emplear escritorios remotos, ya sea para dar o recibir asistencia técnica, o por cuestiones de teletrabajo. Sea como sea, existen muchas alternativas para facilitarte la vida en Linux para poder trabajar con estos escritorios remotos. Una de ellas es el software X2Go, un programa de código abierto que emplea el protocolo NX Technology.

X2Go da acceso remoto a la interfaz gráfica de usuario o escritorio remoto. También se puede emplear para acceder a escritorios remotos de sistemas operativos Microsoft Windows, y no solo para GNU/Linux. Para mayor seguridad, también proporciona sesiones remotas seguras vía SSH.

Como suele ser habitual en este tipo de software, existe un paquete servidor y un paquete cliente. El servidor se debe instalar en el equipo Linux anfitrión. Generalmente es compatible con la mayoría de escritorios, aunque algunos pueden necesitar algunas configuraciones específicas para garantizar la compatibilidad.

En cuanto al paquete cliente, se instalará en la otra máquina. Éste otro software está disponible tanto para distros Linux, como también para macOS y Windows. Una vez instalados servidor y cliente en los equipos, se podrá establecer la conexión y se puede ver el escritorio remoto y operar sobre él como si fuese local desde el otro equipo…

Este software es libre, bajo licencia GPLv2+, y es gratuito. Además, X2Go ha sido escrito en lenguaje de programación Perl. Lo encontrarás empaquetado para múltiples distros, como Ubuntu, Debian, Fedora, SUSE, RHEL, etc. También cuenta con add-on para extender sus capacidades y tiene disponible una GUI escrita en Python para el cliente llamada PyHoca-GUI.

El paquete cliente está disponible en formato DMG para macOS, .exe para Windows. Y en el sitio web encontrarás una fantástica wiki e información por si tienes algún problema en la instalación, aunque es extremadamente sencillo…

Más información de X2Go – Ver sitio web

Ver repositorio de código – Repositorio

from Linux Adictos https://ift.tt/3idueOj
via IFTTT

El traductor ya funciona en Firefox 92, pero solo para un idioma

Traductor en Firefox 92

Cuando lanzaron Firefox 89, una de las novedades que se descubrieron en la nueva Nightly (91) fue que ya se estaba preparando el terreno para que el navegador del zorro pudiera traducir paginas web de manera nativa. En su día lo probamos y no vimos nada, no conseguimos hacer funcionar la extensión, pero ya parece que se puede activar en Firefox 92. La última versión estable es la 90, por lo que aún quedan ocho semanas para lo que actualmente está en el canal Nightly vea la luz.

Tal y como explicamos el pasado junio, lo que tenemos que hacer para poder ver lo que Mozilla se trae entre manos es acceder a about:config y marcar como «false» la opción extensions.translations.disabled, con la principal diferencia de que, tras reiniciar el navegador, ahora el traductor sí aparece. Lo hace igual que en cualquier otro navegador en el que instalamos una extensión para traducir o ya la trae por defecto: nos muestra una barra desde donde podemos confirmar que queremos traducir o no y algunas opciones más.

Firefox 92 llegará en septiembre

El problema es que, por lo menos en mis pruebas, yo no he podido encontrar la manera de que traduzca al español. Cuando hacemos clic en «Traducir», empieza a trabajar, algo que no podemos decir que haga rápido, para llevarnos la sorpresa de que el texto traducido pasa a estar en inglés. Una broma pesada para aquellos que tampoco conocen esa lengua. Si alguien averigua cómo hacerlo, que comente y añado al artículo la solución.

De momento, lo único que sí me llama la atención para bien es el icono de la extensión y las animaciones, algo en lo que ahora mismo tendremos tiempo de ver detenidamente porque, como hemos mencionado, tarda bastante en traducir las páginas si lo comparamos con otros navegadores. Si al final no dan marcha atrás, la posibilidad de traducir empezará a estar disponible en la versión estable en el Firefox 92 que llegará en septiembre. Esperemos que para entonces ya traduzca al español.

from Linux Adictos https://ift.tt/2T8Z41S
via IFTTT

Tails 4.20 llega con cambios en el proceso de conexión de Tor, actualizaciones de paquetes y mas

La nueva versión de Tails 4.20 ya fue liberada y en esta nueva versión de la distribución además de las actualizaciones de los componentes del sistema de los cuales se destaca la nueva versión de Linux 5.10.46, tambien se destaca el cambio en el proceso de conexión a la red Tor.

Para aquellos que desconocen de Tails, deben saber que está es una distribución que esta basada en la base del paquete Debian 10 y diseñada para proporcionar acceso anónimo a la red, con la finalidad de preservar la privacidad y el anonimato del usuario en la red.

La salida anónima de Tails es proporcionada por Tor en todas las conexiones, ya que el tráfico a través de la red Tor, están bloqueadas por defecto con un filtro de paquetes, con lo cual el usuario no deja rastro en la red a no ser que quiera lo contrario. El cifrado se usa para almacenar datos de usuario en el modo guardar datos de usuario entre inicios, además de que presenta una serie de aplicaciones preconfiguradas pensadas en la seguridad y anonimato del usuario, tales como un navegador web, el cliente de correo, un cliente de mensaje instantánea entre otras más.

Principales novedades de Tails 4.20

En la nueva versión de Tails 4.20 el proceso de conexión a la red Tor ha cambiado por completo, ya que partir de ahora después de que aparece la conexión a la red local, se inicia el asistente de conexión de Tor, que permite elegir entre el modo de conexión automática y el modo de privacidad mejorada.

Este pequeño cambio, mencionan los desarrolladores que permite ocultar el hecho de trabajar a través de Tor de los analizadores de tráfico en la red local, además de que este asistente de conexión permite conectarse desde redes censuradas a través de pasarelas puenteadas para evitar el bloqueo sin cambiar la configuración predeterminada.

Tambien se menciona que en el futuro, será posible guardar una lista de puertas de enlace de puente en almacenamiento persistente, diagnosticar el estado de la red inalámbrica, determinar la conexión mediante el portal cautivo y obtener información sobre nuevas puertas de enlace de puente.

Otros de los cambios que se destacan de esta nueva versión de Tails 4.20 es la inclusión del kernel de Linux 5.10.46, versión la cual se ha añadido mejoras en el soporte de hardware y sobre todo tambien se han arreglado algunos problemas menores.

También podremos encontrar que se incluyo la actualización de la aplicación para compartir archivos OnionShare 2.2, versión en la cual se destaca la  capacidad de usar OnionShare como un servidor web para servir páginas estáticas.

También se han actualizado las versiones del administrador de contraseñas KeePassXC 2.6.2, el navegador Tor 10.5.2, el cliente de correo Thunderbird 78.11.0, Tor 0.4.5.9 y demás paquetes el sistema.

Finalmente si estás interesado en conocer más al respecto de esta nueva versión de Tails, puedes consultar los detalles en el siguiente enlace.

Descargar Tails 4.20

Si quieres probar o instalar esta nueva versión de esta distribución de Linux en tu equipo, puedes obtener la imagen del sistema la cual ya está disponible desde su página web oficial en su sección de descargas, en enlace es este.

La imagen que se obtiene desde la sección de descargas es una imagen ISO de 1.1 GB capaz de funcionar en modo en vivo.

Además es importante tomar en cuenta que esta nueva versión de Tails 4.20, como la mayoría de sus predecesores, también corrige algunos agujeros de seguridad por lo que sus desarrolladores recomiendan encarecidamente que se realice la actualización a esta nueva versión en caso de estar en una anterior.

¿Cómo actualizar a la nueva versión de Tails 4.20?

Para aquellos usuarios que tengan instalada una versión anterior de Tails y quieren realizar la actualización a esta nueva versión. Deben saber que la actualización directa a Tails 4.20 la pueden realizar directamente desde Tails 4.14 o superior.

Para ello podrán hacer uso de su dispositivo USB que utilizaron para instalar Tails, pueden consultar la información para llevar este movimiento en su ordenador en el siguiente enlace. 

from Linux Adictos https://ift.tt/2UcCBRZ
via IFTTT

Top 500: después de un año Fugaku sigue siendo el lider de la lista

TOP500

Durante el pasado mes de junio se presentó la actualización de Top 500 (se actualiza en junio y noviembre de cada año) y rastrea la evolución del rendimiento y la arquitectura de las supercomputadoras más poderosas del mundo, siendo este un informe en el cual podemos conocer las velocidades en las que se basan en el benchmark High Performance Linpack (HPL), que mide la capacidad de los sistemas para resolver un sistema denso de ecuaciones lineales.

Y en esta nueva edición que se presentó, entre los diez primeros en el último ranking, cinco están en los Estados Unidos, tres en China, uno en Alemania y uno en Italia. 

En esta nueva lista del 2021 el Fugaku continua en la primera posición desde el año pasado y ahora obtuvo 442 petaflops en el benchmark HPL, con 7.630.848 núcleos. Este resultado es idéntico al obtenido en noviembre de 2020, pero superior a los 415,53 petaflops obtenidos el año pasado cuando encabezó la lista.

La supercomputadora se basa en el procesador Arm A64FX personalizado de Fujitsu y no utiliza una GPU, se encuentra instalada en el Centro RIKEN de Ciencias Computacionales (R-CCS) en Kobe, Japón, esta máquina ha sido fundamental en la lucha contra el covid-19.

En el segundo puesto podemos encontrar con 148.8 petaflop al Summit en el Laboratorio Nacional de Oak Ridge (EE. UU.), que ahora tiene casi tres años y utiliza 27.000 GPU Nvidia Tesla V100 vinculadas a 9.000 CPU IBM Power9.

En el tercer puesto está la supercomputadora «Sierra», la cual es de diseño similar a la Summit y es operada por el Laboratorio Nacional Lawrence Livermore (Estados Unidos).

En el cuarto lugar con de 94,6 petaflop, está el Sunway TaihuLight (China).

Mientras que el quinto lugar lo ocupa Perlmutter, instalado en el National Energy Research Scientific Computing Center del Berkeley Lab. El sistema HPE Cray EX funciona con procesadores AMD Milan y GPU Nvidia A100 de 40 GB, vinculados por la tecnología Slingshot de HPE. Según el benchmark HPL, el sistema entregó 65,69 petaflops Linpack rMax sobre un pico potencial (rPeak) de 93,75 petaflops, lo que corresponde a una eficiencia Linpack del 70%. Perlmutter es el sistema de GPU Nvidia A100 más grande y el sistema HPE Cray EX (público) más grande implementado hasta la fecha, basado en la arquitectura anteriormente conocida como «Shasta».

En el sexto lugar esta «Selene» el sistema de Nvidia con 63,46 petaflops y en el cual se implementa la arquitectura modular SuperPod A100 DGX de Nvidia con procesadores AMD Eypc Rome y las GPU A100 de 80 GB de Nvidia.

En séptimo lugar se encuentra Tianhe-2A, construido en China, que perdió un lugar en este ranking y que brindó 61,4 petaflops Linpack. Esta equipado con chips Intel Xeon y aceleradores Matrox-2000 personalizados. Está instalado en el Centro Nacional de Supercomputación en Guangzhou.

En octava posición se encuentra el «Módulo JUWELS», el superordenador más potente de Europa, un superordenador Atos BullSequana equipado con CPU Epyc y GPU A100. Ubicado en Alemania, es capaz de 44,1 petaflops.

Dentro de los principales detalles de este top 10, podremos encontrar que Dell sigue siendo el proveedor académico número uno y el proveedor comercial número uno con HPC-5, utilizado por el gigante italiano de combustibles fósiles Eni y Frontera del Centro de Computación Avanzada de Texas en la Universidad de Texas en la novena y décima posición, respectivamente.

Además de que China sigue a la cabeza en términos de número de sistemas, a pesar de una caída significativa a 186 sistemas, desde 214 máquinas hace seis meses y 226 máquinas hace un año.

El Top 500 señaló que no ha habido mucha evidencia definitiva de por qué está sucediendo el pobre desempeño de China, aunque esto puede estar relacionado con las crecientes sanciones contra las empresas de supercomputación chinas y las tensiones geopolíticas entre Estados Unidos y China. Estos factores dificultan que las empresas y los laboratorios de investigación adquieran equipos de supercomputación y es menos probable que participen en un sistema de clasificación voluntario que podría colocarlos en la línea de negocio objetivo de los reguladores.

AMD tuvo un buen desempeño, ya que con esta nueva edición del Top 500 podemos notar un «marcado aumento» en su uso. Esto está en línea con el progreso general de AMD en el espacio de servidores y supercomputación, que está tomando acciones de Intel.

Finalmente si estás interesado en conocer más al respecto, puedes consultar los detalles en el siguiente enlace.

from Linux Adictos https://ift.tt/2TfjB54
via IFTTT

CBL-Mariner, la distribución de Linux que esta detrás de WSL, Azure y otros productos de Microsoft

Hace poco Microsoft lanzó la primera versión estable de su propia distribución de Linux «CBL-Mariner 1.0» (Common Base Linux) el cual es un producto de Microsoft que es utilizado de manera interna para la nube y otras necesidades comerciales de la empresa.

Como tal CBL-Mariner no es una distribución de propósito general como cualquier otra tendríamos en mente (tales como Ubuntu o Fedora) aunque es de código abierto y ya está siendo utilizado por sistemas como Windows Subsystem para Linux (WSL), Azure Sphere OS, SONiC y otros esfuerzos basados ​​en Linux.

Esto es lo que nos comparte en su blog Juan Manuel Rey, miembro del equipo de Azure, pues especifica que esta distribución denominada CBL-Mariner está destinada a uso interno para desarrollar productos y servicios en la nube.

En su publicación, especifica:

CBL-Mariner sigue el principio de seguridad por defecto, la mayoría de los aspectos del sistema operativo se han creado con un énfasis en la seguridad. Viene con un kernel reforzado, actualizaciones firmadas, ASLR, endurecimiento basado en compilador y registros a prueba de manipulaciones, entre muchas características.

El proyecto tiene como objetivo unificar las soluciones Linux utilizadas en Microsoft y simplificar el mantenimiento de los sistemas Linux para diversos fines hasta la fecha. Todas las tecnologías de software de esta práctica se difunden bajo la licencia MIT.

La distribución es destacable, ya que proporciona un pequeño conjunto típico de paquetes básicos que actúan como una base universal para crear el llenado de contenedores, entornos de host y servicios que se ejecutan en infraestructuras en la nube y en dispositivos de borde. Se pueden crear soluciones más complejas y especializadas agregando paquetes adicionales sobre CBL-Mariner, pero la base de todos estos sistemas permanece sin cambios, lo que simplifica el mantenimiento y la preparación de actualizaciones.

El sistema de compilación CBL-Mariner permite generar paquetes RPM separados basados ​​en archivos SPEC y códigos fuente, e imágenes del sistema monolítico generadas usando el kit de herramientas rpm-ostree y actualizadas atómicamente sin dividirse en paquetes separados, además de que tambien se pueden crear soluciones más complejas y especializadas agregando combustible adicional en SVL-Mariner, pero la base para todos estos tiempos

Se admiten dos modelos de actualización: actualizando solo paquetes  individuales y ejecutando y actualizando la imagen del sistema completo. 

Para utilizar el enfoque de «máxima seguridad por defecto». Es posible filtrar las llamadas al sistema con la ayuda del mecanismo sensor, encriptar secciones del disco, verificar las contraseñas por su firma digital y mucho más. 

Por defecto, los mecanismos de protección contra el desbordamiento del muro, desbordamiento del búfer y la vulnerabilidad de la página de format. Se activan los modos de aleatorización del espacio de direcciones admitidos en el kernel de Linux, así como varios mecanismos de protección contra ataques asociados a enlaces simbólicos, mmap, /dеv/mem y /dеv/kmеm.

¿Cómo instalar Microsoft CBL-Mariner?

Para quienes estén interesados en poder conocer más a fondo sobre CBL-Mariner, deben saber que pueden construir su propia imagen desde Ubuntu o cualquier distribución de Linux, solo que en este caso tomaremos las instrucciones para generar la imagen en Ubuntu.

Para ello primero, debemos de instar algunos requisitos previos que necesitaremos para construir la imagen ISO:

sudo apt install make tar wget curl rpm qemu-utils golang-go genisoimage python2-minimal bison gawk

Ahora procedemos a obtener el código de CBL-Mariner:

git clone https://github.com/microsoft/CBL-Mariner.git

Y ahora tendremos que ingresar al directorio CBL-Mariner/toolkit y creamos la imagen ISO de instalación.

cd CBL-Mariner/toolkit
sudo make iso REBUILD_TOOLS=y REBUILD_PACKAGES=n CONFIG_FILE=./imageconfigs/full.json

Al finalizar, podemos encontrar el archivo ISO en el directorio ../out/images/full/. Ya con la imagen del sistema creada, podremos probar el sistema sobre una máquina virtual, ya sea con VirtualBox, VMWare, Boxes o en cualquier otro de tu agrado.

Lo único que debes de configurar en la máquina virtual, es que esta tenga al menos 2GB de RAM, un core y 16 GB de almacenamiento.

Finalmente si estás interesado en conocer más al respecto, puedes consultar los detalles en el siguiente enlace.

from Linux Adictos https://ift.tt/3kpzvVL
via IFTTT

Ubuntu Touch OTA-18 ya ha llegado con varias importantes mejoras

Ubuntu Touch

La UBports Foundation, actual responsable de Ubuntu Touch, anunció una convocatoria de pruebas para la próxima actualización de software, cuya versión final está planificada para que salga hoy 14 de julio de 2021 si todo marcha según lo previsto. Se trata de la OTA-18 (actualización Over The Air) de este sistema operativo para Ubuntu Phone. En ella se prometen varias mejoras de rendimiento y también apps actualizadas.

Ubuntu Touch OTA-18 promete ser otra actualización de mantenimiento para el SO móvil desarrollado por UBports con el que podrás disfrutar de la experiencia Linux en dispositivos móviles compatibles., como la española bq que incluye varios dispositivos compatibles en la lista, como el Aquaris E4.5.

Las mejoras pueden ser variables, algunas debidas a una mejor optimización del uso de la RAM. Además, Ubuntu Touch OTA-18 contará con apps de mensajes actualizada con soporte para stickers y almacenamiento de mensajes mejorado. También tendrá un navegador web Morph actualizado con capacidad para abrir una nueva pestaña de una existente, soporte para vista de teclado en pestañas en blanco, e historial de navegación local.

Los temporizadores y las alarmas también se han mejorado con esta actualización. Ahora se podrán posponer las alarmas perdidas de forma predeterminada. También se ha reescrito el servicio media-hub para reproducir contenido de audio y vídeo, siendo ahora más fácil.

Mientras tanto, UBports también trabaja en la migración de Ubuntu Touch a la base de Ubuntu 20.04 LTS (Focal Fossa), y están desarrollando una herramienta llamada UBports Platform Development Kit que integrará programas útiles para los desarrolladores que quieran probar las próximas imágenes de este sistema operativo en una máquina virtual en Linux, tanto en arquitecturas x86 como ARM64 (macOS).

Más información y descargas de la OTA Ubuntu Touch – Web oficial de UBports Foundation

Sobre la herramienta UBports Platform Development Kit – Ver sitio de Github

from Linux Adictos https://ift.tt/3AZQAvd
via IFTTT

Libre-SOC, el primer chip híbrido abierto al estilo CDC 6600

El proyecto Libre-SOC dio a conocer hace poco que han alcanzado la etapa de producción de la primera muestra de prueba del SoC de CPU/GPU híbrido de código abierto basado en OpenPOWER al estilo CDC 6600, en la que las instrucciones de CPU, VPU y GPU no están separadas y se ofrecen en una única ISA para reducir el tamaño y la complejidad del chip.

Este es el primer ASIC Power ISA totalmente independiente fuera de IBM que se convierte en Silicon en 12 años, ya que ellMicrowatt pasó a Skywater 130nm en marzo; sin embargo, también es desarrollado por IBM, como un diseño de referencia excepcionalmente bien hecho y que Libre-SOC utilizó para la verificación.

El proyecto se desarrolló originalmente con el nombre Libre RISC-V, pero pasó a llamarse Libre-SOC después de la decisión de reemplazar RISC-V con OpenPOWER 3.0 Instruction Set Architecture (ISA).

El desarrollo de Libre-SOC fue financiado por la Fundación NLnet, que destinó 400 mil euros para crear un chip completamente abierto como parte de un programa para crear soluciones técnicas fundamentales verificables y confiables. El chip tiene un tamaño de 5.5×5.9 mm e incluye 130 mil puertas lógicas.

El proyecto tiene como objetivo crear un sistema completo, totalmente abierto y libre de regalías en un chip (SoC) que se pueda usar en computadoras de placa única, netbooks y varios dispositivos portátiles. Además de las instrucciones específicas de la CPU y los registros de propósito general, Libre-SOC proporciona en un solo bloque funcional de procesador las capacidades para realizar operaciones vectoriales y cálculos especializados inherentes a la VPU y la GPU.

El chip utiliza la arquitectura de conjunto de instrucciones OpenPOWER, la extensión Simple-V con instrucciones para vectorizar y procesar datos en paralelo, así como instrucciones especializadas para convertir a ARGB y realizar operaciones 3D típicas.

“Desarrollamos este ASIC en la arquitectura Power debido a su pedigrí de supercomputación y al compromiso y la estabilidad de décadas que IBM y otros miembros de la Fundación OpenPOWER han mantenido”, dijo Luke Kenneth Casson Leighton , desarrollador líder y coordinador de proyectos de Libre-SOC. «Sobre esta base sólida, podemos construir una CPU-VPU-GPU 3D híbrida confiable y eficiente, y nuestro próximo ASIC de prueba incluirá extensiones de vector de estilo Draft Cray, SVP64».

Las instrucciones de la GPU se centran en el uso con la API de gráficos Vulkan y la VPU en la aceleración de la conversión y decodificación YUV-RGB de MPEG1/2, MPEG4 ASP (xvid), H.264, H.265, VP8, VP9, ​​AV1, MP3, Formatos AC3, Vorbis y Opus.

Además de que se está desarrollando un controlador gratuito para Mesa que utiliza las capacidades de Libre-SOC para proporcionar una implementación de software acelerada por hardware de la API de gráficos Vulkan. Por ejemplo, los sombreadores Vulkan se pueden traducir JIT para su ejecución utilizando instrucciones especializadas disponibles en Libre-SOC.

En el próximo prototipo de prueba, se planean implementar la extensión SVP64 (Vectorización de longitud variable), que permite utilizar Libre-SOC como procesador vectorial (además de 32 registros de propósito general de 64 bits, 128 registros para cálculos vectoriales será proporcionado). El primer prototipo incluye solo un núcleo, operando a una frecuencia de 300 Mhz, pero dentro de dos años se planea lanzar una versión de 4 núcleos, luego una de 8 núcleos y, a largo plazo, una versión de 64 núcleos.

El primer lote del chip se fabricará en TSMC utilizando la tecnología de proceso de 180 nm. Todos los desarrollos del proyecto se distribuyen bajo licencias libres, incluidos archivos en formato GDS-II con una descripción de la topología completa del chip, suficiente para iniciar nuestra propia producción. El Libre-SOC será el primer chip totalmente independiente no basado en IBM Power.

El desarrollo utilizó el lenguaje de descripción de hardware nMigen (HDL basado en Python, sin usar VHDL y Verilog), la biblioteca de células estándar FlexLib del proyecto Chips4Makers y el kit de herramientas VLSI Coriolis2 gratuito para convertir de HDL a GDS-II.

Finalmente para quienes estén interesados en poder conocer más al respecto, pueden consultar los detalles del proyecto en su sitio web oficial o para quienes estén interesados en el código fuente pueden consultar este desde el siguiente enlace.

Fuente: https://openpowerfoundation.org

from Linux Adictos https://ift.tt/3yRV1Gz
via IFTTT

CodeFlare, el framework de código abierto de IBM para entrenar modelos de IA que se ejecutan en plataformas multicloud

Los análisis de datos y aprendizaje automático cada día son más utilizados y las empresas que intentan la aventura también se enfrentan a problemas de integración en general. Para hacer frente a estos desafíos, IBM acaba de presentar CodeFlare, un marco de código abierto, que se basa en el sistema distribuido Ray del laboratorio RISE de la Universidad de California en Berkeley para modelos de aprendizaje automático.

CodeFlare tiene como objetivo simplificar el proceso de iteración de IA con elementos específicos para escalar los flujos de trabajo de datos y surgió de un proyecto en el grupo de IBM responsable de crear uno de los primeros chips prototipo de 2 nanómetros del mundo.

IBM según dice que CodeFlare ayuda a simplificar la integración y la ampliación eficiente de los flujos de trabajo de big data e inteligencia artificial en infraestructuras multinube.

«CodeFlare lleva la noción de aprendizaje automático simplificado … un paso más allá, yendo más allá de pasos aislados para integrar sin problemas pipelines de extremo a extremo con una interfaz amigable para científicos de datos, como Python, no contenedores», Priya Nagpurkar, director de plataforma de nube híbrida en IBM Research, dijo VentureBeat por correo electrónico… se diferencia al simplificar la integración y el escalado de canalizaciones completas con un tiempo de ejecución y una interfaz de programación unificados».

En una publicación de blog, IBM explicó que la creación de modelos de aprendizaje automático en estos días es una tarea intensamente manual. Primero, los investigadores deben entrenar y optimizar un modelo, lo que implica tareas como la limpieza de datos, la extracción de características y luego la optimización del modelo y aquí es donde IBM dijo que CodeFlare ayuda a simplificar este trabajo.

Ya que CodeFlare utiliza una interfaz basada en el lenguaje de programación Python para crear una canalización, a través de la cual resulta más fácil integrar, paralelizar y compartir datos. Luego, CodeFlare se puede usar para unificar los flujos de trabajo de la canalización en múltiples plataformas de computación en la nube, sin aprender un nuevo lenguaje de flujo de trabajo para cada tipo de infraestructura.

IBM dijo que las canalizaciones se pueden implementar en cualquier infraestructura de nube, incluido el nuevo IBM Cloud Code Engine, que es una plataforma sin servidor y Red Hat OpenShift, además de que también proporciona adaptadores para desencadenantes de eventos, como la llegada de un nuevo archivo, lo que significa que las tuberías pueden integrarse y conectarse con otros ecosistemas nativos de la nube, dijo IBM.

Por otra parte tambien permite que los datos se carguen y se particiones desde numerosas fuentes, como almacenes de objetos en la nube, lagos de datos y sistemas de archivos distribuidos.

El principal beneficio de usar CodeFlare para configurar nuevos proyectos de aprendizaje automático es la velocidad. La compañía afirmó que cuando uno de sus usuarios aplicó CodeFlare para analizar y optimizar 100,000 pipelines para entrenar modelos de aprendizaje automático, redujo el tiempo para ejecutar cada uno de cuatro horas a solo 15 minutos.

La velocidad es importante, explicó IBM, porque los conjuntos de datos son cada vez más grandes, lo que significa que los flujos de trabajo de aprendizaje automático se vuelven más complejos y complejos. Como tal, los investigadores pasan más tiempo configurando sus configuraciones antes de poder hacer las cosas.

“IBM va en pos de esto mediante el código abierto de CodeFlare como marco para que los trabajadores de datos y los desarrolladores creen modelos de inteligencia artificial que puedan ejecutarse en cualquier nube”, dijo Mueller. «CodeFlare se ejecuta en RedHat OpenShift y logra su capacidad multinube a partir de eso».

IBM dijo que:

CodeFlare se está haciendo de código abierto hoy ya se encuentra disponible en el repositorio de IBM en GitHub, además de que también está lanzando varios ejemplos de canalizaciones de CodeFlare que ha creado y que se ejecutan en IBM Cloud y Red Hat OpenShift.

Finalmente si estás interesado en conocer más al respecto o poder revisar el código fuente de CodeFlare, puedes hacerlo desde el siguiente enlace.

from Linux Adictos https://ift.tt/3xESuPP
via IFTTT

Cómo renombrar varios ficheros de una vez en Linux

renombrar

Renombrar un fichero o directorio es muy sencillo, tanto desde el terminal como desde el entorno gráfico. Se puede realizar de varias formas, como con el comando mv o con cp. Sin embargo, en ocasiones es necesario renombrar varios ficheros a la vez, y hacerlo uno a uno puede ser un gran incordio, especialmente si son demasiados.

En este tutorial podrás ver algunas formas de poder renombrar ficheros de una sola vez en Linux de una forma sencilla…

Métodos para renombrar ficheros de una sola vez en Linux

Existen varias formas de poder renombrar varios ficheros de una sola vez en Linux. Aquí tienes las mejores alternativas para ello:

Usa el manual (man) para obtener más información de estos comandos. Yo solo pondré un ejemplo de uso simple. Pero tienen muchas más opciones…

  • mmv: es un comando que puede mover, copiar y renombrar ficheros. Se encuentra disponible en los repos de Debian y derivados, para que lo puedas instalar fácilmente. Para usarlo, imagina que tienes fichero1.txt, fichero2.txt y fichero3.txt y quieres que se llamen a1.txt, a2.txt y a3.txt, pues bien, tan solo tendrías que ir al directorio donde están esos ficheros y ejecutar esta orden:

mmv fichero\* a\#1

  • rename: es otra utilidad para poder cambiar el nombre de los ficheros. Se puede instalar fácilmente desde los repos y una vez instalado, su uso es sencillo. Por ejemplo, imagina que tienes abc1.txt, abc2.txt y abc3.txt y quieres renombrarlos a xyz1.txt, xyz2.txt y xyz3.txt. Tan solo tienes que situarte en el diretorio donde tengas esos ficheros y ejecutar:
rename 's/abc/xyz/' *
  • renameutils: es una suite de programas para el renombre de ficheros y directorios de una forma rápida y sencilla. Integra qmv para mover, qcp para copiar, imv para mover de forma interactiva, icp para copiar de forma interactiva y deurlname para eliminar URL. Volviendo a los mismos ejemplos anteriores, imagina que los tienes en el directorio prueba/, en ese caso, para renombrarlos debes ejecutar la siguiente orden, y eso te abrirá un editor de texto para que puedas renombrar cómodamente (en la columna izquierda están los nombres actuales y en una columna a la derecha puedes ir escribiendo el nombre que quieras ponerle a cada uno):

qmv prueba/

  • vimv: se basa en el editor de texto Vim y funciona de forma similar al anterior, pudiendo alterar los nombres desde el editor. Es decir, los nombres de los ficheros del directorio te saldrán listados en líneas del fichero de texto para que puedas editarlos, una vez los has editado todos como quieres, al guardar se modificarán. Para manejar el editor se hace igual que el famoso editor de texto… Y por cierto, si eres más de Emacs, también se puede hacer con él.
  • Thunar: este gestor de ficheros se encuentra en varios repos. Si lo instalas, desde él también podrás renombrar varios ficheros de una sola vez de forma rápida. Funciona similar al método del editor, es decir, podrás ver una columna Name con los nombres actuales y otra New Name con los nuevos nombres que deseas poner, y así podrás renombrar por lotes. Al finalizar pulsa el botón Rename files y listo.

from Linux Adictos https://ift.tt/3hyRG9A
via IFTTT