La entrada y salida de IBM. Breve historia de la Inteligencia Artificial 7

IBM desarrolló el primer programa para demostrar un teorema geométrico.

Durante décadas, IBM fue el líder indiscutido de la industria informática. Aún hoy, aunque no ocupa el rol preponderante que alguna vez supo tener, su trabajo continúa siendo relevante. Sin embargo, en el caso de la Inteligencia Artificial, la entrada y salida de IBM fue bastante rápida aunque muy importante.

En los cincuenta, las investigaciones sobre esta disciplina se consideraban parte integral de los conocimientos necesarios para construir mejores ordenadores. Por lo que IBM decidió dar luz verde al desarrollo de un programa que resolviera teoremas.

La entrada y salida de IBM

Habíamos visto en artículos anteriores que Simon y su equipo tuvieron éxito con un programa que demostraba teoremas matemáticos. Para esto, tuvieron que crear un lenguaje de programación nuevo.

El desafío que encaraba IBM tenía un problema adicional. Para que el ordenador pudiera demostrar un teorema geométrico tenía que ver la figura. Todavía no se habían inventado las cámaras web ni software capaz de procesar imágenes.

El equipo elegido para la tarea fue la IBM 704. Considerada como uno de los primeros superordenadores del mundo fue el primero de incorporar el hardware de punto flotante.

Las operaciones de punto flotante incluyen la adición, sustracción, división multiplicación y cálculo de raíz cuadrada con números muy grandes o muy pequeños.

Contaba además con una memoria de núcleo magnético que era más rápida que el sistema de tambor magnético utilizado en modelos anteriores y era capaz de ejecutar cuarenta mil instrucciones por segundo expresadas en instrucciones de 36 bits.

El software tardó tres años en estar listo ya que su responsable, un doctor en física llamado Herbert Gellenter, tuvo que inventar un nuevo lenguaje de programación que pudiera manipular símbolos como IPL pero que tuviera la facilidad de programación de Fortran, un desarrollo de la propia IBM para la creación de aplicaciones para cálculo científico.

El programa recibía información sobre la figura geométrica con la que tenía que trabajar en forma de una serie de coordenadas ingresadas en forma de tarjetas perforadas e iba deduciendo resultados intermedios a partir de los datos conocidos.

El software se conoció como Geometry Theorem Prover (Probador de problemas de Geometría) y basándose en aquellas propiedades que pudiera comprobar en el dibujo logró resolver un teorema de dos pasos a veinticinco posibilidades diferentes cuando haciéndolo a ciegas tendría que analizar un millón.

El probador de problemas de geometría fue el primero en usar una técnica conocida como referenciación de modelos. A menos que hayas aterrizado en un plato volador hace 5 minutos seguramente habrás escuchado hablar de uno de los últimos resultados de la aplicación de esta técnica: ChatGPT.

En el campo de la inteligencia artificial un modelo es una representación de un proceso complejo a partir de la cual se pueden hacer inferencias. En el caso del probador el modelo eran las coordenadas de la figura geométrica, en el de ChatGPT un modelo capaz de procesar el lenguaje humano.

Otros ordenadore de IBM se dedicaban a cosas menos serias como aprender a jugar a las damas o al ajedrez. En el primer caso el objetivo era ver si una máquina era capaz de aprender sobre la forma de jugar de su oponente. Finalmente logró vencerlo por lo que parece que sí.

Los éxitos tempranos de IBM fueron también la causa de su abandono de este campo. Los ordenadores dedicados a jugar al ajedrez y las damas tuvieron mucho éxito entre la prensa, pero no tanto entre los accionistas de la empresa que lo consideraron un despilfarro de dinero.

A esto hay que sumarle que el departamento de marketing de la empresa notó que entre sus potenciales clientes aumentaba la desconfianza hacia los ordenadores. Había miedo entre los encargados de adquirirlas de que su compra los terminara reemplazando.

Las investigaciones en Inteligencia Artificial se abandonaron y la nueva estrategia de marketing fue caracterizar a los ordenadores como procesadores de datos que solo hacían lo que se les decía.

¿Pasará lo mismo con las nuevas herramientas ahora tan en boga? ¿Se las prohibirá en las empresas por miedo a que terminen ocupando los más altos puestos?

Tendremos que esperar para verlo.

from Linux Adictos https://ift.tt/LKovdnW
via IFTTT

Microsoft ha gastado millones de dólares para construir la supercomputadora en la que se basa ChatGPT

Microsofts

Microsoft anunció nuevas máquinas virtuales potentes y enormemente escalables que integran las últimas GPU NVIDIA H100 Tensor Core y la red NVIDIA Quantum-2 InfiniBand

Microsoft ha gastado cientos de millones de dólares en la construcción de una supercomputadora masiva para ayudar a impulsar el chatbot ChatGPT de OpenAI, en un informe Microsoft explica cómo creó la poderosa infraestructura de inteligencia artificial de Azure utilizada por OpenAI y cómo sus sistemas se están volviendo aún más robustos.

Para construir la supercomputadora que impulsa los proyectos OpenAI, Microsoft afirma haber conectado miles de unidades de procesamiento de gráficos (GPU) NVIDIA a su plataforma de computación en la nube Azure. Esto, a su vez, permitió a OpenAI entrenar modelos cada vez más potentes y «desbloquear las capacidades de IA» de herramientas como ChatGPT y Bing.

Scott Guthrie, vicepresidente de inteligencia artificial y nube de Microsoft, dijo que la compañía gastó varios cientos de millones de dólares en el proyecto, según un comunicado. Y si bien eso puede parecer una gota en el océano para Microsoft, que recientemente amplió su inversión multianual y multimillonaria en OpenAI, ciertamente demuestra que está listo para invertir aún más dinero en el espacio de IA.

Cuando Microsoft invirtió $ 1 mil millones en OpenAI en 2019, acordó construir una supercomputadora masiva y de última generación para la puesta en marcha de investigación de inteligencia artificial. El único problema: Microsoft no tenía nada que OpenAI necesitara y no estaba completamente seguro de poder construir algo tan grande en su servicio en la nube de Azure sin que se rompiera.

OpenAI estaba tratando de entrenar un conjunto cada vez más grande de programas de inteligencia artificial llamados modelos, que ingirieron mayores volúmenes de datos y aprendieron más y más parámetros, las variables que el sistema de IA descubrió a través del entrenamiento y el reentrenamiento. Esto significaba que OpenAI necesitaba acceso a potentes servicios de computación en la nube durante largos períodos de tiempo.

Para enfrentar este desafío, Microsoft tuvo que encontrar formas de vincular decenas de miles de chips gráficos A100 de NVIDIA y cambiar la forma en que coloca los servidores en bastidores para evitar cortes de energía.

“Construimos una arquitectura de sistema que podría funcionar y ser confiable a gran escala. Esto es lo que hizo posible ChatGPT”, dijo Nidhi Chappell, gerente general de Microsoft para la infraestructura de Azure AI. “Es un patrón que salió de ahí. Habrá muchos, muchos más”.

La tecnología permitió a OpenAI lanzar ChatGPT, el chatbot viral que atrajo a más de un millón de usuarios a los pocos días de su salida a bolsa en noviembre y ahora está siendo absorbido por los modelos comerciales de otras empresas, desde las administradas por el multimillonario fundador de fondos de cobertura Ken Griffin en el momento de la entrega.

A medida que las herramientas de IA generativa, como ChatGPT, ganen el interés de las empresas y los consumidores, habrá una mayor presión sobre los proveedores de servicios en la nube, como Microsoft, Amazon y Google para garantizar que sus centros de datos puedan proporcionar la enorme potencia informática necesaria.

Ahora Microsoft está utilizando el mismo conjunto de recursos que creó para OpenAI para entrenar y ejecutar sus propios grandes modelos de IA, incluido el nuevo bot de búsqueda Bing presentado el mes pasado. La empresa también vende el sistema a otros clientes. El gigante del software ya está trabajando en la próxima generación de la supercomputadora de IA, como parte de un acuerdo ampliado con OpenAI en el que Microsoft ha agregado $ 10 mil millones a su inversión.

«No los construimos como algo personalizado; comenzó como algo personalizado, pero siempre lo construimos de manera que se generalizara para que cualquier persona que quiera entrenar un modelo de lenguaje grande pueda aprovechar las mismas mejoras». dijo Guthrie en una entrevista. «Realmente nos ayudó a convertirnos en una mejor nube para la IA en general».

Entrenar un modelo masivo de IA requiere una gran cantidad de unidades de procesamiento de gráficos conectadas en un solo lugar, como la supercomputadora de IA ensamblada por Microsoft. Una vez que un modelo está en uso, responder a todas las preguntas planteadas por los usuarios (lo que se denomina inferencia) requiere una configuración ligeramente diferente. Microsoft también implementa chips gráficos para inferencia, pero esos procesadores (cientos de miles) están dispersos geográficamente en las más de 60 regiones de centros de datos de la empresa. Ahora, la compañía está agregando el último chip de gráficos NVIDIA para cargas de trabajo de IA (el H100) y la última versión de la tecnología de red Infiniband de NVIDIA para compartir datos aún más rápido.

La decisión de Microsoft de asociarse con OpenAI se basó en la creencia de que esta escala de infraestructura sin precedentes produciría resultados (nuevas capacidades de IA, un nuevo tipo de plataforma de programación) que Microsoft podría convertir en productos y servicios que brindarían beneficios reales a los clientes, dijo Waymouth. Esta creencia ha alimentado la ambición de las empresas de superar todos los desafíos técnicos para construirlo y continuar ampliando los límites de la supercomputación de IA.

Fuente: https://news.microsoft.com/

from Linux Adictos https://ift.tt/NnXeBhA
via IFTTT

GitHub Copilot X: el polémico copiloto ahora también puede chatear

GitHub Copilot X

Ahora hará hace aproximadamente un año desde que descubrí y empecé a usar al copiloto del código de GitHub. Era impresionante: le ponías un comentario y te sacaba casi exactamente lo que querías, en ocasiones acertando al 100%. Meses más tarde, después de haberlo recomendado a compañeros e incluso a empresas, se comunicó que pasaría a ser de pago. Entonces empezó una polémica que aún no ha terminado, y es que el entrenamiento lo había recibido de los que lo habíamos estado usando e incluso de repositorios de GitHub que no eran públicos. Eso ya es parte del pasado, y el futuro es GitHub Copilot X, con más inteligencia artificial que nunca.

Como Google con Bard, DuckDuckGo con DuckAssist y Brave con Summarizer, todas las compañías saben que tienen que subirse al tren de la AI o morirán por no renovarse. Ahora mismo, somos muchos los que usamos ChatGPT para nuestras dudas sobre código, o directamente para que nos lo escriba, y ese era terreno GitHub desde hacía ya cerca de dos años (o a mí me hablaron de ello por aquel entonces). Incluso hay extensiones para Visual Studio Code en las que se puede seleccionar algo y mejorarlo, preguntar… GitHub le ha visto las orejas al lobo y ha presentado a GitHub Copilot X, que entre otras cosas incluye un chat… basado en GPT-4. Si no puedes con tu enemigo, únete a él.

GitHub Copilot X también está en lista de espera

Para ser honesto, yo no quiero probar esta herramienta. No, porque esto ya lo he vivido, incluso aunque fuera gratis. Lo hicieron mal y sin informar de lo que pasaría, y no les apoyo. En este artículo sólo informo. Para apuntarse en la lista de espera, hay que acceder a este enlace. Ofrecerá Copilot Chat, Copilot for Docs, Copilot for Pull Requests y Copilot for CLI.

Desde mi punto de vista, y tal y como entiendo yo la parte que integra GPT-4, habiendo usado extensiones de ChatGPT y viendo el vídeo, entiendo que va a funcionar un poco como esas extensiones: podremos chatear, e incluso compartir el código con ellas. Y si es así, sólo el desconocimiento de la existencia de estas extensiones harán que la gente se suscriba a GitHub Copilot X, cuyo nuevo nombre me parece que es parte de un movimiento de marketing.

Con el vídeo anterior podemos hacernos una idea de cómo funcionará, y me hace mantenerme en mi posición de que no es enormemente diferente a las extensiones que ya existen en la tienda oficial de Visual Studio Code. Una cosa sí tiene buena, y es que para los desarrolladores que no tienen que pagar por Copilot, van a tener lo mismo que ofrece esas extensiones, pero vitaminado o mejorado.

Recordamos que Copilot está actualmente por un precio de 10€/mes para los que no seamos desarrolladores compartiendo proyectos o estudiantes.

from Linux Adictos https://ift.tt/UOQdfGK
via IFTTT

Mozilla lanza Mozilla.ai con el objetivo de proporcionar una inteligencia artificial de confianza

Mozilla.ai

Bill Gates cae bien a unos y menos bien a otros. No creó su primer sistema operativo y se hizo rico con el trabajo de otros (como muchos con los que ha tratado), pero es un tipo de persona capaz de mover la bolsa con sus declaraciones. Entre las últimas que ha hecho tenemos que afirma que la «Era de la inteligencia artificial ha empezado», y que esto será la segunda gran revolución tecnológica. Teniendo en cuenta la cantidad de noticias que hay al respecto, parece que no le falta razón, y a ese grupo de noticias tenemos que añadir una más, el lanzamiento, o más bien presentación, de Mozilla.ai.

El sector de los navegadores web está dominado por Chromium, el motor de Google, y luego hay un par más a tener en cuenta, siendo uno el del Safari de Apple y el otro el del Firefox que hay instalado por defecto en la mayoría de distribuciones Linux. Firefox es desarrollado por Mozilla, una compañía que da motivos para que confiemos en ella, y esa es una de las palabras que han usado al presentar Mozilla.ai.

Mozilla.ai, una comunidad de confianza para la AI

La compañía ha invertido 30M$ en este proyecto. Ahora mismo es solo una start-up cuyo objetivo es crear un ecosistema de inteligencia artificial de confianza, independiente y de código abierto. En un principio, OpenAI tenía que ofrecer software de código abierto, de ahí la primera parte de su nombre, pero ChatGPT y todo lo que ofrece es privativo. Por lo tanto, parece que la intención de Mozilla es crear una comunidad de código abierto real para la inteligencia artificial, y una en la que se pueda confiar.

Como ya hemos explicado, Mozilla da motivos para que confiemos en sus proyectos, y si dice que van a crear algo así, podemos estar seguros al 99% de que no van a usar nuestros datos para nada oscuro; si hay que entrenar a lo que quiera que terminen ofreciendo, seguro que nos informan con claridad con todo lo que harán.

Este proyecto es uno de tantos que no tienen nada que ver (en un principio) con su producto estrella, que es el navegador web Firefox. Hay muchos usuarios que critican a la compañía por este tipo de movimientos, porque le quita tiempo y recursos que podría usar en mejorar su navegador, pero las cosas son como son y nosotros sólo informamos sobre ello. Y en este caso en concreto, yo espero que les vaya bien porque muchos saldremos beneficiados.

La compañía ha publicado un artículo en su blog con algo más de información, pero no dan muchos detalles. Darán más en las próximas semanas.

from Linux Adictos https://ift.tt/8TEDON1
via IFTTT

Que el ritmo no pare: Opera integra ChatGPT en su navegador web

Opera con ChatGPT

Ya lo cantaba Patricia Manterola en los 90: «Que el ritmo no pare, no pare no». El ritmo de la AI parece mantenerse constante, si no aumentando, y cada día que pasa tenemos una o varias noticias sobre ChatGPT o algún rival suyo. Ayer mismo, Google abrió la posibilidad/lista de espera para usar Bard, el mismo día que Microsoft presentó su Creador de imágenes basado en el DALL-E de OpenAI. Hoy, para no variar, hay más noticias relacionadas a la inteligencia artificial, en este caso sobre Opera.

Mi impresión, personal e intransferible, es que las noticias sobre Opera han pasado a estar en un segundo plano desde que existe Vivaldi, un navegador creado por su ex-CEO y que es noticia por la cantidad de cambios útiles para usuarios existentes que añade a cada versión. Pero lo cierto es que hay mucha gente que está satisfecha con este navegador, y más que lo estará a partir de ahora: ha integrado ChatGPT con órdenes para la inteligencia artificial y una nueva barra lateral.

Opera, el segundo navegador en integrar ChatGPT

Hay dos maneras de interactuar con ChatGPT en el nuevo Opera: con órdenes y en un menú lateral. Las órdenes son Explorar, Explicar brevemente, Explica este artículo, ELI5 (de las siglas en inglés de «explícamelo como si tuvuera 5 años»), Acortar, Muéstrame más contenido relevante, Crear un tweet, Twittea esta web como…, Cuál es el punto principal, Escribe un haiku y Cuéntame un chiste.

La cuenta oficial del navegador en YouTube ha publicado un vídeo explicativo sobre esta novedad:

Aunque ha sido anunciada, la función está ahora en fase experimental, y desactivada por defecto. Para activarla, hay que ir a los ajustes/funciones y activar los AI Prompts, con lo que se activarán este tipo de órdenes y aparecerá un icono de ChatGPT en el panel lateral. La opción del panel es un enlace directo al chat de OpenAI, por lo que es necesario tener una cuenta y estár logueado para poder usarlo.

Con todo esto, Opera se convierte en el segundo navegador web en integrar inteligencia artificial, siendo el primero el Edge de Microsoft. Parece que es cuestión de tiempo que el resto les siga.

from Linux Adictos https://ift.tt/TDG0tS2
via IFTTT

GNOME 44 ya disponible con mejoras que van de la aplicación de Ajustes hasta las notificaciones del sistema

GNOME 44

El próximo abril habrá nuevas versiones de dos sistemas operativos muy populares en la comunidad Linux. El más popular es Ubuntu, pero el que más respeta el entorno gráfico es Fedora. En ambos casos, la versión principal usará GNOME 44, de nombre en clave Kuala Lumpur y que está disponible desde esta misma tarde. Este es el resultado de seis meses de trabajo en el que se han introducido muchas novedades.

De entre todas las mejoras que han llegado junto a GNOME 44, quizá destacan las opciones añadidas o modificadas en la aplicación Ajustes. Por ejemplo, en las pantalla del ratón y el panel táctil, que ahora mostrará dibujos explicativos. Lo que tenéis a continuación es la lista con las novedades más destacadas que han llegado junto a la última actualización del escritorio más usado en el mundo Linux (o eso dicen las encuestas).

Novedades más destacadas de GNOME 44

  • Los diálogos de selección de archivos tienen ahora vista de rejilla (captura de cabecera). Está disponible en GTK4, no en GTK3.
  • Muchas novedades en la aplicación de Ajustes, y para explicar esto son mejor unas imágenes que unos miles de palabras.

Página de sonido en GNOME 44
Página de ajustes del raton y teclado en GNOME44
Página de privacidad y seguridad
Página de accesibilidad

  • Otras mejoras en la aplicación de ajustes incluyen:
    • En la configuración Wi-Fi, ahora es posible compartir una contraseña mediante un código QR.
    • La sección «Acerca de» ahora incluye las versiones del kernel y del firmware.
    • Los ajustes Thunderbolt ahora sólo se mostrarán cuando haya hardware Thunderbolt.
    • En los ajustes de red, ahora es posible añadir y configurar VPNs Wireguard.
  • Nuevas opciones en los ajustes rápidos:
    • El botón de ajustes rápidos de Bluetooth tiene ahora un menú. Muestra qué dispositivos están conectados y permite conectarlos y desconectarlos.
    • El menú enumera ahora las aplicaciones que se ha detectado que se están ejecutando sin una ventana abierta. Esta función permite comprobar si una aplicación concreta se está ejecutando en segundo plano. Actualmente, sólo las aplicaciones Flatpak están incluidas en la lista de aplicaciones en segundo plano.
    • Se han añadido descripciones a cada uno de los botones de configuración rápida. Éstas muestran más sobre el estado de cada ajuste.
  • En general, la experiencia al usar GNOME 44 es más suave y rápida. Esta es una novedad porque existe, pero se suma a las mejoras de rendimiento que introdujeron en 41, 42 y 43.
  • Mejorado el soporte para los runtimes de Flatpak.
  • Mejoras en la interfaz de usuario que hacen que todo se vea mejor, incluidos mensajes de error.
  • La aplicación de archivos ha mejorado en aspectos como:
    • Cuando fue convertida a GTK4, perdió su opción de expandir carpetas en la vista de lista. Con GNOME 44, esa opción ha vuelto. Cuando se activa desde las preferencias, hace posible ver el contenido de una carpeta sin descender dentro de ella, lo que puede ser particularmente útil para explorar rápidamente carpetas anidadas.
    • Las pestañas tienen ahora opciones adicionales, como anclarlas y la posibilidad de moverlas a nuevas ventanas. También es posible arrastrar elementos a una pestaña.
    • Por último, se ha ampliado el número de tamaños de vista de cuadrícula.
  • Se han rediseñado las notificaciones de batería baja de GNOME, con nuevos iconos y texto actualizado.
  • En Contactos, ahora es posible compartir un contacto usando un código QR.
  • Web, el navegador de GNOME, se ha convertido a GTK4. Esto es parte del esfuerzo continuo para convertir las aplicaciones de GNOME a la última versión de GTK, que proporciona mejoras en el rendimiento y en la experiencia del usuario.
  • Ahora se pueden desactivar los resultados de búsqueda de la configuración.
  • Web tiene nuevos popovers para guardar contraseñas. Estos sustituyen a las barras de información que se usaban anteriormente.
  • En Mapas, más lugares tienen fotos, gracias a la obtención de imágenes de Wikidata y Wikipedia. Mapas también incluye una serie de pequeñas mejoras, como la posibilidad de navegar por los resultados de búsqueda con el teclado.
  • Se ha mejorado la función de arrastrar y soltar en la cuadrícula de la aplicación.
  • Consola, la aplicación de terminal, tiene ahora una opción de vista general de pestañas, para mostrar las pestañas abiertas en una cuadrícula.
  • El tiempo cuenta ahora con un gráfico de temperatura fluido y una barra de cabecera rediseñada.
  • Se han añadido a Contactos varios atajos de teclado que faltaban, como Ctrl+F, Ctrl+, y Ctrl+Retorno. También se han corregido otros errores.
  • La colección de fondos de escritorio de GNOME incluye cuatro fantásticos fondos nuevos.
  • Nuevas aplicaciones que han entrado a formar parte del GNOME Circle (no oficiales de GNOME, pero sí aceptadas en su círculo): Zap, Boatswain, Emblem, Lorem, Workbench, Komikku, Chess Clock, Eyedropper, Elastic y Clairvoyant. Más información sobre estas aplicaciones en Flathub.

GNOME 44 Kuala Lumpur ha sido anunciado hace unos minutos, pero eso sólo significa que su código ya está disponible. Para poder usarlo, o bien se compila y se instala por cuenta propia o habrá que esperar a que la distribución añada los nuevos paquetes. Ubuntu y Fedora lo harán el mes que viene, y las distribuciones Rolling Release como Arch Linux subirán los nuevos paquetes pronto.

from Linux Adictos https://ift.tt/UibYlfX
via IFTTT

Canonical se prepara para actualizar la fuente de Ubuntu, disponible a partir de Lunar Lobster

Fuente de Ubuntu

Es probable que alguno de nuestros lectores se hayan dado cuenta de que la fuente que uso en la mayoría de las imágenes que añado a mis posts es la oficial de Ubuntu. En parte es porque está relacionada con Linux, y en parte porque las de otros proyectos, como Debian, no son de código abierto y no se puede usar libremente. Si lo que está planeando Canonical termina haciéndose realidad, Ubuntu tendrá una nueva fuente a partir de este abril, y la fuente que yo usare será ligeramente diferente.

Así podemos leerlo en el Discourse de Ubuntu, en donde dan instrucciones de cómo instalar la nueva fuente para probarla. La intención es que sea la letra oficial de Ubuntu a partir de Lunar Lobster, programado para abril de 2023. Fijándome en la nueva versión (la de la captura es la actual, no la futura), si tengo que ser sincero yo no noto ninguna diferencia, y sin más información, como una descripción de qué han retocado en el foro de Ubuntu, es difícil distinguir entre la fuente actual y la futura.

Ubuntu 23.04 llegará el 20 de abril

Nuestro equipo de diseño ha estado trabajando en una versión actualizada de la fuente Ubuntu. Ha sido empujado al archivo Lunar antes de UIF pero bloqueado en el bolsillo propuesto porque sentimos que necesitamos más pruebas y comentarios antes de decidir incluirlo para esta versión.

Para instalar la fuente, hay que abrir un terminal y escribir lo siguiente:

wget https://launchpad.net/ubuntu/+source/fonts-ubuntu/0.862-0ubuntu2/+build/25677616/+files/fonts-ubuntu_0.862-0ubuntu2_all.deb https://launchpad.net/ubuntu/+source/fonts-ubuntu/0.862-0ubuntu2/+build/25677616/+files/fonts-ubuntu-console_0.862-0ubuntu2_all.deb
sudo dpkg -i fonts-ubuntu-console_0.862-0ubuntu2_all.deb fonts-ubuntu_0.862-0ubuntu2_all.deb

Una vez escrito lo anterior, para que los cambios surtan efecto se debe reiniciar el sistema operativo.

Aunque esto está en la hoja de ruta de Canonical, aún tiene que confirmarse el cambio. En estos momentos está «parado» y en el «cajón» de las propuestas, pero a no ser que detecten algo grave es el tipo de letra que veremos en el sistema operativo principal de Canonical cuando lo instalemos de cero a partir del mes que viene o se actualice desde una instalación existente.

Lunar Lobster llegará el 20 de abril con novedades como GNOME 44 y el nuevo instalador.

from Linux Adictos https://ift.tt/Quj9PLm
via IFTTT

Nextcloud Hub 4 combina Inteligencia Artificial y ética

NextCloud integra herramientas de Inteligencia Artificial

El código abierto corre desde atrás al software privativo. Salvo excepciones como Apache, los primeros tiempos de Firefox o Blender son pocas las excepciones. Una de ellas es Nextcloud Hub 4 que combina Inteligencia Artificial y ética.

No había absolutamente ninguna razón para que Firefox, Brave o Vivaldi o en otro orden LibreOffice integraran herramientas de Inteligencia Artificial antes que Microsoft o Adobe. La mayor parte de las bibliotecas de inteligencia artificial son de código abierto. Lamentablemente las fundaciones Linux, Mozilla y similares están más interesadas en ser «inclusivas» que en promover el progreso. Por suerte tenemos a NextCloud


Ya habíamos comentado que la suite ofimática OnlyOffice (En su versión Cloud) incluía la integración con ChatGPT. Sin embargo, NextCloud va un paso más allá.

Qué es NextCloud Hub 4

NextCloud comenzó siendo un software para sincronizar y compartir archivos entre dispositivos y personas. Con el tiempo se transformó en una plataforma de productividad colaborativa online que incluye aplicaciones de oficina, comunicación y gestión de grupo entre otras. Estamos hablando de una solución autoalojada (La instalas en tu propio servidor) lo que equivale a tener tu propio Microsoft 365, Google Drive y WhatsApp.

La llegada de Hub 4 reconcilia a aquellos que privilegiamos las prestaciones con los que privilegian los principios del software libre y de código abierto o la privacidad ya que las herramientas de Inteligencia Artificial que se integran a sus aplicaciones de productividad se califican en criterios como la disponibilidad del modelo, el código original y los datos de entrenamiento.

Para facilitar el uso de las nuevas herramientas se introduce una nueva aplicación llamada Smart Picker que, sin importar cuál aplicación estemos utilizando para ingresar texto, nos permite generar un texto con ChatGPT, una imagen con Stable Diffusion o texto convertido a partir de un archivo de voz con la ayuda de Whisper. También, podemos traducir textos con DeepL, insertar Gifs de Giphy, mapas de OpenStreetMaps, enlaces de video de PeerTube o contenido de Mastodon.

Las funciones que emplean inteligencia artificial

Voz a texto

Si estás familiarizado con la herramienta que convierte la voz a texto en los teléfonos Android entenderás como funciona esto. Usando los modelos creados por OpenAI (Los creadores de ChatGPT) el programa convierte lo que dices ante el micrófono en un texto que puedes enviar por mail o por mensaje o modificar después con el procesador de textos.

Dicen que una imagen vale más que mil palabras.  Lo cierto es que si estás escribiendo un texto como un post de un blog o un artículo te recomiendas que las incluyas. En los viejos tiempos buscábamos en Google o hacíamos una captura de pantalla. Yo, cada vez que puedo, utilizo una herramienta de Inteligencia Artificial que las genera.

No siempre sale bien, particularmente a los humanos les aparece una pierna o brazo de más, pero los resultados pueden ser interesantes.

NextCloud Hub 4 te da dos posibilidades para generación de imágenes; una de ellas es Stable Diffusion que se aloja en tu propio servidor (No lo probé, pero se me ocurre que dependiendo del hardware puede llegar a tardar bastante) y Dall-E 2 que es un servicio en la nube.

Generación de textos

Posiblemente el servicio con el cuál más está familiarizado el público en general. Está basado en la versión 3 de ChatGPT y el funcionamiento es el que todos conocemos. Le pides lo que tiene que escribir y lo hace.

Otras funciones

Un agregado interesante es Tables, descripto en sus propias palabras como «Una alternativa a Microsoft SharePoint» permite trabajar con estructuras de datos y compartirlas con el resto de los componentes de NextCloud.

El gestor de archivos ahora permite asignar nombres a las diferentes versiones de un archivo facilitando su localización e impidiendo su borrado automático.

Si estás familiarizado con Zoom u otra aplicación de videoconferencias conocerás el concepto de «salas». Básicamente se usan para subdividir una reunión. Esa función ahora está disponible en Talk, la aplicación de mensajería y videoconferencia de NextCloud. Talk también incorpora la posibilidad de grabar las llamadas, compartir la grabación con otros y cronometrar la duración.

No tengo idea de si una instalación local en una Raspberry Pi soportará todas estas características. Pero, si eres una pyme puedes contratar un servidor en la nube e instalarte NextCloud. Sin dudas es una gran alternativa.

from Linux Adictos https://ift.tt/OLgeBfK
via IFTTT

Docker revierte la decisión de eliminar imágenes públicas después de la protesta

Docker Free Team

Docker es un proyecto de código abierto que automatiza el despliegue de aplicaciones, está finalizando Docker Free Team

Hace poco Docker dio a conocer una disculpa pública a los usuarios, especialmente con la comunidad de código abierto, por la forma en que anunció la interrupción del servicio Free Teams.

Después de las protestas por el anuncio Docker dijo que estaba listo para hacer algunas concesiones. La empresa mantiene su decisión de eliminar Free Teams en un mes, pero renuncia a eliminar de Docker Hub las imágenes públicas de las organizaciones que se verán afectadas.

Docker aclaró que las imágenes públicas permanecerán en Docker Hub hasta que sus mantenedores decidan eliminarlas. Sin embargo, el lanzamiento no aborda todas las preocupaciones de los usuarios.

A través de su oferta Free Team, Docker les dio a los usuarios de Docker Hub la capacidad de crear equipos y dar acceso a los miembros a repositorios de imágenes compartidas. Este servicio es utilizado principalmente por mantenedores de proyectos de código abierto.

La compañía publicó una nota en su sitio web disculpándose por la mala comunicación sobre la decisión. El comunicado oficial indica que el contenido del correo electrónico no expresaba adecuadamente las intenciones de Docker. La compañía dice que los datos a los que se refería en su correo electrónico no se relacionaban con imágenes.

«No estaba claro qué íbamos a hacer con las imágenes. Es importante mantener las imágenes públicas porque muchas otras imágenes se construyen sobre ellas”, dijo un representante de Docker. Aquí hay un extracto del mensaje de Docker a la comunidad:

Pedimos disculpas por la manera en que comunicamos y ejecutamos la eliminación de las suscripciones de Docker del «Equipo gratuito», lo que causó alarma en la comunidad de código abierto.

Para aquellos de ustedes que se están poniendo al día, recientemente enviamos un correo electrónico a las cuentas de los miembros de las organizaciones Free Team para informarles que perderán funciones a menos que actualicen a una de nuestras funciones gratuitas o de pago.

Básicamente, Docker todavía se apega a su plan para eliminar la oferta de Docker Free Teams en un mes. Pero la compañía dice que, contrariamente a lo que dijo su correo electrónico a principios de esta semana, no eliminará las imágenes.

Las imágenes públicas solo desaparecerán si los mantenedores de las imágenes deciden eliminarlas de Docker Hub. Si el mantenedor de una imagen no toma ninguna medida, continuaremos distribuyendo sus imágenes públicamente. (Por supuesto, si el mantenedor migra al programa de código abierto patrocinado por Docker o a una suscripción paga de Docker, también continuaremos distribuyendo sus imágenes públicas).

Según la empresa, el cambio afecta a menos del 2% de los usuarios de Docker. Docker recomienda a los usuarios que migren al programa Docker-Sponsored Open Source (DSOS), que dice que es más adecuado para proyectos de código abierto.

“El programa DSOS no se ve afectado por la eliminación de las organizaciones Free Team. Para los nuevos usuarios que deseen unirse al programa DSOS de una organización anterior de Free Team, pospondremos cualquier suspensión o eliminación de la organización mientras la solicitud de DSOS esté pendiente”, explica Tim Anglade de Docker en la publicación del blog.

Y antes de eso, Docker dice que se pueden extraer imágenes de sus repositorios privados al registro de Docker y enviar esas imágenes a otro registro de su elección.

Además, la compañía afirma que incluso si su organización se suspende, elimina o si decide abandonar Docker voluntariamente, el espacio de nombres de su organización no se liberará, por lo que otros usuarios no pueden «ocupar sus imágenes».

Si Docker suspende las organizaciones, pero mantiene las imágenes públicas, es posible que esas imágenes ya no se actualicen y, por lo tanto, se vuelvan obsoletas. Docker no se ha pronunciado sobre este punto.

Algunos desarrolladores todavía sienten que están siendo rehenes. Y otros, como Neil Hanlon del proyecto Rocky Linux, dicen que todavía no han recibido una respuesta de Docker con respecto a sus aplicaciones para el programa DSOS.

Muchos de los que se quejan de este cambio están ejecutando proyectos de código abierto con dependencias de compilación que podrían fallar. Algunos proyectos, como Livebook, ya planean mover todos los contenedores de Docker al Registro de contenedores de GitHub, pero deberán migrar sus imágenes antiguas manualmente. El proyecto Kubernetes Kind también está considerando otras opciones.

Finalmente si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.

from Linux Adictos https://ift.tt/pyAsXON
via IFTTT

Apache CloudStack 4.18 ya fue liberado y llega con grandes mejoras

apache-cloudstack

CloudStack es un software de computación en la nube de código abierto para crear, administrar e implementar servicios de infraestructura en la nube.

Se dio a conocer el lanzamiento de la nueva versión de Apache CloudStack 4.18, que permite automatizar el despliegue, la configuración y el mantenimiento de una infraestructura de nube privada, híbrida o pública (IaaS, infraestructura como servicio).

Para quienes desconocen de Apache CloudStack deben saber que esta es una plataforma que permite automatizar el despliegue, la configuración y el mantenimiento de la infraestructura en la nube privada, híbrida o pública (IaaS, infraestructura como servicio).

La plataforma CloudStack fue transferida a la Fundación Apache por Citrix, que recibió el proyecto tras la adquisición de Cloud.com. Los paquetes de instalación están preparados para CentOS y Ubuntu.

CloudStack no depende del tipo de hipervisor y permite utilizar Xen (XCP-ng, XenServer / Citrix Hypervisor y Xen Cloud Platform), KVM, Oracle VM (VirtualBox) y VMware en la misma infraestructura de nube. Se ofrece una interfaz web y una API especial para administrar la base de usuarios, el almacenamiento, los recursos informáticos y de red.

En el caso más simple, una infraestructura en la nube basada en CloudStack consta de un servidor de control y un conjunto de nodos de cómputo, en los que el sistema operativo invitado se ejecuta en modo de virtualización.

Principales novedades de Apache CloudStack 4.18

Esta nueva versión que se presenta de Apache CloudStack 4.18 se clasifica como LTS (soporte a largo plazo) y se mantendrá durante 18 meses.

De los cambios que se destacan, podremos encontrar que se agregó el soporte para «Edge Zones», zonas livianas típicamente asociadas con un solo entorno de host (actualmente solo se admiten hosts con un hipervisor KVM). En Edge Zone, puede realizar todas las operaciones con máquinas virtuales, a excepción de las operaciones con almacenamiento compartido y acceso a la consola, que requieren CPVM (Console Proxy VM). Admite la descarga directa (direct-download) de plantillas y el uso de almacenamiento local.

Tambien se destaca que se añadió el soporte para el escalado automático de máquinas virtuales (parámetro «supports_vm_autoscaling»), asi como tambien qué se implemento una API para acceder a la consola y tambien una API para administrar datos de usuario.

Otro de los cambios que se destaca, es que se agregó un marco para la autenticación de dos factores, se agregó compatibilidad con la autenticación mediante contraseñas de un solo uso con tiempo limitado (autenticador TOTP) y se agregó soporte para cifrar particiones de almacenamiento.

De los demás cambios que se destacan de la nueva versión:

  • Soporte integrado para SDN Tungsten Fabric.
  • Se agregó soporte para Ceph Multi Monitor.
  • Medios mejorados para compartir el acceso a la consola.
  • Se ha propuesto una nueva interfaz con configuraciones globales.
  • Se proporcionó soporte para configurar MTU para interfaces de red de VR (enrutador virtual). Se agregaron configuraciones vr.public.interface.max.mtu, vr.private.interface.max.mtu y allow.end.users.to.specify.vr.mtu.
  • Se implementaron grupos adaptables para vincular una máquina virtual a un entorno de host (Grupos de afinidad).
  • Proporcionó la capacidad de definir sus propios servidores DNS.
  • Kit de herramientas mejorado para admitir sistemas operativos invitados.
  • Se agregó soporte para la distribución Red Hat Enterprise Linux 9.
  • El complemento Networker Backup se ofrece para el hipervisor KVM.
  • Se ha proporcionado la capacidad de establecer sus propias tarifas para las cuotas de tráfico.
  • Se agregó soporte para una consola VNC segura con cifrado TLS y acceso basado en certificados para KVM.

Finalmente si quieres conocer más al respecto de esta nueva versión liberada, puedes consultar los detalles en el siguiente enlace.

¿Cómo instalar Apache CloudStack en Linux?

Para quienes estén interesados en poder instalar Apache CloudStack podrán hacerlo siguiendo las instrucciones que compartimos a continuación.

Apache CloudStack ofrece paquetes de instalación preparados para RHEL/CentOS y Ubuntu. Por lo que para descargarlos vamos a abrir una terminal y ejecutar en ella lo siguiente.


Para el caso de CentOS 8, los paquetes a descargar son los siguientes:

wget http://download.cloudstack.org/centos/8/4.18/cloudstack-agent-4.15.0.0-1.el8.x86_64.rpm
wget http://download.cloudstack.org/centos/8/4.18/cloudstack-baremetal-agent-4.18.0.0-1.el8.x86_64.rpm
wget http://download.cloudstack.org/centos/8/4.18/cloudstack-cli-4.18.0.0-1.el8.x86_64.rpm
wget http://download.cloudstack.org/centos/8/4.18/cloudstack-common-4.18.0.0-1.el8.x86_64.rpm
wget http://download.cloudstack.org/centos/8/4.18/cloudstack-integration-tests-4.18.0.0-1.el8.x86_64.rpm
wget https://download.cloudstack.org/centos/8/4.18/cloudstack-management-4.18.0.0-1.x86_64.rpm
wget https://download.cloudstack.org/centos/8/4.18/cloudstack-marvin-4.18.0.0-1.x86_64.rpm
wget https://download.cloudstack.org/centos/8/4.18/cloudstack-mysql-ha-4.18.0.0-1.x86_64.rpm
wget https://download.cloudstack.org/centos/8/4.18/cloudstack-usage-4.18.0.0-1.x86_64.rpm

Hecha la descarga de estos paquetes, podremos instalarlos ejecutando en la terminal el siguiente comando:

sudo rpm -i cloudstack*.rpm

Para el caso de otras distribuciones basadas en Debian o en CentOS/RHEL, puedes seguir las instrucciones que se proporcionan en el siguiente enlace.

Pero el único detalle es que la nueva versión aún no se ha puesto a disposición por estos métodos.

from Linux Adictos https://ift.tt/Z8l0wrc
via IFTTT