Gestionar tus propios servicios web es fácil.

Gestionar tus propios servicios web es fácil y divertido.

Como parte de mis sugerencias de proyectos de año nuevo me quedó pendiente la de gestionar tus propios servicios web.  Aunque ya llevamos casi dos semanas del año, no es tarde para publicarla.

Por supuesto que no estoy hablando de salir a competir con Netflix o Spotify. Se trata de soluciones de nivel doméstico sin más alcance que un grupo familiar.

Lo que se necesita para gestionar tus propios servicios web

Voy a comenzar aclarando que es lo que quiero decir con servicios web. Me refiero a aplicaciones informáticas a las que se accede en línea desde cualquier dispositivo sin que sea necesario instalarle ninguna aplicación más allá de un navegador. A veces es posible, pero no necesario descargar alguna aplicación para acceder al servicio. Algunos ejemplos de servicios web son:

  • Spotify: Reproducción de música.
  • Microsoft (Ex Office) 365: Suite ofimática.
  • Google drive: Almacenamiento en la nube.
  • Kindle Cloud Reader: Leer libros comprados a Amazon en forma online.

En materia de hardware la creación de nuestros propios servicios web no conlleva demasiadas complicaciones. Podemos utilizar un ordenador viejo o una computadora de placa única como la Raspberry Pi. Lo segundo es una red doméstica para lo que basta un router Wifi.

Para las computadoras de escritorio, notebooks o placa única la configuración mínima sería:

  • Un procesador de 64 bits (Intel/AMD/ARM)
  • CPU de 1 ghz o superior.
  • RAM desde 1 gb.
  • Disco desde 2.5 gb.

La primera exigencia puede dejarse de lado si usas Debian como base para el servidor ya que se trata de la única de las distribuciones importantes que sigue soportando la arquitectura de 32 bits.

Es posible (Aunque no recomendable) utilizar tu computadora y tu distribución habitual como anfitrión del servicio. Sin embargo, esto consumirá recursos innecesarios ya que no suele necesitarse un escritorio para ejecutar servicios web.

En materia de software se necesitará un servidor web como Apache, Nginx o similar. Estos están en los repositorios de las principales distribuciones Linux. También, dependiendo del servicio web que deseemos ejecutar, se requerirán dependencias como soporte para el lenguaje PHP o el gestor de paquetes NPM.

Algunos de los programas utilizados para reemplazar servicios web simplifican esto ofreciendo todo lo necesario para su funcionamiento. Nextcloud, una completa solución de código abierto que puede usarse como alternativa a Google Drive, WhatsApp y Microsoft 365 se puede instalar como paquete Snap seleccionando la opción correspondiente en el instalador de la versión para servidor de Ubuntu. También se puede ejecutar desde una máquina virtual o desde un contenedor.

Algunas sugerencias de software para reemplazar servicios web

No voy a entrar en este momento en el procedimiento de instalación ya que variará según el programa. La documentación de cada proyecto suele ser bastante completa. Simplemente hay que instalar el servidor, los programas necesarios y luego continuar la configuración desde el navegador de otro dispositivo. Siempre ambos deben estar conectados a la misma red.

Es posible acceder en forma externa. Solo debes tener el servidor conectado a Internet y conocer tu IP pública al momento de la conexión. La velocidad no será la misma que la de los proveedores comerciales y, en caso de un uso intenso tu proveedor puede enojarse.

Algunas alternativas a servicios comerciales

  • koel: Si, se escribe con minúsculas. Este programa es un reproductor y gestor de colecciones musicales. La interfaz web permite escanear los temas manualmente, subirlos al servidor o alojarlos en Amazon S3. Puedes descargarte aplicaciones para Android e iOS si no quieres usar el navegador.
  • Calibre: En Linux Adictos hemos hablado muchas veces de este completo gestor de libros que además incluye la posibilidad de convertir entre formatos y de su propio lector de libros electrónicos.  Lo que no es tan conocido son sus capacidades para permitirnos compartir libros en forma inalámbrica entre nuestros dispositivos y los de otras personas o leer los libros de nuestra colección usando el navegador y sin necesidad de descargarlos.
  • Emby: En este caso tenemos un servidor de contenidos multimedia (Videos, audios y fotos) La versión servidor está disponible para Window, Linux, Mac, FreeBSD y varios modelos de NAS. En cuanto las aplicaciones para visualizar el contenido no solo están disponible para dispositivos móviles sino también para televisores inteligentes.

from Linux Adictos https://ift.tt/JMBlDFq
via IFTTT

Microsoft y OpenAI están trabajando en una versión de Bing que integra ChatGPT

chatgpt-bing

Microsoft quiere poner a temblar a Google implementando chatgpt en bing

Vaya que ChatGPT ha dado de que hablar desde su lanzamiento, ya que desde que se puso a disposición del publico en general el chatbot ha sorprendido a muchos y ha comenzado incluso a poner en duda a muchos académicos sobre los trabajos entregados por muchos estudiantes.

Todo esto ha llevado a Microsoft a poner los ojos sobre ChatGPT de OpenAI, ya que está buscando formas de agregar las capacidades del chatbot a su motor de búsqueda Bing en un intento por atraer a los usuarios de su rival Google.

OpenAI lanzó ChatGPT para que los usuarios lo probaran en noviembre pasado. La capacidad del chatbot para producir cualquier cosa, desde recetas de cócteles hasta los ensayos escolares más auténticos, lo ha catapultado desde entonces al centro de atención.

Si bien el servicio de inteligencia artificial a veces ofrece información errónea con confianza, algunos analistas y expertos sugieren que su capacidad para resumir los datos disponibles públicamente puede convertirlo en una alternativa creíble a la búsqueda de Google y una lista de enlaces generados por la investigación de Google. Puede responder a una amplia gama de preguntas imitando el estilo de hablar humano.

Las capacidades conversacionales de ChatGPT podrían dar a Microsoft más alcance para mejorar la experiencia del usuario de Bing. Una fuente con conocimiento de los planes de Microsoft informó que la empresa podría lanzar esta nueva versión de Bing antes de finales de marzo. En una publicación de blog el año pasado, Microsoft dijo que planeaba integrar el software de generación de imágenes de OpenAI, DALL-E 2, en Bing.

En 2019, Microsoft invirtió$ 1 mil millones en el laboratorio de inteligencia artificial (IA) OpenAI como parte de una asociación de varios años. Este último tenía como objetivo desarrollar tecnologías de supercomputación impulsadas por IA en el servicio de computación en la nube Azure de Microsoft.

Los productos de IA de OpenAI han recorrido un largo camino desde entonces, incluidos los lanzamientos de GPT-2 y GTP-3, Dall-E y Dall-E 2, así como varios otros modelos de lenguaje, como el nuevo chatbot de AI ChatGPT. A partir de ahora, Microsoft pretende aprovechar las notables capacidades que ofrecen estas nuevas tecnologías, en particular la que subyace al chatbot ChatGPT.

Se rumorea que Microsoft lanzará una versión de su motor de búsqueda Bing impulsado por ChatGPT, que a su vez se basa en GPT-3.5, antes de que finalice el primer trimestre de este año. Según los informes, está apostando a que las respuestas más conversacionales y contextuales a las consultas atraerán a los usuarios de su motor de búsqueda Bing al proporcionar respuestas de mayor calidad más allá de los enlaces. Sin embargo, una persona con conocimiento del tema, que no quiso ser nombrada, dijo que la compañía aún está evaluando la precisión del chatbot ChatGPT y qué tan rápido se puede integrar en el motor de búsqueda.

Google ha citado problemas de sesgo y factualidad con los chatbots de IA existentes como una razón por la que aún no está listo para reemplazar la búsqueda. Pero Google ha estado usando varios modelos de lenguaje de alto perfil durante años para mejorar sutilmente su motor de búsqueda. Además, Google anunció recientemente que había entrenado un modelo de lenguaje que sería capaz de responder preguntas médicas con una precisión del 92,6 %, aproximadamente la misma puntuación que los médicos (92,9).

Mediante el uso de la tecnología detrás de ChatGPT, GPT-3.5, Bing podría proporcionar respuestas más humanas a las preguntas en lugar de solo enlaces a información. Google y Bing ya muestran información relevante de enlaces en la parte superior de muchas consultas de búsqueda, pero los Paneles de conocimiento de Google son particularmente populares cuando se trata de encontrar información sobre personas, lugares, organizaciones y objetos. El uso de Microsoft de una función similar a ChatGPT podría ayudar a su motor de búsqueda a competir con Knowledge Graph de Google.

Aún no está claro cómo la asociación de Microsoft con OpenAI puede ayudar a la integración de ChatGPT de Bing. Microsoft ha estado apostando su futuro a la IA durante al menos seis años, con el CEO Satya Nadella discutiendo la importancia de aplicaciones y servicios más inteligentes.

from Linux Adictos https://ift.tt/289Jik3
via IFTTT

OpenAI comenzará a cobrar por el uso de ChatGPT, lanzando una versión profesional 

ChatGPT

ChatGPT es un prototipo de chatbot de inteligencia artificial

Se dio a conocer hace poco que OpenAI ha anunciado que actualmente está trabajando en una versión profesional del chatbot de IA ChatGPT.

Greg Brockman, cofundador y presidente de OpenAI, anunció en Twitter que la versión profesional del chatbot de IA «ofrecerá límites altos y un rendimiento mucho más rápido». No obstante, Brockman especifica que el uso de la API no estará vinculado a la versión profesional.

La popularidad de ChatGPT ha estado creciendo desde su lanzamiento a fines de noviembre, y la gente acudió en masa para aprovechar la capacidad del sistema.

ChatGPT tuvo que lidiar con cientos de miles de solicitudes de usuarios que creaban informes, pruebas y, a veces, incluso código. OpenAI dice que se ha visto obligado a implementar límites de uso, introducir un sistema de colas durante los períodos pico y otros métodos para minimizar la demanda.

Esto incluye un mensaje en pantalla que dice: “Estamos experimentando una demanda excepcionalmente alta. Tenga paciencia mientras trabajamos para escalar nuestros sistemas”. Según la empresa, el entusiasmo por Chatbot ha crecido constantemente desde su lanzamiento a fines de noviembre.

Ha sido gratuito de implementar hasta ahora, y OpenAI lo ha llamado una «vista previa de investigación», pero la compañía actualmente está explorando formas de hacer que la plataforma sea rentable.

El poder de ChatGPT le da a OpenAI una «palanca significativa» sobre el precio que la empresa puede cobrar por acceder. En un anuncio en el servidor Discord oficial de la compañía, OpenAI dijo que está

«comenzando a pensar en cómo monetizar ChatGPT» como una de las formas de «garantizar la viabilidad a largo plazo de la herramienta». Según la información disponible sobre el tema, la versión monetizada de ChatGPT debería llamarse «ChatGPT Professional».

Al menos, eso es según una lista de espera que OpenAI publicó en el servidor Discord, que hace una serie de preguntas sobre las preferencias de pago. La lista también describe las ventajas de ChatGPT Professional, que incluyen ventanas «apagadas» (es decir, tiempo de inactividad), sin limitación y mensajería ilimitada con ChatGPT (al menos menos de 2 veces el límite diario normal).

OpenAI señala que los encuestados de la lista de espera pueden seleccionarse para probar ChatGPT Professional, pero el programa se encuentra en una fase experimental y «todavía» no estará ampliamente disponible.

Todos estos movimientos apuntan a un futuro en el que ChatGPT será simplemente una función de otras aplicaciones, en lugar de un servicio independiente. La lista de espera de OpenAI incluye un formulario que hace preguntas sobre el uso de ChatGPT, la función más valiosa para la que se usará y preguntas sobre los precios.

Se trata de evaluar el punto más alto y el punto más bajo en el que un usuario consideraría que el producto es demasiado caro o tan bajo que la calidad se vería afectada. Otro se relaciona con el punto en el que el precio es “caro, por lo que no está descartado alcanzarlo, pero te pide que lo pienses antes de comprarlo”. La última pregunta del formulario es calificar del uno al cinco qué tan molesto se sentiría el usuario si ya no pudiera usar ChatGPT.

El paso a un nivel de pago era inevitable dados los costos de funcionamiento del servicio. El CEO de OpenAI, Sam Altman, tuiteó recientemente que «los costos de computación son exorbitantes» y que «la empresa debería monetizar en algún momento».

Pero la pregunta que tienen la mayoría de los usuarios ocasionales es cómo podría evolucionar exactamente la versión gratuita. En conjunto, los elementos citados anteriormente dan una buena idea del tipo de restricciones que pronto se aplicarán a la versión gratuita de ChatGPT.

ChatGPT Professional llega en un momento en que OpenAI está bajo presión para obtener ganancias con productos como ChatGPT. La compañía espera ganar 200 millones de dólares en 2023, una miseria en comparación con los más de 1.000 millones de dólares que se han invertido en la startup desde sus inicios hasta ahora.

Finalmente, cabe mencionar que las personas interesadas pueden registrarse en una lista de espera y esperar la fecha de selección. Al hacerlo, OpenAI también solicita opiniones sobre posibles precios y solicita precios altos y bajos por mes en los que se puede considerar una compra.

Link de la lista de espera.

from Linux Adictos https://ift.tt/XaYQpIk
via IFTTT

Firewalld, una excelente herramienta de administración de firewall

firewalld

firewalld, una excelente utilidad que protege y bloquea el tráfico de red

La mayoría de las distribuciones de Linux cuentan con sus propios servicios de firewall preconstruidos, por lo que el usuario generalmente no tiene que intervenir en esta parte. Pero en ocasiones es necesario algún tipo de configuración especial o para cualquier otra cosa que desee el usuario.

Y es por eso que el día de hoy vamos a hablar Firewalld, el cual es un firewall dinámico administrable, básicamente permite poder realizar la administración del Firefwall con soporte para zonas de redes para definir el nivel de confianza de las redes o interfaces que utilice para conectarse. Tiene soporte para configuraciones IPv4, IPv6 y puentes de ethernet.

Sobre Firewalld

Firewalld está implementado en forma de contenedor sobre los filtros de paquetes nftables e iptables. Firewalld se ejecuta como un proceso en segundo plano que permite que las reglas de filtrado de paquetes se cambien dinámicamente a través de D-Bus sin tener que volver a cargar las reglas de filtrado de paquetes y sin desconectar las conexiones establecidas.

Para administrar el firewall, se utiliza la utilidad firewall-cmd que, al crear reglas, no se basa en las direcciones IP, las interfaces de red y los números de puerto, sino en los nombres de los servicios por ejemplo, para abrir el acceso a SSH, para cerrar SSH, entre otros.

La interfaz gráfica firewall-config (GTK) y el subprograma firewall-applet (Qt) también se pueden usar para cambiar la configuración del firewall. La compatibilidad con la gestión a través de D-BUS API firewalld está disponible en proyectos como NetworkManager, libvirt, podman, docker y fail2ban.

Además, firewalld mantiene de forma separada una configuración en ejecución y otra permanente. Así pues, firewalld también ofrece una interfaz para que las aplicaciones puedan añadir reglas de una forma cómoda.

El modelo anterior (system-config-firewall/lokkit) era estático y cada cambio requería un reinicio completo. Esto suponía tener que descargar los módulos del núcleo (ej: netfilter) y recargarlos de nuevo en cada configuración. Además, este reinicio suponía perder la información de estado de las conexiones establecidas.

Por el contrario, firewalld no requiere reiniciar el servicio para aplicar una nueva configuración. Por lo tanto, no es necesario recargar los módulos del núcleo. El único inconveniente es que para que todo esto funcione correctamente, la configuración debe realizarse a traves de firewalld y sus herramientas de configuración (firewall-cmd o firewall-config). Firewalld es capaz de añadir reglas utilizando la misma sintaxis que los comandos {ip,ip6,eb}tables (reglas directas).

Firewalld 1.3

Actualmente, Firewalld se encuentra en su versión 1.3, la cual fue recientemente liberada y en ella se destacan los siguientes cambios:

  • Se ha implementado un servicio compatible con la aplicación para compartir archivos Warpinator desarrollada por la distribución Linux Mint.
  • Se agregaron los servicios bareos-director, bareos-filedaemon y bareos-storage para admitir el sistema de copia de seguridad Bareos.
  • Se implementó una regla de enmascaramiento para el backend de nftables, que le permite vincular las interfaces de red a una zona que procesa el tráfico entrante. Para el backend de iptables, esta función no es compatible.
  • Servicio agregado para redes P2P superpuestas de Nebula.
  • Se agregó un servicio para el sistema de exportación de métricas de Ceph a la base de datos de Prometheus.
  • Se agregó un servicio que admite el protocolo OMG DDS (Servicio de distribución de datos del grupo de administración de objetos).
  • Se ha agregado un servicio para procesar solicitudes de clientes para determinar nombres de host mediante el protocolo LLMNR (Resolución de nombres de multidifusión local de enlace).
  • Se agregó un servicio para el protocolo ps2link que se usa para comunicarse con las consolas de juegos PlayStation 2.
  • Se ha agregado un servicio para admitir la operación del servidor para el sistema de sincronización de archivos Syncthing.

Si estás interesado en poder conocer más al respecto sobre esta nueva versión, puedes consultar los detalles en el siguiente enlace.

Obtener Firewalld

Finalmente para quienes estén interesados en poder instalar este Firewall, deben saber que el proyecto ya está en uso en muchas distribuciones de Linux, incluidas RHEL 7+, Fedora 18+ y SUSE/openSUSE 15+. El código de firewalld está escrito en Python y se distribuye bajo la licencia GPLv2.

Pueden obtener el código fuente para su compilación desde el siguiente enlace.

from Linux Adictos https://ift.tt/UcL4fej
via IFTTT

Sin noticias de Twister OS desde que se lanzó la primera versión estable de Raspberry Pi OS de 64bit

Twister OS con el tema Big Sur Dark

Debo ser gafe. Hace algo más de un año escribí un artículo sobre Twister OS, que aunque lleve las siglas «OS» en su nombre, en realidad es Raspberry Pi OS con un «traje» y aplicaciones especiales, como RetroPie, que viene instalado por defecto o herramientas para overclockear la GPU. Es bonito, todo funciona y merece la pena usarlo, o la merecía, porque hace ya mucho tiempo que están como desaparecidos.

Las últimas noticias que tengo al respecto no eran las mejores. Había parte del equipo que quería trabajar para lanzar un Twister OS basado en la versión de 64bits de Raspberry Pi OS, y otra parte que prefería mantenerse en los 32bits que tan bien habían funcionado hasta el momento. El proyecto no es tan grande como el de la frambuesa, no pueden mantener dos opciones y eso fue un problema. Un problema que llega hasta hoy.

Twister OS lleva más de un año en la v2.1.2

Si vamos a su página web (que no está todo lo bien adaptada que podría estar si la visitamos desde el móvil…), podemos ver que tanto Twister OS (la imagen para placas simples) como Twister UI (el script para instalarlo todo sobre Xfce) están en la v2.1.2, la misma con la que yo hice mi especie de review a finales de 2021. Si vamos al canal de YouTube de Pi Labs, también vemos que hace más de un año que no actualizan su contenido.

Así que lo único claro es que hay un parón, pero no se sabe si es permanente o hasta cuándo durará. En lo personal, tampoco sé si los que decidieron dar el salto a los 64bit están en otra comunidad, por lo que si han publicado algo sobre su evolución, me lo he perdido. Lo único que sé es que está todo parado, y que también hayan parado la opción «UI» compatible con sistemas como Xubuntu no hace más que aumentar las sospechas de que el «traje» para Raspberry Pi OS podría terminar siendo abandonado.

Pero Twister OS es una muy buena opción, y las actualizaciones de la mayor parte de los paquetes llegan directamente de Raspberry Pi OS. Por lo que, si no es importante subir a la versión de 64bits, diría que aún merece la pena. También hay tutoriales sobre cómo instalar Twister UI sobre Raspberry Pi OS, con lo que tendríamos lo mejor de los dos mundos. Aún así, no se sabe qué pasará con «UI». Esperemos que el equipo siga en el el proyecto y que vuelvan más pronto que tarde con una actualización. Nuestras pequeñas placas lo agradecerán.

from Linux Adictos https://ift.tt/ylYHZrA
via IFTTT

Google también apuesta por Rust y anuncia su inclusión en Chromium

Chromium

Rust tambien ha llegado a Chromium

Google dio a conocer hace poco mediante una publicación la inclusión del lenguaje de programación Rust entre los lenguajes permitidos en el código del proyecto Chromium.

Se menciona que para la inclusión hay una serie de requisitos para las bibliotecas de Rust de terceros que solicitan la integración en la base de código de Chromium, por ejemplo, la biblioteca debe superar a los análogos en velocidad, consumo de memoria y estabilidad, o ser la única implementación de una determinada tecnología.

Las bibliotecas de Rust también son aceptables cuando la funcionalidad se puede ejecutar en un proceso privilegiado, o cuando el uso de la biblioteca permite reducir el riesgo de errores en comparación con otras bibliotecas o código C++. Aún no se ha decidido qué bibliotecas se pueden incluir en Chromium.

La decisión se tomó como parte de una iniciativa para evitar que aparezcan errores de memoria en el código base de Chrome. Según las estadísticas proporcionadas hace dos años, el 70 % de los problemas de seguridad críticos y peligrosos en Chromium se deben a errores de memoria.

El uso del lenguaje Rust, que se centra en la gestión segura de la memoria y proporciona una gestión automática de la memoria, reducirá el riesgo de vulnerabilidades causadas por problemas como el acceso a un área de la memoria después de que se haya liberado y el desbordamiento del búfer.

El manejo seguro de la memoria se proporciona en Rust en tiempo de compilación mediante la verificación de referencias, el seguimiento de la propiedad del objeto y la vida útil del objeto (alcance), así como mediante la evaluación de la corrección del acceso a la memoria durante la ejecución del código. Rust también brinda protección contra desbordamientos de enteros, requiere la inicialización obligatoria de los valores de las variables antes de su uso, maneja mejor los errores en la biblioteca estándar, aplica el concepto de referencias y variables inmutables de forma predeterminada, ofrece tipado estático fuerte para minimizar los errores lógicos.

El uso de Rust hará que sea más fácil y seguro aplicar la «regla de do » que utiliza Google para mantener su base de código segura.

De acuerdo con esta regla, cualquier código que agregue no debe cumplir más de dos de las tres condiciones: trabajar con una entrada no validada, usar un lenguaje de programación no seguro (C/C++) y ejecutarse con privilegios elevados. De esta regla se deduce que el código para manejar datos externos debe reducirse a los privilegios mínimos (aislado) o escribirse en un lenguaje de programación seguro.

En el caso de Rust, que se desarrolló originalmente pensando en el navegador, la integración con el código existente se puede realizar sin el uso de IPC y con menos complejidad para organizar la protección contra errores de memoria, lo que acelerará el proceso de desarrollo (requiere escribir menos código y revisión más fácil) y reducir el número de errores relacionados con la seguridad.

Para simplificar la integración del código Rust con el código C++ existente y evitar los riesgos y limitaciones asociados con la integración, actualmente se decidió limitar la interacción unidireccional: llamar desde C++ a Rust (es decir, el código Rust solo se puede llamar desde el código C++) a través de funciones API, pero no mezcladas con código C++), lo que también permitirá mantener bajo control el árbol de dependencias.

La segunda limitación es solo la compatibilidad con bibliotecas de terceros que vienen en forma de componentes separados que no están vinculados a Chromium y tienen una API orientada a tareas.

Además de usar Rust para bloquear la explotación de vulnerabilidades provocadas por el acceso a bloques de memoria ya liberados (use-after-free), a partir del lanzamiento de Chrome 102, el código C++ comenzó a usar el tipo MiraclePtr (raw_ptr) en lugar del ordinario que proporciona un enlace de puntero que realiza comprobaciones adicionales para acceder a las áreas de memoria liberadas y se bloquea si se encuentran dichos accesos.

Se estima que el impacto del nuevo método de protección en el rendimiento y el consumo de memoria es insignificante.

Finalmente, cabe mencionar que todavía no hay planes para reescribir el código existente en Rust, pero a partir de ahora se permitirá la integración en la base de código de bibliotecas de terceros escritas en Rust.

El sistema de compilación ya ha agregado herramientas para compilar código Rust, ejecutar pruebas e integrar componentes Rust con código C++. Se espera que el código Rust aparezca como parte de los lanzamientos de Chrome el próximo año.

Fuente: https://security.googleblog.com

from Linux Adictos https://ift.tt/aEvW4Xo
via IFTTT

Pon el botón de «Mostrar Aplicaciones» a la izquierda en Ubuntu

Logotipo de Ubuntu en el botón Mostrar Aplicaciones

Para ser totalmente sincero, yo no recordaba dónde estaba el botón de «Mostrar aplicaciones» en GNOME sencillamente porque dejé de usarlo cuando Ubuntu se pasó a Unity. Pero mirar un poco por Internet me ha recordado que o no estaba o siempre estuvo a la parte de abajo. En un principio, era un dock que estaba a la izquierda, pero en la actualidad ha pasado a situarse a la parte inferior por defecto. Lo que no se ha movido ha sido ese botón de «Mostrar aplicaciones», pasando a estar a la derecha ahora que el dock está por defecto en «Bottom».

Hacer modificaciones en el diseño de un sistema operativo debe ser una decisión personal. Por ejemplo, yo solía poner los botones de cerrar, restaurar y minimizar a la izquierda, pero ver que casi todas las distribuciones Linux las ponen por defecto a la derecha, que en Windows también está ahí y que en estos momentos no tengo pensado adquirir un Mac me ha hecho cambiar de opinión. Con lo del menú de «Mostrar aplicaciones» estamos en una situación diferente: Plasma, LXQt, Cinnamon, Xfce, Windows… la mayoría ponen ese menú a la izquierda, por lo que puede ser buena idea mover ese botón y cambiarlo de lado.

«Mostrar aplicaciones» a la izquierda

Esto tenía mucho más sentido en Ubuntu hasta que empezó a permitir (más bien a tener instalado por defecto Dash To Dock) convertir el panel de lado a lado en un dock. Hace varias versiones, el panel estaba de arriba a abajo y sólo podía estar a la izquierda, y más adelante permitió que se moviera a la parte inferior. Era en ese momento en el que ponerlo a la parte izquierda tenía más sentido: del botón «Mostrar aplicaciones» a los iconos fijados había mucho espacio, y era de todo menos intuitivo. Ahora que se puede convertir en un dock de verdad ya es una cuestión de gustos.

Para ponerlo en la izquierda si estamos en Ubuntu basta con abrir un terminal y escribir lo siguiente:

gsettings set org.gnome.shell.extensions.dash-to-dock show-apps-at-top true

Si leemos con atención, veremos que lo que estaremos haciendo en verdad es mover el icono arriba, y no a la izquierda. Esto es así porque la posición natural del dock de Ubuntu es a la izquierda, y no funcionará en distribuciones que no usen el panel de Ubuntu y tengan instalada la extensión «dash-to-dock».

Si os estáis preguntando cómo cambiar el logotipo, en Ubuntu se hace como explicamos en este otro artículo. Opciones al rescate.

from Linux Adictos https://ift.tt/1DaAslS
via IFTTT

OpenAI trabaja en una solución para detectar texto generado por ChatGPT

ChatGPT

ChatGPT es un prototipo de chatbot de inteligencia artificial

Se dio a conocer la noticia de que OpenAI está desarrollando un software que puede detectar si su modelo ChatGPT generó texto, esto poco después de que los funcionarios de educación de la ciudad de Nueva York anunciaran que bloquearían el acceso de los estudiantes a la herramienta en las escuelas públicas.

Y es que han dado a conocer diversos informes de qué estudiantes que usan IA para hacer sus tareas, han hecho que los maestros piensen en cómo afecta la educación.

Algunos han expresado su preocupación acerca de cómo los modelos de lenguaje pueden permitir que los estudiantes hagan trampa.

Ante ello OpenAI anuncio que está trabajando para desarrollar «mitigaciones» que ayudarán a las personas a detectar el texto generado automáticamente por ChatGPT.

«Hemos hecho que ChatGPT esté disponible como una vista previa de investigaciónaprender del uso en el mundo real, que creemos que es una parte esencial del desarrollo y la implementación de sistemas de IA capaces y seguros. Estamos constantemente incorporando comentarios y lecciones aprendidas”, dijo un portavoz de la compañía.

Según testimonios de profesores universitarios, los estudiantes confían a ChatGPT para resolver sus tareas, especialmente en los ensayos.

“La academia no lo vio venir. Así que nos tomó por sorpresa”, dice Darren Hudson Hick, profesor asistente de filosofía en la Universidad de Furman.

«Lo informé en Facebook, y mis amigos [maestros] dijeron: ‘¡sí! Yo también atrapé uno’», agregó. A principios de este mes, según los informes, Hick le pidió a su clase que escribiera un ensayo de 500 palabras sobre el filósofo escocés del siglo XVIII David Hume y la paradoja del horror, que examina cómo las personas pueden obtener placer de algo que temen, para una prueba en casa. Pero según el profesor de filosofía, uno de los ensayos que le llegó tenía algunas características que «marcaban» el uso de la IA en la respuesta «rudimentaria» del estudiante. Hick explica que esto puede ser detectado por un ojo entrenado.

Ser capaz de distinguir la escritura a mano producida por un humano o una máquina cambiará la forma en que se pueden usar en la academia. Las escuelas podrían hacer cumplir de manera más efectiva la prohibición de prueba generada por IA,

Sí, los modelos de lenguaje generativo pueden ser buenos, pero no saben de lo que están hablando.

Tan impresionante como suena la escritura generada por IA en los titulares con conferencias universitarias y escuelas que prohíben los artículos escritos a máquina, aquí hay un recordatorio de que carecen de comprensión de escritura humana real.

Y es que OpenAI ha estado impresionando a Internet con sus esfuerzos para replicar la inteligencia humana y las habilidades artísticas desde 2015. Pero en noviembre pasado, la compañía finalmente se volvió mega viral con el lanzamiento del generador de texto AI ChatGPT. Los usuarios de la herramienta beta publicaron ejemplos de respuestas de texto generadas por IA a indicaciones que parecían tan legítimas que infundieron miedo en los corazones de los maestros e incluso hicieron que Google temiera que la herramienta podría acabar con su actividad de investigación.

Si los ingenieros de OpenAI pueden crear un bot que pueda escribir tan bien o mejor que el humano promedio, es lógico que también puedan crear un bot que sea mejor que el humano promedio para detectar si el texto fue generado por IA.

Ya que como se mencionó por el momento OpenAI trabaja en una solución, ya se han dado a conocer al menos tres herramientas de detección que se pueden usar:

Detector de salida GPT-2

La demostración en línea del modelo de detector de salida GPT-2 le permite pegar texto en un cuadro y ver de inmediato la probabilidad de que el texto haya sido escrito por la IA. Según la investigación de OpenAI, la herramienta tiene una tasa de detección relativamente alta, pero «debe combinarse con enfoques basados ​​en metadatos, juicio humano y educación pública para ser más eficaz».

GLTR 

Cuando OpenAI lanzó GPT-2 en 2019, la gente del MIT-IBM Watson AI Lab y el Harvard Natural Language Processing Group se unieron para crear un algoritmo que intenta detectar si el texto ha sido escrito por un bot.

El texto generado por computadora puede parecer escrito por un ser humano, pero es más probable que un escritor humano seleccione palabras impredecibles. Usando el método «se necesita uno para conocer uno», si el algoritmo GLTR puede predecir la siguiente palabra en una oración, asumirá que la oración fue escrita por un bot.

GPTZero

Durante la temporada navideña, Edward Tian estuvo ocupado creando GPTZero, una aplicación que puede ayudar a determinar si el texto fue escrito por un humano o un bot. Como académico en Princeton, Tian comprende cómo los profesores universitarios pueden tener un interés personal en detectar el IAgiarismo o el plagio asistido por IA.

Tian dice que su herramienta mide la aleatoriedad de las oraciones («zumbidos») más la aleatoriedad general («ráfagas») para calcular la probabilidad de que el texto haya sido escrito por ChatGPT. Desde que tuiteó sobre GPTZero el 2 de enero, Tian dice que ya se le han acercado capitalistas de riesgo que desean invertir y que pronto desarrollará versiones actualizadas.

Fuente: https://techcrunch.com

from Linux Adictos https://ift.tt/6VKhBj9
via IFTTT

Buscan cambiar el nombre de los proyectos Apache

Apache

Piden Apache que cambie de nombre

Hace poco se dio a conocer la noticia de que Natives in Tech, una organización sin fines de lucro dedicada a desarrollar un ecosistema tecnológico para los pueblos indígenas, realizo una petición a Apache Software Foundation en la que pidió que dejara de usar la palabra «Apache» y los símbolos nativos americanos en el logotipo, incluido el cambio de nombre de todos los proyectos desarrollados con este nombre.

Sobre la petición se menciona que usar la palabra «Apache» y marcar una identidad indígena para lograr los propios objetivos se percibe como una manipulación inaceptable de los valores culturales de las minorías nacionales, distorsionando la imagen de los indígenas y basándose en estereotipos establecidos después de las películas spaghetti western.

Asociar una empresa de tecnología con una noción tan romántica, en la que la comunidad nativa americana existente y en crecimiento es tratada como muerta y desaparecida, se considera ignorante y ofensivo.

Uno de los fundadores, Brian Behlendorf, describe cómo decidió elegir el nombre Apache en el documental “Trillions and Trillions Served” :

Sugerí el nombre Apache en parte porque las tecnologías web en el momento del lanzamiento se llamaban cyber this o spider that o algo sobre esos temas y pensé que necesitábamos algo un poco más interesante, un poco más romántico, no para ser un apropiador cultural o algo por el estilo, acababa de ver un documental sobre Gerónimo y los últimos días de una tribu de nativos americanos llamada los apaches, verdad, que sucumbieron a la invasión del oeste, de los Estados Unidos, y fueron la última tribu renunciar a su territorio y para mí eso representó casi románticamente lo que sentía que estábamos haciendo con este proyecto de servidor web…

Según los autores de la iniciativa, la Fundación Apache debería actuar de acuerdo con su código de conducta, cuyo quinto párrafo exige cautela en las palabras escogidas.

Esta presentación “romántica” spaghetti-western francamente obsoleta de una comunidad viva y vibrante como muerta y desaparecida para construir una empresa de tecnología “para el bien común” es tan ignorante como ofensiva. Instamos a The Apache® Software Foundation a tomar las medidas necesarias para expresar el aliado que promueven tan profundamente en su sitio web, a actuar de acuerdo con su propio código de conducta , a “tener cuidado con las palabras que [ellos] eligen ”, y cambiar su nombre.

El portavoz de la Fundación Apache dijo que la comunidad ha escuchado y escuchará las preocupaciones de los nativos americanos, pero el cambio tomará el tiempo que le tome a la comunidad discutir el tema, evaluar las implicaciones legales y tomar una decisión informada. También se están estudiando formas alternativas de resolver el problema, pero aún no se han anunciado públicamente.

Idealizar las culturas indígenas es una forma de enmarcarlas como estáticas en lugar de dinámicas. Tampoco reconoce años de guerra, asimilación forzada y otras políticas adversas arraigadas como trauma histórico a lo largo de las generaciones y hasta el día de hoy. Las organizaciones que dicen apoyar a los pueblos indígenas pero que carecen de una conexión real con ellos, y en su lugar se basan en estereotipos históricos, no logran ser aliados de aquellos a quienes intentan emular.

Hasta 2003, el nombre del servidor Apache http se trataba en las preguntas frecuentes del proyecto como «un servidor PATCHy», es decir, Un servidor HTTP resultante de modificaciones al código base del servidor http de NCSA. En 2003, se cambió la aclaración para indicar que el nombre se eligió por respeto a las tribus indígenas apaches.

Para promover la iniciativa, 40 activistas han publicado y firmado una petición y entre los partidarios de la petición ademas de incluir a Bradley M. Kuhn, fundador de Software Freedom Conservancy (SFC), tambien se encuentran otras personas de renombre, tales como Josh Simmons, presidente de la junta directiva de OSI (Open Source Initiative) y Erin Stein, directora de Data and Tech for Good.

Finalmente si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.

from Linux Adictos https://ift.tt/qhnY8Df
via IFTTT

Discourse, la plataforma de debate celebra 10 años de su primer lanzamiento

Discourse

Discourse es una plataforma de debate 100 % de código abierto

Se dio a conocer el lanzamiento de la nueva versión de la plataforma Discourse 3, la cual esta diseñada para respaldar las discusiones en línea que utilizan muchos proyectos de código abierto en lugar de listas de correo, foros web y salas de chat.

Esta nueva versión incluye chat en tiempo real y estado del usuario para permitir una comunicación más informal, una barra lateral personalizable para un acceso más fácil a las cosas que más le importan a cada usuario y una nueva interfaz de notificaciones que facilita decidir qué es importante para el seguimiento. , junto con muchas otras mejoras.

Cabe mencionar que esta plataforma soporta la división de temas en base a etiquetas, envío de notificaciones sobre la aparición de respuestas a mensajes, actualización de la lista de mensajes en temas en tiempo real, carga dinámica de contenido a medida que lee, posibilidad de suscribirse a temas de interés y envío de respuestas por Email.

 

Con este lanzamiento también celebramos 9 años desde Discourse 1.0 , cuando nos propusimos construir una plataforma para el discurso civilizado que permitiera a las comunidades mejorar la calidad de las conversaciones en Internet. A medida que nos acercamos a una década en nuestro viaje, nuestro deseo de mejorar Discourse para diversas comunidades de todos los tamaños es más fuerte que nunca y esperamos seguir evolucionando con usted durante la próxima década.

Principales novedades de Discourse 3

En esta nueva versión que se presenta de Discourse 3 podremos encontrar que se ha agregado una implementación de chat que permite a los participantes comunicarse en tiempo real, ademas de que ahora los miembros tienen la capacidad de poder agregar categorías, etiquetas, chats al panel y que este ultimo también tiene una sección de «Comunidad» con los enlaces más utilizados.

Otro de los cambios que podremos encontrar es que se ha propuesto una nueva barra lateral configurable por el usuario, asi como tambien que se proporciona la posibilidad de exhibición por parte del usuario del estado. El estado se establece en forma de emoji o mensaje que se mostrará asociado al participante en todas las secciones de la plataforma (por ejemplo, al lado del avatar en las publicaciones, en el chat y en el perfil).

Tambien podremos encontrar que se agregó una nueva interfaz para mostrar notificaciones, lo que facilita la separación de notificaciones importantes y secundarias. Los diferentes tipos de notificaciones ahora se colocan en pestañas separadas, así como una sección general con notificaciones recientes.

Se ha propuesto un nuevo asistente de configuración inicial que le permite al usuario poder configurar los parámetros más importantes de la plataforma, como el modelo de acceso (disponible para todos o solo los usuarios registrados), el formulario de registro (para todos o solo por invitación), la necesidad de confirmar participantes , la presencia de un chat y la inclusión de una barra lateral.

De los demás cambios que se destacan

  • Se ha proporcionado la capacidad de mostrar sugerencias emergentes a los nuevos usuarios con información básica sobre las capacidades de la plataforma.
  • Se ha rediseñado el sistema de hashtags, lo que facilita el envío por nombres de canales, categorías y etiquetas.
  • Proporcionó la capacidad de definir grupos de participantes que pueden comunicarse entre sí de forma privada por separado en temas.
  • Se mejoró la interfaz de búsqueda, se agregó la capacidad de buscar rápidamente usuarios y temas en una determinada categoría adjuntando filtros «#» y «en:» a la solicitud.
  • La pila de software de la plataforma se ha actualizado: Ruby 3.1, Rails 7 y Ember 3.28.
  • Información ampliada en las páginas mostradas en caso de errores. Pantalla de inicio mejorada que aparece durante la carga.
  • Modo oscuro mejorado.

Finalmente para los interesados, deben saber que el sistema está escrito en Ruby utilizando el marco Ruby on Rails y la biblioteca Ember.js (los datos se almacenan en PostgreSQL DBMS, el caché rápido se almacena en Redis). El código se distribuye bajo la licencia GPLv2.

Ademas, tambien vale la pena mencionar que se ofrecen planes de alojamiento que van desde $25 USD en adelante, aunque como se menciono, el código de la plataforma está a disposición del publico en general en el siguiente repositorio.

Si estás interesado en poder conocer más al respecto sobre este nuevo lanzamiento, puedes consultar los detalles en la publicación original, el enlace es este.

from Linux Adictos https://ift.tt/5CohU1z
via IFTTT