Cómo instalar Windows 11 en GNOME Boxes o VirtualBox

Windows 11 en GNOME Boxes

Hace muchos años que me muevo más cómodo en Linux que en Windows; a macOS le doy de comer aparte, no porque lo odie, sino porque ahora mismo no veo necesario pagar todo lo que piden por un Mac. Pero lo cierto es que a veces necesito algo de Windows, o no es una necesidad, sino algo que quiero hacer en el sistema de Microsoft, como probar que una aplicación propia funciona en Windows. Hasta el 10 todo era más sencillo, e instalarlo en una máquina virtual no tenía mucho misterio, pero todo cambió cuando lanzaron Windows 11.

La 11ª versión del sistema de las ventanas pide unos requisitos que dificultan bastante las cosas, hasta el punto de que hay que cambiar todo un equipo porque en algunos no se puede actualizar. Parte de la culpa la tienen el TPM y el Secure Boot, dos comprobaciones que hace Windows 11 durante un proceso de instalación que no avanza si no tenemos un equipo compatible. Esto también pasa en las máquinas virtuales, pero aquí os vamos a enseñar como hacerles un «by pass» a esas comprobaciones para instalar Windows 11 en una máquina virtual que se ejecute en Linux.

Windows 11 en una máquina virtual

El secreto está en las palabras «by pass» o en puentear lo que nos nos impide instalar Windows 11 como lo haríamos con Windows 10 o anteriores. Los pasos a seguir quedarían así?

  1. Conseguimos una imagen ISO de Windows 11. Se puede conseguir una legal desde este enlace.
  2. Iniciamos GNOME Boxes o VirtualBox. Los pasos importantes para permitir la instalación son los mismos en ambos casos.
  3. Iniciamos la creación de la máquina virtual. En GNOME Boxes le deja por defecto 128GB de almacenamiento, y no debería ser necesario tanto. El mínimo de RAM debería ser de 8GB, pero eso también se puede puentear. En este punto le dejamos lo que creamos que irá bien, y eso también depende del hardware de nuestro equipo. Yo, con 1TB de almacenamiento y 32GB de RAM, le he dejado esos 128GB de disco duro (que va ocupando si se va llenando) y 12GB de RAM.
  4. En la pantalla en la que nos dice de iniciar la instalación, presionamos Mayúscula+(Fn)F10, lo que nos abrirá el símbolo del sistema.
  5. Escribimos «regedit» sin las comillas, lo que nos abrirá el editor del registro.
  6. Esto es lo importante. Tenemos que crear una carpeta y 3 entradas.
    1. Vamos a HKEY_LOCAL_MACHINE/System/Setup, hacemos clic secundario sobre esa carpeta y creamos una clave (carpeta) con el nombre Labconfig.
    2. Hacemos clic sobre esa carpeta.
    3. A la derecha, hacemos clic derecho/Nuevo/Valor de DWORD (32bits) con nombre BypassTPMCheck. Luego hacemos clic derecho sobre ese valor, seleccionamos modificar y le damos un valor de 1.
    4. Repetimos el paso 3 dos veces más, pero una con BypassRAMCheck y otra con BypassSecureBootCheck.
  7. Ahora sí, iniciamos la instalación y seguimos las instrucciones que aparecen en pantalla como siempre hemos hecho.

Pasos adicionales en VirtualBox

Si hemos instalado Windows 11 en VirtualBox, que es mejor opción que GNOME Boxes para algunos, pero también requiere más instalaciones y más pasos, al iniciar cualquier sistema operativo lo hace en una ventana muy pequeña, pero eso tiene solución instalando las Guest Additions. Y para acceder a todo el hardware, como los puertos USB o la cámara web, hace falta instalar el Extensiion Pack. Eso está explicado mejor en este enlace.

Instalando Tiny11

Si esos 128GB de almacenamiento, 12GB de RAM y lo del TPM os dan algo de respeto, hay otra opción. Se llama Tiny11, y es un Windows 11 que ha creado un desarrollador básicamente quitándole software y preparándolo para que funcione en equipos más discretos. Está disponible en Internet Archive, pero su desarrollador lo va mejorando con el paso del tiempo. La última versión ya está basada en Windows 11 Pro 22H2 y promete funcionar en tan sólo 8GB de almacenamiento. Tiene un precio, y es que por defecto ni siquiera tiene instalado Microsoft Edge, pero se puede arreglar instalando Firefox desde la Microsoft Store.

Tiny11 tiene desactivadas las comprobaciones de Windows 11, por lo que no nos pedirá ni ciertos requisitos mínimos ni comprobará que nuestro equipo soporte TPM 2.0.

Se elija lo que se elija, en mis pruebas he podido comprobar que Windows 11 se comporta mejor que Windows 10, por lo menos en GNOME Boxes. Y si necesito hacer alguna prueba en Windows, haciendo lo explicado aquí no necesito salir de mi Linux favorito.

from Linux Adictos https://ift.tt/oqh6Oui
via IFTTT

Cómo borrar una carpeta en Linux

Borrar una carpeta en Linux

Hay gente que piensa que en Linux todo es más difícil que en otros sistemas operativos como en Windows y macOS porque para muchas cosas es necesario tirar de terminal. Esto también se podría ver de otra manera: todo es más sencillo porque, además de permitir hacer las cosas con interfaz gráfica como en los sistemas de Microsoft y Apple, nos permite hacer lo que nos venga en gana desde el terminal. No es lo mismo. Una cosa que podemos hacer de diferentes maneras es algo tan cotidiano como borrar una carpeta en Linux.

Cuando se busca en Internet algo así es porque la duda existe, pero en ocasiones lo que se quiere saber es cómo hacerlo usando líneas de comandos o bien se está intentando hacer algo que está bloqueado por algún motivo. Las razones pueden ser muchas y muy variadas, y aquí vamos a intentar explicar cómo borrar una carpeta en Linux, empezando por lo más sencillo, que no es otra cosa que hacerlo con el gestor de archivos de turno.

Podemos borrar una carpeta en Linux igual que en Windows

Si no hay ningún problema que esté bloqueándola, podemos borrar una carpeta en Linux igual que en Windows. Para ello, basta con abrir el gestor de archivos, como Nautilus, Dolphin o PCManFM, entre otros, hacer clic derecho sobre la carpeta y elegir «Mover a la papelera», «Borrar» o lo que aparezca. Dependiendo de cómo lo tengamos configurado, es probable que tengamos más de una opción, siendo una de ellas moverla a la basura y la otra eliminarla por completo. Si elegimos la segunda, no hay marcha atrás.

Borrar una carpeta en Dolphin

También podemos intentar hacerlo de otro modo, que es seleccionando la carpeta y presionando la tecla Suprimir (o Del, dependiendo del idioma del teclado). Es probable que nos encontremos con algún caso en el que la combinación de teclas sea diferente, y veremos cuál es con el clic derecho. En la captura de arriba, vemos que en Dolphin es con la tecla Suprimir, y más abajo, la de Borrar, la que no pasa por la papelera, es con Mayúsculas+Suprimir. Dicho sea de paso, la opción de borrar directamente no está activada por defecto; hay que activarla desde las opciones por motivos de seguridad.

Desde el terminal

Error al borrar una carpeta en Linux

Me da a mí que algunos de los que den con este artículo desde un buscador web lo habrán hecho para saber cómo se borra una carpeta en Linux desde el terminal. El comando para eliminar es rm, pero si ponemos en el terminal rm nombre_de_la_carpeta recibiremos un mensaje que dirá «rm: no se puede borrar ‘nombre_de_la_carpeta’: Es un directorio«. El problema es básicamente que una carpeta no es un archivo, y dentro puede contener otras carpetas y documentos. Por lo tanto, para eliminarlas hay que hacerlo recursivamente, es decir, el primer nivel (la carpeta en sí) y todos sus sub-niveles (su contenido).

Pero antes de seguir, tenemos que avisar de algo: si se borra una carpeta en Linux desde su terminal, lo que haremos no tiene vuelta atrás. Tenemos que estar seguros de que ya no queremos volver a ver esa carpeta ni su contenido, porque es lo que va a pasar. Teniendo esto claro, el comando quedaría (cambiando «nombre_de_la_carpeta» por el nombre de la carpeta).

rm -r nombre_de_la_carpeta

Si queremos forzar la eliminación, podemos añadir la «f» (-rf) al comando. Al forzar la eliminación se ignorarán errores y advertencias que puedan surgir al tratar de borrar cualquier archivo o carpeta, y lo borrará directamente.

Como dato curioso para el que no lo conozca, hay un comando famoso con el que se suele bromear en Linux, porque el sistema operativo lo permite, pero no hay que hacerlo nunca. El comando es sudo rm -rf /, y borraría recursivamente todo el contenido del sistema. Y aquí «todo» significa todo, literal. Se cargaría carpetas como la /bin, /usr y todo lo necesario para que el sistema pueda funcionar, por lo que, además de perder la información que no hubiéramos guardado, también nos quedaríamos con un sistema que no sirve ni de pisapapeles. La opción -f tendría gran parte de la culpa, ya que ocultaría cualquier aviso con el que el sistema operativo nos haría saber que algo malo va a pasar.

¿La carpeta está protegida?

En Linux se puede hacer de todo, que se lo pregunten a «un amigo» que haciendo pruebas y en una máquina virtual (menos mal…) llegó a cargarse la carpeta /bin en donde están todos los ejecutables de un sistema operativo, y sin marcha atrás por haberlo hecho desde el terminal. Si no podemos eliminar una carpeta, probablemente sea porque está protegida por el sistema o por cualquier otro motivo, como que sea de otro usuario.

Por ejemplo, si queremos hacer como «mi amigo» y cargarnos la carpeta /bin, que no lo estoy recomendando, sino poniendo un ejemplo, lo único que tenemos que hacer es hacerlo desde un usuario que tenga acceso a los privilegios de super-usuario, también conocido como root. Si nuestro usuario puede hacer eso, lo único que tendremos que hacer es añadir «sudo» al comando anterior, lo que quedaría como:

sudo rm -r nombre_de_la_carpeta

También podemos intentarlo con el gestor de archivos, si éste se puede abrir con sudo, lo que nos permitiría movernos por todas nuestras carpetas con privilegios elevados. Por ejemplo, Nautilus (Archivos de GNOME) sí lo permite, y nos dejaría eliminar carpetas protegidas (puede que no todas) si abrimos el terminal y escribimos «sudo nautilus» sin las comillas. Veremos dos ventanas abiertas, una con el terminal mostrando información y otra que será el gestor de archivos con su interfaz más básica (no suele respetar personalizaciones).

Con Dolphin, cuando KDE lo permita o allá donde lo permite, la opción de eliminar debería aparecer como cualquier otra, pero antes de dar el paso nos pedirá la contraseña de administrador. También se puede hacer lo que explicamos en este artículo para lanzar Dolphin como root.

Eliminar una carpeta con un Live USB

Otra opción para borrar una carpeta en Linux es hacerlo desde otro Linux, concretamente desde una Live Session. Hay algunos fallos que se pueden solucionar de esta manera, y uno de ellos sería eliminar una carpeta que fuera imposible hacerlo desde el sistema operativo de nativo (poco probable, pero…). Lo que tendríamos que hacer es crear un Live USB, iniciar desde él, buscar la carpeta que queramos eliminar y eliminarla.

Como veis, en Linux tenemos más opciones que en otros sistemas operativos y todo es posible, pero no hagáis lo que pone en el texto resaltado por vuestro bien.

from Linux Adictos https://ift.tt/iET6ula
via IFTTT

EndeavourOS Cassini Neo ya está aquí con Linux 6.1 y el instalador mejorado

EndeavourOS Cassini Neo

Poco menos de dos meses después de Cassini, ya está aquí EndeavourOS Cassini Neo, la nueva versión de esta distribución basada en Arch Linux que, si bien es cierto que es menos popular que otras, también lo es que parece acercarse más a la filosofía del sistema en el que se basa. Siendo una distro Rolling Release, lo normal debería ser lanzar una nueva ISO a cada mes, pero los desarrolladores de EndeavourOS suelen esperar a un momento más apropiado que merezca más la pena.

En cuanto a las novedades que han llegado junto a EndeavourOS Cassini Neo tenemos un kernel actualizado, que ha pasado del 6.0 al Linux 6.1 que incluye esta nueva imagen. Además, a partir de ahora ofrecen tres opciones de instalación para equipos ARM: usar la imagen x86_64 live para instalar la imagen, descargar un script y usarlo para instalar la imagen o descargar la imagen para instalarla por el método dd, Raspberry Pi Imager o Etcher.

Paquetes y novedades de EndeavourOS Cassini Neo

  • Calamares 3.3.0-alpha3.
  • Firefox 109.0.1-1.
  • Linux 6.1.9.arch1-2.
  • Mesa 22.3.4-1.
  • Xorg-Server 21.1.7-1.
  • nvidia-dkms 525.85.05-3.
  • Corrección de errores, como:
    • Corrección para equipos lentos durante el proceso de instalación que causaba un tiempo de expiración al crear las imágenes de inicio.
    • Correcciones en Calamares.
    • Openssh estará instalado otra vez por defecto, que se sacó por accidente en la ISO del anterior Cassini.
    • La opción para cifrar se ha añadido al campo de Calamares cuando es elegida la opción de sustituir partición.
    • bashrc se mueve a /etc/skel en lugar de sobrescribir forzosamente el que está en el directorio home de un usuario existente.
    • Una solución para la falta de soporte de reanudación completa hibernación después de la instalación en algunos casos.

Para los usuarios existentes, todas estas novedades ya deberían haber aparecido en forma de nuevos paquetes. Para nuevas instalaciones, la nueva imagen está disponible haciendo clic en el siguiente botón.

from Linux Adictos https://ift.tt/3XKB81f
via IFTTT

Cómo solucionar el error »no se pudo bloquear /var/lib/dpkg/lock»

no se pudo bloquear ⁄var⁄lib⁄dpkg⁄lock

Aunque una distribución Linux podría elegir instalar el software como más le conviniera, lo más habitual es que, como mínimo, puedan instalarlo desde sus repositorios oficiales. Estos repositorios pueden estar mantenidos directamente por la distribución y/o basarse en otros, como pasa con Debian->Ubuntu->Linux Mint, por ejemplo. En estos casos, el gestor de paquetes es APT, y en ocasiones podemos ver el mensaje «no se pudo bloquear /var/lib/dpkg/lock» en el terminal o incluso en alguna herramienta con interfaz gráfica.

Este artículo intentará arrojar algo de luz sobre qué es y cómo se puede solucionar el fallo que provoca que veamos el mensaje «no se pudo bloquear /var/lib/dpkg/lock», pero ya os adelanto que hay una solución muy sencilla que puede arreglar este y muchos otros problemas, ya sea en una distribución basada en Linux o cualquier otro sistema operativo, incluidos los móviles.

Qué significa el error «no se pudo bloquear /var/lib/dpkg/lock»

Por lo general, cuando vemos el error «no se pudo bloquear /var/lib/dpkg/lock», el terminal o el software que nos lo muestre nos está indicando que otro proceso de APT está en ejecución y utiliza la misma base de datos a la que estamos intentando acceder. Dicho de otro modo, el nuevo proceso APT intenta bloquear el archivo /var/lib/dpkg/lock, no lo consigue porque está ocupado y nos informa de ello.

Lo más habitual es que otro proceso de APT, como puede ser el de actualización, ya esté en marcha y ha bloqueado el archivo de bloqueo, por lo que no puede dar el primer paso, que es justamente bloquear dicho archivo.

Cómo solucionar el error

Lo primero que tenemos que hacer, sobre todo si no nos gusta tirar de terminal, es comprobar si hay alguna aplicación de software ejecutándose. Por ejemplo, en Ubuntu podemos ver si Ubuntu Software (fork de GNOME Software) está haciendo algo, y también Actualización de Software, la aplicación que se encarga, como su nombre indica, de actualizar el software. Si no vemos ninguna de esas aplicaciones abiertas, también podemos iniciar el monitor del sistema y buscarlas, para ver si se están ejecutando en segundo plano.

Las aplicaciones que tenemos que buscar dependerán de la distribución que estemos usando, ya que Ubuntu Software no está en Kubuntu, ni Discover en la versión principal de Debian. Cada distribución gestiona el software con las herramientas que decide añadir, y pueden bloquear el archivo GNOME Software, Discover, cualquier otra tienda de software o la herramienta de actualizaciones.

Sea que están en primer plano o en segundo, una opción es tener paciencia y esperar para ver si finaliza el trabajo que está realizando. A veces vemos un mensaje de error y queremos que se solucione al instante, cuando la solución es esperar un momento.

Un reinicio o cierre de sesión debería ser suficiente

Hace muchos años, un amigo siempre me estaba preguntando cómo solucionar sus fallos en Windows. Llegó un momento en el que ya casi ni le preguntaba, y le recomendaba reiniciar porque casi siempre era la mejor solución para él. En el caso del error »no se pudo bloquear /var/lib/dpkg/lock» también es una posible solución. Al iniciar desde cero, puede que empiece con el archivo bloqueado por la herramienta de actualizaciones, pero lo desbloqueará pronto, cuando compruebe que no hay nada nuevo para instalar o sí lo haya, pero ya nos haya informado sobre ello.

Claro está que no es la solución más elegante, pero es la menos costosa y puede ser la mejor y más rápida si no tenemos ningún motivo para mantener la sesión iniciada.

Cuando el mensaje »no se pudo bloquear /var/lib/dpkg/lock» no se va

Cuando hemos reiniciado o esperado un rato y seguimos viendo el mensaje, lo que nos está pasando no es algo habitual. El bloqueo se ha quedado «colgado» o, valga la redundancia, bloqueado, por lo que ya merece la pena tirar de terminal.

  1. Lo primero que haremos será abrir un terminal e identificar el proceso APT en ejecución con este comando:
sudo lsof /var/lib/dpkg/lock
  1. Con el proceso identificado, lo matamos con este comando, sustituyendo PID por el número del proceso que habremos averiguado con el comando del paso 1:
sudo kill PID
  1. Por último, volvemos a intentar realizar la gestión APT que nos estaba devolviendo el fallo. Debería permitirnos seguir adelante.

Si esto no lo soluciona, podemos realizar algo más drástico, por lo que habrá que tomar precauciones o dar pasos extra. Esto es hacerlo «a las bravas»: eliminando el archivo /var/lib/dpkg/lock. Los pasos a seguir para hacerlo con total seguridad serían estos:

  1. Hacemos una copia de seguridad del archivo /var/lib/dpkg/lock. Como lo que haremos será copiarlo, podemos usar el gestor de archivos, ya que no se requieren permisos de super usuario. Desde el terminal se podría hacer con cp /var/lib/dpkg/lock nueva-ruta, cambiando «nueva-ruta» por la ruta en la que queremos hacer la copia de seguridad.
  2. Eliminamos el archivo. Para esto sí será necesario tirar de privilegios. Si nuestro gestor de archivos nos lo permite, podemos escribir, por ejemplo, «sudo nautilus» sin las comillas para eliminarlo con interfaz gráfica, pero creo que será más rápido y sencillo abrir el terminal y escribir:
sudo rm /var/lib/dpkg/lock
  1. Con el archivo eliminado ya podemos volver a intentar lo que no se nos permitía. Si escribimos sudo apt update y no vemos el error, el fallo está solucionado.

El reinicio y la paciencia suelen ser lo mejor

Aunque hay maneras de solucionarlo, como las explicadas en el punto anterior, el error »no se pudo bloquear /var/lib/dpkg/lock» no es nada realmente grave y se puede solucionar esperando un momento o reiniciando. Es algo que por lo general se arregla por sí mismo, y si no lo hace, el reinicio es lo menos agresivo y más efectivo. Ahora bien, esto es Linux, y todo o casi todo tiene solución desde el terminal, por no hablar de que podemos «cargarnos» todo lo que nos venga en gana.

Sea por el motivo que sea, espero que lo expuesto aquí haya podido ayudarte, o bien para hacer desaparecer el mensaje con un proceso más agresivo o para que tengas un poco de paciencia.

from Linux Adictos https://ift.tt/wc0f4xi
via IFTTT

«Instalar Software» desaparece momentáneamente de Ubuntu 23.04 y se abre la Snap Store. ¿Fallo temporal o nueva jugarreta de Canonical?

Snap store

Vaya «susto» (entre comillas, que os conozco) me he llevado, y he de reconocer que aún no se me ha pasado. Y es que de Canonical te puedes esperar lo mejor y lo peor, aunque creo que somos más los usuarios que llevamos años en Linux los que pensamos que sus últimos movimientos no son los más acertados o, al menos, los que más nos interesa a sus usuarios. Y es que, mientras escribía un artículo de esos destinados a responder preguntas en uno de nuestros blogs hermanos, he visto lo que muestra la captura de cabecera: ¿qué hacía ahí la Snap Store?

La situación ha sido así: para explicar algunas cosas, he tratado de hacerlo en una máquina virtual de Ubuntu, y la que tengo es de 23.04, la Daily Build en donde puedo ver los progresos que se van haciendo, como el del fondo de pantalla. Trataba de explicar que la manera más sencilla de instalar un paquete DEB en Ubuntu es sencillamente haciendo doble clic sobre él, esperar a que se abra el instalador y luego hacer clic en Instalar. Pero al hacerlo no he visto el icono de Instalar Software ni se me ha abierto Ubuntu Software, si no la Snap Store. La palabra que tenía en la cabeza, además de otras de dudas, era «flipo».

La Snap Store está oculta bajo la alfombra en Ubuntu

La Snap Store no se puede abrir desde el cajón de aplicaciones. No aparece en la búsqueda, pero sí aparece como opción si hacemos clic derecho en un paquete DEB. También aparece ejecutándose en segundo plano constantemente, y en ocasiones consumiendo más de lo que se podría asumir. Pero casi nunca nos damos cuenta de que está ahí. Entonces, ¿qué es lo que ha pasado?

Siendo mal pensado, y los últimos movimientos nos invitan a serlo, podemos pensar que Canonical va a hacer algo extraño que veremos en Ubuntu 23.04. El qué concretamente, no lo sé. Quizá quieran darle más protagonismo a la Snap Store y en el futuro sea la que se encargue de instalar los paquetes DEB locales, pero es que en la actualidad (22.10) falla al intentar instalarlos. Pensando bien, no habría que darle importancia, ya que estamos en la fase del desarrollo y ésta está para usarse como campo de pruebas. Además, me extrañaría mucho que hicieran otro movimiento criticable tan pronto. A quien le vendría bien es al equipo de Linux Mint, que es donde suelen mirar los que se sienten decepcionados con los sabores oficiales de Ubuntu.

Esperemos que se quede en una anécdota más o menos divertida, y que sea sólo eso.

from Linux Adictos https://ift.tt/XoAebU7
via IFTTT

Microsoft Defender añadió el soporte de aislamiento de dispositivos en dispositivos

Microsoft loves linux

Linux Device Isolation es la característica que ofrece Microsoft en Defender

Hace algunos días Microsoft dio a conocer mediante un anunció que agregó el soporte de aislamiento de dispositivos a Microsoft Defender para Endpoint (MDE) en dispositivos Linux integrados.

Cabe mencionar que tal vez para muchos, este tipo de acciones de MS, no sea la gran cosa ni mucho menos y ciertamente les puedo dar la razón, pero personalmente me pareció interesante la noticia, ya que para entornos empresariales y similares que se rigen bajos ciertos requisitos y documentación sobre todo, pueden tener ciertos beneficios y sobre todo es un pequeño grano de arena indirecto para que puedan tomar un poco más en cuenta a Linux, sobre todo en aquellos entornos que se rigen sobre el uso de productos de MS.

Sobre el tema, se menciona que ahora los administradores ahora pueden aislar manualmente las máquinas Linux inscritas mediante el Portal de Microsoft 365 Defender o mediante solicitudes de API.

Una vez aislados, si se llega presentar algún problema ya no se tendrán conexión con el sistema infectado, cortando su control y bloqueando actividades maliciosas como el robo de datos. La función Device Isolation está en versión preliminar pública y refleja lo que el producto ya hace para los sistemas Windows.

“Algunos escenarios de ataque pueden requerir que aísle un dispositivo de la red. Esta acción puede ayudar a evitar que el atacante controle el dispositivo comprometido y realice otras actividades, como la exfiltración de datos y el movimiento lateral. Al igual que los dispositivos de Windows, esta característica de aislamiento del dispositivo desconecta el dispositivo comprometido de la red mientras mantiene la conectividad con el servicio Defender for Endpoint, mientras continúa monitoreando el dispositivo”, explicó Microsoft. Según el gigante del software, cuando el dispositivo está aislado, está restringido en los procesos y destinos web que están permitidos.

Esto significa que si se está detrás de un túnel VPN completo, no se podrá llegar a los servicios en la nube de Microsoft Defender for Endpoint. Microsoft recomienda que los clientes usen una VPN de túnel dividido para el tráfico basado en la nube tanto para Defender for Endpoint como para Defender Antivirus.

Una vez resuelta la situación que provocó el aislamiento, podrán volver a conectar el dispositivo a la red. El aislamiento del sistema se realiza mediante API. Los usuarios pueden acceder a la página de dispositivos de sistemas Linux a través del portal de Microsoft 365 Defender, donde verán una pestaña «Aislar dispositivo» en la parte superior derecha, entre otras opciones.

Microsoft ha descrito las API para aislar el dispositivo y liberarlo del bloqueo.

Los dispositivos aislados se pueden volver a conectar a la red tan pronto como se haya mitigado la amenaza mediante el botón «Liberar del aislamiento» en la página del dispositivo o una solicitud API HTTP «no aislada». Los dispositivos Linux que pueden usar Microsoft Defender para Endpoint incluyen Red Hat Enterprise Linux (RHEL), CentOS, Ubuntu, Debian, SUSE Linux, Oracle Linux, Fedora Linux y Amazon Web Services (AWS) Linux. Esta nueva función en los sistemas Linux refleja una función existente en los sistemas Microsoft Windows.

Para quienes desconocen de Microsoft Defender for Endpoint, deben saber que este es un producto de línea de comandos con características antimalware y de detección y respuesta de puntos finales (EDR) diseñado para enviar toda la información sobre las amenazas que detecta al Portal de Microsoft 365 Defender.

Linux Device Isolation es la característica de seguridad más reciente que Microsoft ha incorporado al servicio en la nube. A principios de este mes, la empresa amplió la protección contra manipulaciones de Defender para Endpoint para incluir exclusiones de antivirus. Todo esto es parte de un patrón más amplio de fortalecimiento de Defender con miras al código abierto.

En su feria Ignite en octubre de 2022, Microsoft anunció la integración de la plataforma de monitoreo de red de código abierto Zeek como parte de Defender para Endpoint para la inspección profunda de paquetes del tráfico de red.

Finalmente si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.

from Linux Adictos https://ift.tt/1XVYf2G
via IFTTT

La Fundación Linux reflexionan sobre los desafíos del cambio climático en la COP27

 

Linux-Foundation

La Fundación Linux es un consorcio tecnológico sin ánimo de lucro establecido para adoptar el crecimiento de Linux

En noviembre del año pasado (2022) se llevó a cabo la cumbre climática COP27, en la cual asistieron representantes de la Green Software Foundation, una fundacion sin fines de lucro de la Fundación Linux y la Fundación Hyperledger, de la Fundación Linux, un proyecto benéfico para blockchains y herramientas de código abierto relacionadas.

Según información del blog de la Fundación Linux, esta última se siente responsable y espera reducir las emisiones de carbono a través de la colaboración global. También según el blog de la fundación, Linux e Hyperledger, creen que tienen un papel que desempeñar en la rápida evolución del ecosistema.

Los miembros de OS-Climate, el Grupo de Interés Especial de la Fundación Hyperledger sobre Contabilidad y Acción Climática y la Fundación Green Software recibieron el estatus de observadores para unirse a líderes de organizaciones gubernamentales, empresariales y no gubernamentales para trabajar en la solución del problema del cambio climático.

En la COP27, una cosa quedó clara para muchos: la complejidad de la crisis climática y el ritmo de cambio necesario requerirán enfoques de código abierto para la resolución de problemas y el intercambio de información. Solo entonces lograremos la colaboración global necesaria para reducir colectivamente las emisiones de carbono y adaptar nuestras comunidades para sobrevivir a los fenómenos meteorológicos extremos. Las fundaciones Linux e Hyperledger tienen un papel que desempeñar en este ecosistema en rápida evolución.

En una publicación de blog, los líderes del proyecto de sostenibilidad de la fundación Linux compartieron sus conclusiones de la conferencia. Escribieron que está «claro para muchos» que el ritmo de cambio necesario para enfrentar la crisis climática requiere enfoques de código abierto para la resolución de problemas y el intercambio de información.

Truman Semans, director ejecutivo de OS-Climate , compartió, que el personal de OS-C dedicó “algunos cientos de horas” y USD 90 000 preparándose para asistir.

Las Conferencias de las Partes (COP) son circos de tres pistas que comprenden (1) negociaciones intergubernamentales, (2) conferencias y ferias comerciales, y (3) conferencias de la sociedad civil. Han tenido lugar todos los años desde la COP1 de 1995 en Berlín, en la que participé como miembro de la delegación americana. Pasaron de unos cientos de participantes en ese momento a 49.704 en la COP27.

El objetivo principal de las COP es impulsar la acción de las naciones en materia de mitigación, adaptación y resiliencia al cambio climático a través de acuerdos intergubernamentales sobre políticas públicas y financiamiento. Una segunda misión es ayudar a los «actores no estatales», incluidas las empresas y las instituciones financieras, a tomar medidas. Las organizaciones académicas y las ONG están involucradas para proporcionar información al proceso de negociación y presionar a los gobiernos.

Para que una organización obtenga un valor significativo de su participación en una COP, debe invertir mucho tiempo, esfuerzo y dinero. 

Creemos que la Fundación Linux (FL) puede y debe ser la organización líder para organizar y permitir acciones de código abierto sobre análisis y datos climáticos. Muchos actores de código abierto están involucrados en el proceso de la CMNUCC, en negocios y finanzas, y en la sociedad civil, pero es la Fundación Linux la que tiene la experiencia y las capacidades necesarias.

La inversión de tiempo, esfuerzo y recursos de la Fundación Linux podría afectar la acción climática global, el medio ambiente global en sí mismo y las vidas de miles de millones de personas.

La Fundación Linux tiene una oportunidad única de desempeñar un papel de liderazgo en este espacio, y la oportunidad es enorme. COP27 fue una oportunidad para iniciar conversaciones con actores clave para ayudarlos a comprender por qué deberían trabajar dentro de nuestro ecosistema y dónde encajan. Estas relaciones serán críticas para fortalecer nuestra agencia para impactar positivamente este importante espacio de problemas en evolución.

Por lo tanto, luego de esta cumbre, la Fundación Linux se compromete a explorar cómo los diferentes modelos de datos, los estándares vigentes y las tecnologías de código abierto podrían conducir a una economía menos intensiva en carbono. De hecho, según Linux Foundation, se le ofrece una oportunidad crucial frente a esta situación. Agrega que al desarrollar soluciones de código abierto que proporcionen datos de emisiones de carbono precisos, actualizados, organizados, accesibles e interoperables, ayudaría a reducir los efectos del cambio climático.

Idealmente, las herramientas de código abierto estarán disponibles para administradores de activos, bancos, propietarios de activos y empresas de la economía real. Así, se puede acelerar el flujo de inversión y financiación.

Finalmente si estás interesado en poder conocer as al respecto, puedes consultar los detalles en el siguiente enlace.

from Linux Adictos https://ift.tt/khVqsQv
via IFTTT

La filtracion del código Yandex revela varios detalles de clasificación del motor de búsqueda ruso

Yandex

Yandex es un motor de búsqueda y un portal web

Hace algunos días se dio a conocer información sobre la filtración de casi 45 GB de archivos de código fuente del gigante tecnológico ruso «Yandex», presuntamente robados por un ex empleado y los cuales han revelado los fundamentos de las muchas aplicaciones y servicios del motor de búsqueda que casi nunca se revelan al público.

Las «git sources of Yandex» se lanzaron como un archivo torrent el 25 de enero y muestran archivos aparentemente tomados en julio de 2022 y que datan de febrero de 2022. El ingeniero de software Arseniy Shestakov afirma que verificó con empleados actuales de Yandex que algunos archivos «ciertamente contienen código de los servicios de la empresa».

La empresa de tecnología rusa Yandex se disculpó después de que se encontraran insultos raciales en este código fuente filtrado, diciendo que no hubo violación de datos. La semana pasada se encontraron varias referencias a insultos raciales, incluida la «palabra N», en el código fuente de la compañía.

El ingeniero de software Arseniy Shestakov analizó el repositorio Yandex Git filtrado y dijo que contiene datos técnicos y códigos de los siguientes productos:

  • motor de búsqueda Yandex y bot de indexación
  • Mapas Yandex
  • Alice (asistente de IA)
  • Yandex Taxi
  • Yandex Direct (servicio de anuncios)
  • Yandex mail
  • Yandex Disk (servicio de almacenamiento en la nube)
  • Yandex market
  • Yandex Travel (plataforma de reserva de viajes)
  • Yandex360 (servicio de espacios de trabajo)
  • Yandex cloud
  • Yandex Pay (servicio de procesamiento de pagos)
  • Yandex Metrika (analítica web).

Shestakov también compartió una lista de directorios de los archivos filtrados en GitHub para aquellos que quieren ver el código fuente fue robado.

«Hay al menos algunas claves API, pero probablemente solo se usen para probar la implementación», dijo Shestakov sobre los datos filtrados.

En un comunicado, Yandex dijo que sus sistemas no fueron hackeados y que un ex empleado filtró el repositorio del código fuente:

Yandex no fue hackeado. Nuestro servicio de seguridad encontró fragmentos de código de un repositorio interno de dominio público, pero el contenido difiere de la versión actual del repositorio utilizado en los servicios de Yandex.

Un repositorio es una herramienta para almacenar y trabajar con código. El código se utiliza de esta manera internamente por la mayoría de las empresas.

Los repositorios son necesarios para trabajar con código y no están destinados a almacenar datos personales de los usuarios. Estamos realizando una investigación interna sobre los motivos del lanzamiento público de fragmentos de código fuente, pero no vemos ninguna amenaza para los datos de los usuarios o el rendimiento de la plataforma.

Los registros datan en particular de febrero de 2022, cuando Rusia lanzó una invasión a gran escala de Ucrania. Un ex ejecutivo de Yandex dijo que la filtración era «política» y señaló que el ex empleado no había intentado vender el código a los competidores de Yandex. El código antispam tampoco fue revelado.

Si bien no está claro si la revelación del código fuente de Yandex tiene implicaciones estructurales o de seguridad, la filtración de 1.922 factores de clasificación en el algoritmo de búsqueda de Yandex ciertamente está causando sensación.

La empresa de tecnología rusa Yandex se disculpó después de que se encontraran insultos raciales en el código fuente filtrado. Se encontraron varias referencias a insultos raciales en el código fuente de la empresa. Un investigador reveló por primera vez el uso de terminología ofensiva en una serie de publicaciones en Twitter el 26 de enero, lo que generó fuertes críticas.

En un comunicado, Yandex dijo que una investigación inicial mostró que el código filtrado «parece ser fragmentos antiguos diferentes de la versión actual del repositorio de la compañía». La compañía agregó que el código filtrado «nunca habría afectado ninguno de los servicios de la compañía».

“Lamentamos profundamente que estas palabras hayan aparecido en nuestros códigos internos”, dijo Yandex. «Esto es inaceptable y una violación flagrante de nuestra ética corporativa». «Actualmente estamos realizando una revisión interna para comprender mejor cómo sucedió esto, y tomaremos las medidas apropiadas, incluso para asegurarnos de que esto no vuelva a suceder».

Se rociaron insultos raciales en la base de código Git filtrada de Yandex. Se han utilizado en nombres de funciones y variables, mensajes impresos y otros lugares en archivos de configuración.

Los desarrolladores suelen utilizar términos o nombres específicos para ayudar a otros desarrolladores a comprender qué función o acción realiza una determinada línea de código.

Cabe mencionar que este no es el primer problema de este tipo al que se enfrenta Yandex, ya que en 2015 vio desaparecer el código de su motor de búsqueda, cuando un exempleado intentó venderlo en el mercado negro por 28.000 dólares para financiar su propia startup. El número sorprendentemente bajo del código principal del producto principal de Yandex sugirió que desconocía su valor real. Este empleado recibió una sentencia suspendida de dos años y el código nunca se vio públicamente.

Finalmente si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.

from Linux Adictos https://ift.tt/WegORPK
via IFTTT

Descubrieron que smartphones Realme, Xiaomi y OnePlus filtraban datos personales

fuga de datos en smartphones

La privacidad del sistema operativo Android bajo la lupa

Hace poco se dio a conocer la noticia de que un grupo de investigadores de la Universidad de Edimburgo publicaron el resultado de un análisis realizado en los teléfonos inteligentes de las marcas Realme, Xiaomi y OnePlus suministrados a los mercados chino y mundial y en el cual detectaron que estos tenían algo en particular, «fugas de datos personales».

Se ha descubierto que todos los dispositivos con firmware a la venta en China envían información adicional a los servidores de recopilación de telemetría, como el número de teléfono del usuario, estadísticas de uso de la aplicación, así como datos de ubicación, IMSI (Número de suscriptor individual), ICCID (Número de serie de la tarjeta SIM ) y los puntos de acceso inalámbrico circundantes. Además, se ha informado que los dispositivos Realme y OnePlus transmiten el historial de llamadas y SMS.

China es actualmente el país con el mayor número de usuarios de teléfonos inteligentes con Android. Usamos una combinación de técnicas de análisis de código estática y dinámica para estudiar los datos transmitidos por las aplicaciones del sistema preinstaladas en los teléfonos inteligentes Android de tres de los vendedores más populares en China.

Encontramos que un número alarmante de las aplicaciones de proveedores y de terceros, del sistema preinstalado, tienen privilegios peligrosos.

Cabe mencionar que en el firmware para el mercado global, dicha actividad no se observa con algunas excepciones, por ejemplo, los dispositivos Realme envían MCC (código de país) y MNC (código de red móvil), y los dispositivos Xiaomi Redmi envían datos sobre Wi-Fi conectado, IMSI y estadísticas de uso.

Independientemente del tipo de firmware, todos los dispositivos envían un identificador IMEI, una lista de aplicaciones instaladas, la versión del sistema operativo y los parámetros de hardware. Los datos se envían mediante aplicaciones del sistema instaladas por el fabricante sin el consentimiento del usuario, sin notificación de envío e independientemente de la configuración de privacidad y la telemetría de envío.

A través del análisis de tráfico, encontramos que muchos de estos paquetes pueden transmitir a muchos dominios de terceros, información confidencial de privacidad, relacionados con el dispositivo del usuario (identificadores persistentes), geolocalización (GPS
coordenadas, identificadores relacionados con la red), perfil de usuario (número de teléfono, uso de la aplicación) y relaciones sociales (por ejemplo, historial de llamadas), sin consentimiento o incluso notificación.

Esto plantea una grave desanonimización y seguimiento, ademas de riesgos que se extienden fuera de China cuando el usuario se va
del país, y pide una aplicación más rigurosa de la legislación de privacidad de datos adoptada recientemente.

En un teléfono Redmi, los datos se envían al host tracking.miui.com cuando se abren y usan las aplicaciones preinstaladas del fabricante, como Configuración, Notas, Grabadora, Teléfono, Mensajes y Cámara, independientemente del consentimiento del usuario, para enviar datos de diagnóstico durante la configuración inicial. En los dispositivos Realme y OnePlus, los datos se envían a los hosts log.avlyun.com, aps.oversea.amap.com, aps.testing.amap.com o aps.amap.com.

El servidor de tunelización recibe conexiones del teléfono y las reenvía a los destinos previstos, se menciona que los investigadores implementaron un proxy intermediario para poder interceptar y descifrar el trafico HTTP/HTTPS.

Para aislar completamente las solicitudes iniciadas por un teléfono de Huawei en la Mensajería en la nube que sirve para monitorear la máquina virtual alojada (VM), se creo un túnel llamado que ejecuta el servidor proxy de tunelización. También ejecutaron mitmproxy 8.0.0 con permisos de superusuario en el puerto 8080 en la VM y se configuro iptables para redirijir cualquier conexión TCP del túnel a locahost:8080.

De esta manera, mitmproxy se comunica con el teléfono en nombre de las solicitudes de los puntos finales del servidor e inicia nuevas solicitudes a los puntos finales del servidor de destino haciéndose pasar por el teléfono, lo que permite que mitmproxy intercepte cada solicitud

De los problemas identificados, también se destaca la inclusión en la entrega de aplicaciones adicionales de terceros, a las que se les otorgan permisos extendidos por defecto. En total, en comparación con el código base de Android AOSP, cada firmware considerado viene con más de 30 aplicaciones de terceros preinstaladas por el fabricante.

Finalmente si estás interesado en poder conocer más al respecto, puedes consultar los detalles en el siguiente enlace.

from Linux Adictos https://ift.tt/IVPQAw3
via IFTTT

Chrome 110 llega con autenticación biométrica, modo headless y dice adios a Windows 7/8/8.1

chrome

El navegador Chrome se diferencia de Chromium en el uso de los logotipos de Google

Se dio a conocer el lanzamiento de la nueva versión del popular navegador web, Google Chrome 110, la cual llega cargada de un montón de cambios y nuevas características, de las cuales tal vez la más importante el soporte para la autenticación biométrica, entre otras cosas más.

Además de las innovaciones y la corrección de errores, se han corregido 15 vulnerabilidades en la nueva versión. Como parte del programa para pagar recompensas en efectivo por encontrar vulnerabilidades para la versión actual, Google pagó 10 premios por un monto de 26,5 mil dólares (un premio de $7000, $4000 y $1500, dos premios de $3000 y $1000, tres premios de $2000).

Principales novedades de Chrome 110

En Chrome 110 podremos encontrar que se implementó la capacidad opcional de usar autenticación biométrica antes de cada llenado automático de campos con contraseñas.

Otro de los cambios que se destaca, es que se actualizó la implementación del modo de operación headless, que permite ejecutar el navegador en sistemas sin un subsistema de monitor y gráficos, por ejemplo, en servidores. La nueva implementación se acerca más al modo normal de funcionamiento de Chrome y admite funciones tan avanzadas como la contabilidad de las políticas corporativas.

Ademas de ello, cuando la protección avanzada del navegador está habilitada (Navegación segura > Protección mejorada), se recopila telemetría sobre las cookies solicitadas por los complementos para detectar actividad maliciosa por parte de Google en los complementos y el acceso inapropiado a los identificadores transmitidos a través de las Cookies.

Simplificó el proceso de cambio de contraseña en caso de compromiso de la base de usuarios en el sitio actual. En la herramienta de verificación de contraseña, se ha ampliado la base de enlaces a los formularios para cambiar contraseñas de varios sitios (ahora puede pasar inmediatamente a cambiar la contraseña desde la notificación de compromiso del sitio).

Para aplicaciones web independientes, se implementa una página predeterminada, que se muestra en caso de problemas con el acceso a la red, si los desarrolladores de la aplicación web no proporcionaron la capacidad de trabajar sin conexión.

Además, la nueva versión en Android, Chrome 110 brinda sincronización de la lista blanca para los modos «Navegación segura mejorada» y «Mejorar la navegación» mediante el componente de entrega de actualizaciones periódicas, lo que aumentará la velocidad de carga de nuevas versiones de la lista blanca.

Tambien, se menciona que se suspendió el soporte para los sistemas operativos Windows 7/8/8.1 y se suspendió parcialmente el soporte para las ediciones Windows Server 2012 y 2012 R2, por lo que es posible generar actualizaciones con vulnerabilidades críticas hasta el 10 de octubre.

De los cambios para desarrolladores, se destaca que, se agregó el método remove() se ha agregado a FileSystemHandle API para eliminar archivos mediante el descriptor de archivo asociado con el archivo seleccionado por el usuario en el cuadro de diálogo showSaveFilePicker.

Se ha agregado el método AudioContext.setSinkId(), a través del cual puede seleccionar un dispositivo para la salida de sonido, por ejemplo, cuando el usuario necesita redirigir el sonido a un dispositivo externo conectado, ademas de que se bloqueó por completo la capacidad de usar la API de WebSQL, independientemente del contexto (anteriormente, el uso de WebSQL estaba prohibido solo en scripts no cargados desde el sitio actual).

De los demás cambios que se destacan:

  • Se suspendió la compatibilidad con WebSQL porque la API no era compatible con otros navegadores, estaba vinculada a una API de biblioteca externa y aumentaba el riesgo de problemas de seguridad (los atacantes podrían usar WebSQL para explotar vulnerabilidades en SQLite).
  • Se eliminó la API de administración de cuotas window.webkitStorageInfo, que quedó obsoleta desde 2013 y se reemplazó con la API StorageManager estandarizada.
  • Se han realizado mejoras en las herramientas para desarrolladores web.
  • El contenido del panel Rendimiento se borra cuando se hace clic en el botón de recarga de página.
  • La grabadora tiene resaltado de código asociado con la etapa actual de ejecución, la capacidad de editar contenido sin interrumpir la grabación y la capacidad de grabar solo ciertos tipos de selectores.
  • En la consola web, se han ampliado las posibilidades de autocompletado de entrada.
  • En el panel Fuentes, de forma predeterminada, el formato visual del código JavaScript minificado está habilitado y se ha mejorado el resaltado de estructuras Vue, JSX, Dart, LESS, SCSS, SASS y CSS en línea.

¿Como instalar Google Chrome 110 en Linux?

Si estás interesado en poder instalar esta nueva versión de este navegador web y aún no lo tienes instalado, puedes visitar la siguiente publicación en donde te enseñamos a como poder instalarlo en algunas distribuciones de Linux.

El enlace es este. 

from Linux Adictos https://ift.tt/LQTdBF0
via IFTTT