Steam Machine 2026: ¿llegará la consola-PC al salón o seguirán las dudas?

Dudas con la Steam Machine

Las noticias para quienes esperábamos una Steam Machine son, por decirlo suavemente, mixtas. Valve anunció una consola-PC destinada al salón con la promesa de llegar en la primera mitad de 2026, pero la coyuntura actual de IA y la inflación de componentes han complicado el calendario. A fecha de marzo, la Steam Machine, así como sus accesorios (Controller y Frame), siguen generando más preguntas que respuestas.

Elplantamiento del resumen anual de Steam de 2025 apunta a un mensaje claro: la llegada está prevista para la primera mitad de 2026, pero la escasez de memoria y almacenamiento ha creado desafíos. La pregunta sigue siendo si Valve podrá mantener ese plazo sin sacrificar rendimiento ni precio.

Steam Machine en la primera mitad de 2026… ¿sí o no?

Existe cierta inconsistencia entre la cobertura y el propio resumen: algunos medios hablan de “algún momento de 2026”, mientras el informe oficial habla de “primera mitad de 2026”. En este punto, el factor determinante será la capacidad de Valve para equilibrar el coste de hardware y la demanda creciente, impulsada por tendencias como la IA y las soluciones de procesamiento gráfico de alto rendimiento.

El tema no es trivial: la generación de contenidos con Machine Learning exige GPUs potentes, RAM para servidores y almacenamiento para datos. Esa demanda golpea directamente a la oferta y, por ende, a los precios. Si la escasez persiste, el precio de la Steam Machine podría verse afectado de forma significativa.

No pueden demorar mucho el lanzamiento

La estrategia de Valve pasa por lanzar el dispositivo en el momento adecuado: un equipo que agrupe el hardware más utilizado en Steam 2025, a un precio que resulte razonable para el usuario medio. Pero si la disponibilidad se demora, corre el riesgo de que el hardware deje de ser tan actual como se deseaba en 2026, complicando la propuesta de valor.

Por ello, la conclusión es clara: no pueden tardar mucho más en anunciar la disponibilidad. La ventana debe cerrarse con un anuncio concreto para evitar que el hardware pierda vigencia y que el valor percibido se degrade.

Especulando: qué podría pasar

Se abren escenarios posibles, todos plausibles:

  1. Valve espera un momento en que los precios se asienten, o negocian mejores condiciones para adquirir grandes volúmenes de componentes. Esto sería ideal para fijar un precio estable.
  2. La espera no mejora la situación y los precios se mantienen altos. Valve podría cubrir la diferencia asumiendo pérdidas o manteniendo precios competitivos similares a los de la Steam Deck, dependiendo de su estrategia.
  3. Se retrasa la Steam Machine para esperar un mejor momento, pero el hardware podría quedar desfasado frente a tecnologías posteriores.
  4. Podrían evaluarse cambios en el hardware para ajustar el producto al momento de su lanzamiento, si las condiciones del mercado son desfavorables.

Si tuviera que apostar, parecería razonable pensar en un anuncio de disponibilidad para junio, con el hardware original o con un ligero ajuste de precio. En cualquier caso, la experiencia de juego y la viabilidad de títulos como Borderlands 4 seguirán siendo indicadores clave para medir el atractivo de una Steam Machine frente a soluciones ya consolidadas.

from Linux Adictos https://ift.tt/wnKmNxp
via IFTTT

TUXEDO InfinityBook Max 16 AMD: potencia y versatilidad para Linux en formato de 16 pulgadas

El fabricante alemán TUXEDO Computers refuerza su apuesta por los portátiles Linux de alto rendimiento con la llegada del nuevo TUXEDO InfinityBook Max 16 en su versión basada en procesadores AMD Ryzen AI. Este modelo se posiciona como alternativa directa a la edición con Intel Core Ultra presentada anteriormente, manteniendo prácticamente intacto el diseño y la filosofía, pero cambiando el corazón del equipo por la nueva generación de chips de AMD con motor de inteligencia artificial integrado.

La propuesta está claramente pensada para quienes necesitan una estación de trabajo portátil con Linux que combine potencia de CPU, gráfica dedicada y buena autonomía, sin disparar el peso ni sacrificar un formato relativamente fino. Con un panel de 16 pulgadas en formato 16:10, gráficos NVIDIA de la serie RTX 50 y una batería de 99 Wh, el InfinityBook Max 16 AMD se coloca como opción seria tanto para desarrollo de software y creación de contenidos como para jugar en condiciones.

TUXEDO InfinityBook Max 16: diseño sobrio, chasis de aluminio y menos de 2,2 kg

El nuevo modelo mantiene el enfoque de TUXEDO en un diseño discreto y funcional, con un chasis íntegramente fabricado en aluminio que busca equilibrar robustez y portabilidad. A pesar de integrar una batería de gran capacidad, un sistema de refrigeración algo más voluminoso que el de la gama Pro y una GPU dedicada, el peso se queda ligeramente por encima de los 2 kg (alrededor de 2,1-2,2 kg según configuración), otros 1-2 kilos en un portátil de 16 pulgadas con este hardware.

El teclado llega en formato completo, con bloque numérico independiente de cuatro filas, flechas de tamaño estándar desplazadas para mejorar la ergonomía y retroiluminación RGB configurable. Este detalle permite adaptar el tono a un estilo más sobrio de oficina o darle un punto más “gaming” sin caer en estridencias. Además, TUXEDO ha colocado los puertos de alimentación y vídeo menos habituales en la parte trasera del equipo, de forma que es más sencillo mantener el escritorio ordenado y reducir el enredo de cables.

Pantalla de 16 pulgadas 16:10 con hasta 300 Hz

Uno de los puntos que más destacan en este modelo es la pantalla de 16 pulgadas con relación de aspecto 16:10, orientada a quienes pasan horas mirando el panel ya sea programando, editando vídeo o jugando. El formato algo más alto que el clásico 16:9 permite aprovechar mejor el espacio vertical para líneas de código, pistas de edición o ventanas múltiples.

En la configuración más habitual, el portátil monta un panel LED mate con resolución 2560 x 1600 píxeles, brillo de 500 nits y tasa de refresco de hasta 300 Hz, con cobertura del 100 % del espacio de color DCI-P3. Estas características lo hacen interesante tanto para tareas de diseño y posproducción como para juegos competitivos donde una alta tasa de refresco marca la diferencia. La tapa puede abrirse hasta 180°, lo que facilita su uso con soportes, atriles u otras superficies menos convencionales, y se acompaña de una webcam Full HD con obturador físico para mayor privacidad.

Algunas variantes incorporan además opciones de pantalla OLED brillante con resolución 2880 x 1800 píxeles y frecuencia de 120 Hz, también con cobertura completa DCI-P3. Esta alternativa está orientada a quienes priorizan contraste y calidad de imagen absoluta frente a la máxima fluidez, manteniendo el enfoque en trabajos de imagen y vídeo exigentes.

Plataforma AMD Ryzen AI 300: CPU eficiente y NPU integrada

El salto principal de esta generación está en el procesador: el InfinityBook Max 16 incorpora chips AMD Ryzen AI 300, pensados para ofrecer un equilibrio entre rendimiento bruto y consumo contenido. TUXEDO ofrece tres opciones: Ryzen AI 7 350 con 8 núcleos, Ryzen AI 9 365 con 10 núcleos y Ryzen AI 9 HX 370 con 12 núcleos, todos con un rango de consumo configurable entre 10 y 90 W.

Más allá de las cifras de CPU, estos procesadores integran un motor de inteligencia artificial dedicado (NPU) capaz de acelerar localmente tareas de generación de imagen o texto, asistentes basados en IA y otros procesos similares. En términos de potencia de cálculo, se habla de hasta 66 TOPS en el Ryzen AI 7 350, 73 TOPS en el Ryzen AI 9 365 y 80 TOPS en el Ryzen AI 9 HX 370, situando al modelo tope de gama entre las referencias de su categoría para aplicaciones de IA ejecutadas directamente en el portátil.

TUXEDO InfinityBook Max 16 con gráficas NVIDIA RTX 50 para trabajo profesional y gaming

La vertiente gráfica se apoya en GPU dedicadas NVIDIA GeForce RTX 50, con dos opciones: GeForce RTX 5060 y GeForce RTX 5070. Según los datos facilitados por la compañía, la RTX 5070 rinde en torno a un 15 % más que la 5060, y ambas ofrecen un salto aproximado de entre tres y cuatro veces respecto a la GPU integrada Radeon 890M, lo que marca la diferencia en tareas de renderizado, edición 3D y juegos con ajustes altos.

El consumo de estas tarjetas se puede ajustar entre 45 y 115 W de TGP (45 a 115 W en la RTX 5060 y 50 a 115 W en la RTX 5070) a través del TUXEDO Control Center. Esta herramienta permite al usuario decidir si prefiere exprimir al máximo el rendimiento gráfico o priorizar un funcionamiento más silencioso, reduciendo así el ruido de los ventiladores cuando la carga no requiere toda la potencia disponible.

Refrigeración de bajo perfil y hasta 160 W combinados

Para poder disipar el calor generado por una CPU Ryzen AI de hasta 12 núcleos y una GPU RTX 50 en un chasis relativamente fino, TUXEDO ha optado por un sistema de refrigeración de 8 mm de grosor, algo más grande que el de la gama Pro 15 (7 mm) pero prácticamente igual de delgado en mano. Con este diseño, el equipo puede manejar hasta 160 W de potencia combinada (CPU + GPU) a plena carga con los ventiladores al máximo.

Desde el TUXEDO Control Center, el usuario puede modular perfiles de rendimiento y ruido, ajustando el comportamiento de la ventilación según el escenario: desde un modo más agresivo orientado a sesiones de juego o renders largos, hasta perfiles más contenidos si se trabaja en entornos silenciosos. La propia marca recuerda que, si alguien prioriza un funcionamiento todavía más silencioso por encima de la extrema delgadez, dentro de su catálogo existen opciones con sistemas de refrigeración de mayor sección.

Memoria, almacenamiento y posibilidades de ampliación del TUXEDO InfinityBook Max 16

Uno de los puntos fuertes tradicionales de TUXEDO es mantener una configuración interna muy flexible. El InfinityBook Max 16 AMD ofrece dos ranuras SO-DIMM DDR5 con soporte para módulos hasta DDR5-5600, permitiendo instalar hasta 128 GB de memoria RAM, algo poco habitual en portátiles dirigidos al público general.

En cuanto al almacenamiento, el equipo incorpora dos ranuras M.2 2280 para SSD: una conectada a un bus PCIe 5.0 x4 y otra a PCIe 4.0 x4. Combinadas, admiten hasta 8 TB de capacidad, pensados para quienes manejan grandes proyectos de vídeo, bibliotecas de assets, máquinas virtuales o entornos de desarrollo pesados. Tanto la RAM como las unidades SSD están diseñadas para poderse actualizar con relativa facilidad, algo valorado en mercados donde se tiende a alargar la vida útil de los equipos.

Conectividad completa: USB4, HDMI 2.1 y hasta cuatro monitores externos

El apartado de puertos está bien cubierto, con un enfoque en usuarios que trabajan con varios monitores y periféricos. El InfinityBook Max 16 incluye USB4, otros dos puertos USB-C adicionales, tres puertos USB-A 3.x, una salida HDMI 2.1 y un Mini DisplayPort, además de conexión de red cableada de 2,5 GbE en determinadas configuraciones.

Gracias a esta combinación, el equipo puede gestionar hasta cuatro pantallas externas además de la propia, algo interesante para desarrollo, trading, edición de vídeo o entornos corporativos complejos. Los puertos USB-C permiten carga mediante Power Delivery de hasta 140 W, mientras que las salidas de vídeo y la alimentación ubicadas en la parte trasera ayudan a mantener los cables más permanentes fuera de la vista.

Batería de 99 Wh, carga rápida por USB-C y adaptador GaN de 240 W

En el terreno de la autonomía, TUXEDO apuesta por una batería de 99 Wh, que es el máximo permitido en vuelos comerciales sin trámites adicionales. La marca habla de hasta unas 7 horas de reproducción de vídeo vía Wi-Fi, aunque como siempre la duración real dependerá de la carga de trabajo, el brillo de pantalla y el perfil de rendimiento seleccionado.

Para alimentar el equipo a pleno rendimiento, se incluye un adaptador GaN de 240 W de tamaño relativamente compacto en comparación con su potencia. Aun así, si en determinados momentos se prioriza movilidad frente a máximo rendimiento, el portátil admite también carga por USB-C hasta 140 W, algo práctico para viajes o para compartir cargador con otros dispositivos que usen el mismo estándar.

Linux como base, soporte para TUXEDO OS, Ubuntu y Windows 11

Fiel a la filosofía de la marca, el InfinityBook Max 16 AMD se concibe como un equipo pensado para Linux desde el inicio. De serie puede enviarse con TUXEDO OS, la distribución propia de la compañía basada en Linux y orientada a sacar partido al hardware sin complicaciones iniciales, o con Ubuntu 24.04, una de las distribuciones más extendidas en entornos profesionales y educativos.

Además del soporte oficial para estas distribuciones, el fabricante ofrece controladores específicos y herramientas propias para facilitar la gestión del hardware desde Linux, así como la opción de cifrado completo de disco en las instalaciones preconfiguradas. Como novedad frente a generaciones anteriores, también se contempla de forma oficial la instalación de Windows 11, lo que puede resultar útil en escenarios mixtos donde se alternan herramientas nativas de Linux y software que solo está disponible para el sistema de Microsoft.

Precios, configuraciones base y disponibilidad del TUXEDO InfinityBook Max 16

En lo relativo al precio, TUXEDO sitúa la configuración base del modelo AMD en el rango de los 1.470 a 1.778 euros, con diferencias según impuestos y mercado. Una de las combinaciones de entrada habituales incluye procesador AMD Ryzen AI 7 350, gráfica NVIDIA GeForce RTX 5060, 16 GB de RAM DDR5-5600 y un SSD de 1 TB, con TUXEDO OS preinstalado. A partir de ahí, es posible escalar hasta opciones con Ryzen AI 9 HX 370 y RTX 5070, que elevan el precio por encima de los 2.000 euros.

La compañía ha abierto ya el periodo de reserva, con las primeras unidades previstas para enviarse a finales de marzo en el mercado europeo. Dependiendo del país, el precio final variará en función del IVA y posibles tasas de importación, pero la estrategia pasa por competir en el segmento de estaciones de trabajo y portátiles gaming de gama alta, ofreciendo como diferencial el soporte nativo y especializado para Linux.

Con este lanzamiento, TUXEDO refuerza su catálogo de portátiles de 16 pulgadas orientados a usuarios que necesitan una máquina potente, relativamente ligera y con soporte sólido para Linux, añadiendo la alternativa AMD Ryzen AI a la ya existente con Intel. Entre la pantalla de alta calidad, la combinación de CPU Ryzen AI 300 y GPU RTX 50, la batería de 99 Wh y las amplias posibilidades de ampliación, el InfinityBook Max 16 AMD se posiciona como una opción a tener en cuenta para profesionales y entusiastas que trabajan o juegan principalmente en entornos basados en Linux.

from Linux Adictos https://ift.tt/YWd5sHJ
via IFTTT

WINE 11.4: avance constante en la compatibilidad de Windows en Linux y más allá

La familia de herramientas que permite ejecutar aplicaciones y juegos de Windows en sistemas operativos no Windows sigue avanzando a buen ritmo. WineHQ ha lanzado una nueva versión de desarrollo, WINE 11.4, para continuar preparando las futuras actualizaciones mayores. Es importante notar que este lanzamiento de desarrollo no debe confundirse con una versión estable; la que se considera estable sigue siendo WINE 11.0, con la siguiente corrección planificada en la v11.0.1. Este ciclo de lanzamientos quincenales está orientado a pulir y ampliar la compatibilidad de cara a la gran actualización mayor que llegará en etapas posteriores.

Entre las mejoras notables de WINE 11.4 se destacan la reimplementación del lector SAX en MSXML, optimizaciones en el remuestreo de DirectSound, y una ruta prometedora hacia una implementación adecuada de CFGMGR32, además de una mejor coincidencia de zonas horarias de Unix. En términos cuantitativos, esta versión registra 221 cambios y corrige 17 fallos reportados por la comunidad de usuarios y desarrolladores.

Bugs corregidos en WINE 11.4

  • Xara Xtreme 4: los controles de redimensionamiento ya son visibles.
  • Los identificadores (handles) de CreateProcess se heredan incluso cuando bInheritHandles=FALSE.
  • El treeview de Explorer++ muestra signos más sólo cuando procede, evitando confusión en carpetas sin subcarpetas.
  • CodeGear RAD Studio 2009 falla al iniciar por necesidad de soportar la característica de normalizar saltos de línea en ISAXXMLReader::putFeature.
  • El instalador de FL Studio 12.4 y Janetter 4.1.1.0 falla por ausencia de la clave HKCU\Software\Microsoft\Windows\CurrentVersion\Internet Settings\ProxyEnable.
  • El instalador de Xilinx Vivado 2014.4 falla por un systeminfo incompleto.
  • El juego Gag experimenta bloqueos en determinadas circunstancias.
  • La autorización de ciertos softwares es corregida para evitar interrupciones.
  • Native Access 2 mostraba el círculo de carga de forma permanente tras ingresar credenciales.
  • ROMCenter se bloqueaba al crear la base de datos, con una excepción de E/S que indicaba la imposibilidad de localizar el recurso images/defaultsystemicon.png (MONO 8.1 era el problema).
  • La ventana de búsqueda de SSFpres aparecía detrás de la ventana principal desde Wine 10.5.
  • Se corrige un error con Pronote durante su actualización.
  • En C++, se corrige un uso posterior a la liberación de memoria al emplear catch() junto a std::rethrow_exception().
  • Roblox Studio ya no exige la DLL msvcp140.dll de forma incorrecta.
  • FormatMessageW ya no falla para llamadas de función bien formadas que bloqueaban la aplicación.
  • Se estabilizan elementos de TreeView que podían desaparecer tras TVM_INSERTITEM+TVM_EXPAND+TVM_EDITLABEL.
  • Wine-staging dejó de depender de la presencia de -lvkd3d para poder compilarse correctamente.

Disponibilidad y próximos pasos

WINE 11.4 ya está disponible para descarga desde la página oficial de WineHQ. En la página de descargas se ofrece información detallada sobre cómo instalar esta versión, así como otros lanzamientos en Linux, macOS y Android. Mirando hacia adelante, la próxima entrega, WINE 11.5, está prevista para dentro de dos semanas siguiendo el calendario habitual, y está diseñada para preparar la gran versión mayor WINE 12.0 que se espera para principios de 2027. Este ritmo de actualizaciones se mantendrá durante el año, con fases de Release Candidate más frecuentes a medida que se acerque la transición a nuevas ramas de desarrollo.

Si estás evaluando compatibilidad o llevando a cabo pruebas de software que dependa de compatibilidad con Windows en Linux u otros sistemas, WINE 11.4 representa un paso significativo para resolver problemas conocidos y ampliar el abanico de aplicaciones que pueden funcionar sin requerir un entorno Windows nativo.

from Linux Adictos https://ift.tt/zr2CWGv
via IFTTT

Microslop: el meme que expone la tensión entre IA y experiencia de usuario en Windows

Microslop

El término Microslop se ha convertido en uno de los símbolos más incómodos para Microsoft en plena carrera por la inteligencia artificial. Lo que empezó como una broma en redes sociales ha terminado evidenciando un malestar profundo entre los usuarios de Windows 11 y de Copilot, que perciben la nueva ola de funciones de IA más como un estorbo que como una ayuda real.

El episodio que ha destapado esta tensión ha tenido lugar en el servidor oficial de Discord de Microsoft Copilot. Allí, la decisión de bloquear la palabra «Microslop» como si fuera un insulto grave acabó generando justo lo contrario de lo que la compañía pretendía: más ruido, más críticas y una sensación de censura que no ha sentado nada bien en la comunidad tecnológica.

Qué significa Microslop y de dónde sale el término

Para entender el fenómeno, conviene empezar por la base. La palabra inglesa slop ha ganado tanta popularidad en los últimos años que el prestigioso diccionario Merriam-Webster decidió incorporarla como parte del vocabulario ligado a la tecnología. Su definición es clara: «contenido digital de baja calidad producido habitualmente por la inteligencia artificial», una forma elegante de referirse a todo ese material generado por IA que se percibe como relleno, repetitivo o directamente basura.

A partir de ahí, la comunidad ha dado un paso más. Usuarios de Windows, especialmente de Copilot, han fusionado «Microsoft» y «slop» para crear Microslop, un apodo despectivo que señala tanto la mala experiencia con algunas funciones de IA en Windows 11 como la sensación de que el sistema se ha llenado de elementos innecesarios. En redes sociales, foros y comunidades de gaming, el término se ha extendido como una especie de chiste interno que todo el mundo entiende al vuelo.

Este uso no se limita a un pequeño grupo. En canales tecnológicos de referencia y en comunidades de Europa y Estados Unidos, Microslop se ha convertido en el grito de guerra de quienes consideran que la IA de Microsoft aporta más ruido que valor. Incluso han aparecido extensiones de navegador que sustituyen automáticamente la palabra «Microsoft» por «Microslop» en cualquier página web, llevando la burla un paso más allá.

Del rechazo a la IA al meme global: el contexto en Windows 11

El trasfondo de este fenómeno está en la propia evolución de Windows 11. El sistema llegó como la continuación «natural» de Windows 10, pero con el tiempo se ha ganado fama de plataformas inestables, con bugs recurrentes, cambios de diseño discutibles y un rendimiento irregular en algunos equipos. En paralelo, Microsoft ha acelerado la integración de Copilot y otras funciones de IA prácticamente en todos sus productos: el propio Windows, Microsoft 365, el navegador Edge e incluso el ecosistema de Xbox.

Este despliegue masivo se ha percibido por muchos usuarios como una especie de estrategia «AI Everywhere»: asistentes contextuales, resúmenes automáticos, sugerencias en segundo plano y procesos de IA que se ejecutan aunque el usuario no los haya pedido. El resultado, según buena parte de la comunidad, es un sistema que consume más recursos, se siente más intrusivo y no termina de resolver los problemas de estabilidad y rendimiento que deberían ser prioritarios.

Las críticas han ido ascendiendo de tono a medida que Microsoft anunciaba nuevos planes de IA, incluyendo fórmulas de pago para acceder a determinadas funciones avanzadas en futuras versiones de Windows. El propio responsable de Windows, Pavan Davuluri, habló públicamente de un cambio hacia un «sistema operativo agente», un concepto que generó miles de respuestas abrumadoramente negativas de usuarios que, sencillamente, no quieren más IA impuesta en su día a día.

En este clima, llamar Microslop a la compañía se ha convertido en una forma rápida de expresar frustración por la deriva del sistema: demasiadas funciones «inteligentes» de dudosa utilidad y demasiados errores básicos para un producto tan extendido, donde Windows y Microsoft 365 siguen siendo el estándar en hogares y empresas.

El bloqueo de Microslop en Discord: la chispa que enciende el incendio

La situación explotó cuando varios medios, entre ellos Windows Latest, detectaron algo llamativo en el Discord oficial de Copilot. De la noche a la mañana, los mensajes que incluían la palabra «Microslop» dejaban de publicarse. Al intentar enviarlos, el sistema mostraba un aviso de moderación indicando que el texto contenía una «frase prohibida» o «inapropiada», y el mensaje quedaba bloqueado.

Lejos de pasar desapercibido, el filtro corrió como la pólvora por redes sociales. Capturas de pantalla mostrando el mensaje de error comenzaron a circular por X (antes Twitter), Reddit y otros foros especializados. La reacción fue casi inmediata: decenas de usuarios empezaron a probar variantes del término para esquivar la censura, recurriendo a sustituciones como «Microsl0p», «Micr0slop», «M1croslop» o incluso combinaciones con símbolos, como «Micro$lop».

La propia comunidad comprobó que estas variaciones funcionaban: el sistema de moderación parecía basarse en una coincidencia literal de palabras clave, sin análisis de contexto. Solo la forma exacta «Microslop» disparaba el bloqueo. Este detalle reforzó la sensación de que no se trataba de una política general contra insultos o lenguaje ofensivo, sino de una medida específica contra un apodo crítico con la compañía.

A medida que se difundía la noticia, el servidor de Copilot se convirtió en un experimento masivo. Usuarios de diferentes países, incluidos muchos europeos, empezaron a inundar los canales con mensajes de prueba para ver qué variantes pasaban el filtro y hasta dónde llegaba la moderación. Algunos repetían una y otra vez el término vetado, otros se limitaban a burlarse de la situación con memes e imágenes.

De filtro puntual a cierre del servidor: la respuesta de Microsoft

La escalada fue rápida. Lo que en teoría iba a ser un ajuste de moderación discreto terminó desbordando el propio canal. Con los chats llenos de mensajes de prueba y bromas, los moderadores empezaron a tomar medidas más contundentes: baneos de cuentas que insistían en las variaciones de Microslop, limitaciones para escribir en ciertos canales y restricciones para consultar el historial de mensajes.

La situación llegó a tal punto que Microsoft decidió bloquear temporalmente el servidor de Discord de Copilot. Durante ese periodo, muchos usuarios dejaron de poder publicar, el acceso al histórico quedó muy reducido y algunas secciones del servidor aparecían totalmente cerradas. Fuera de Discord, el caso ya había saltado a los principales medios tecnológicos, amplificando todavía más la polémica.

Ante la presión mediática, la compañía proporcionó su versión de los hechos en declaraciones a medios como Windows Latest. Un portavoz explicó que el canal de Copilot había sido «recientemente atacado por spammers» con la intención de interrumpir y abrumar el espacio con contenido «dañino» no relacionado con Copilot. Según esa explicación, los filtros de palabras y el bloqueo del servidor eran medidas temporales para atajar una presunta campaña de spam coordinado.

La compañía no negó expresamente que «Microslop» formara parte de la lista de términos restringidos, y reconoció que se habían aplicado filtros temporales para determinados vocablos mientras se ponían en marcha salvaguardas más robustas. El objetivo declarado era proteger a los usuarios habituales y garantizar que el servidor siguiera siendo «un espacio seguro y utilizable».

Con el paso de las horas, el veto específico a Microslop se relajó y el servidor fue reabierto, pero para entonces el daño reputacional ya estaba hecho. El resultado fue un canal inundado de mensajes, referencias al meme y contenido poco aprovechable, en un escenario que muchos usuarios describieron como un ejemplo de libro del «efecto Streisand»: tratar de ocultar algo y conseguir precisamente lo contrario.

Críticas de censura y descontento con la estrategia de IA

Más allá del detalle del filtro, el episodio ha sido interpretado como un síntoma de algo más profundo: la tensión acumulada entre Microsoft y parte de su base de usuarios desde que la compañía decidió girar en bloque hacia la inteligencia artificial. El intento de silenciar un apodo crítico se percibe como un golpe a la posibilidad de expresar críticas legítimas, sobre todo en un espacio que, en teoría, está destinado al feedback y al intercambio de experiencias en torno a Copilot.

En España y en el resto de Europa, donde Windows 11 se utiliza de manera masiva tanto en entornos domésticos como profesionales, la reacción ha sido similar a la de la comunidad anglosajona. Muchos usuarios se preguntan por qué la compañía parece volcada en experimentar con nuevas funciones de IA mientras persisten errores básicos, problemas de rendimiento o elementos de bloatware que lastran el día a día en oficinas y hogares.

En algunos medios especializados se habla ya abiertamente de una crisis de confianza. Se señala que el despliegue de Copilot y otros servicios de IA ha sido percibido como apresurado, con funciones de calidad irregular, resúmenes que pueden contener errores o información fabricada, y una integración muy profunda en el sistema operativo que no siempre se puede desactivar con facilidad.

Este malestar se ve reforzado por datos que apuntan a que la adopción de Copilot de pago en Microsoft 365 es mucho menor de lo que la compañía desearía. Aunque las cifras oficiales hablan de un crecimiento interanual importante, la sensación general es que buena parte de los usuarios no están convencidos de pagar un extra por unas funciones que todavía no perciben como imprescindibles ni suficientemente maduras.

La dimensión simbólica de Microslop en la era del AI slop

Microslop no es solo un chiste. Es también la adaptación de un concepto que preocupa cada vez más en el ecosistema digital: el AI slop, ese torrente de contenido automatizado de baja calidad que inunda internet. Desde noticias falsas generadas por modelos de lenguaje hasta vídeos sin sentido o textos genéricos que no aportan nada nuevo, la sensación de saturación es compartida por muchos usuarios y creadores de contenido.

El hecho de que un diccionario como Merriam-Webster haya decidido incluir slop en su repertorio ya dice mucho de la frecuencia con la que se usa el término. La palabra, que en sus otras acepciones también puede referirse a desperdicios alimentarios o desechos humanos, no deja lugar a dudas: se trata de algo de lo que uno quiere huir, no algo que desee consumir de forma voluntaria.

En este contexto, que la comunidad de Windows adopte el término y lo reformule como Microslop es una forma de señalar que parte de la producción de IA de la compañía es percibida como ruido, no como valor. El mensaje de fondo es sencillo: si la inteligencia artificial no mejora la experiencia, si genera errores o complica tareas básicas, los usuarios la rebautizan y se la devuelven en forma de crítica.

La propia Microsoft ha reconocido en otras áreas que existe un problema con el contenido generado por IA sin supervisión suficiente. Estudios internos han destacado que los chatbots se vuelven menos fiables cuanto más se prolonga la conversación, y la compañía ha advertido sobre riesgos como la intoxicación de memoria de los modelos, en la que actores maliciosos pueden contaminar los datos que la IA utiliza para elaborar respuestas o resúmenes.

Una reputación en juego en plena carrera por la inteligencia artificial

Todo esto ocurre mientras las grandes tecnológicas, incluidas las Big Tech estadounidenses y sus filiales europeas, compiten por liderar la nueva ola de IA. Se estima que este año la inversión global en este ámbito rondará los 650.000 millones de dólares, con compañías como Amazon, Google, Meta y la propia Microsoft destinando decenas de miles de millones a infraestructuras, modelos y servicios relacionados.

En el caso concreto de Microsoft, la apuesta es especialmente visible. La empresa de Redmond lleva años impulsando esta estrategia, reforzada por su inversión multimillonaria en OpenAI y por la integración de modelos generativos en productos clave. Su director ejecutivo, Satya Nadella, ha llegado a señalar públicamente que espera que en los próximos años la gente deje de percibir la IA como «basura» y empiece a verla como una herramienta de productividad real.

Sin embargo, el caso Microslop demuestra que parte de la percepción actual va en la dirección contraria. Que un servidor oficial de Copilot acabe colapsado por un meme que critica la calidad de su IA indica que la batalla por la imagen pública está lejos de estar ganada. Los usuarios no rechazan la tecnología en sí, pero sí la sensación de que sus ordenadores y servicios se han convertido en un campo de pruebas permanente sin suficiente control de calidad.

Para Microsoft, evitar que Copilot se convierta en sinónimo de bloatware es ahora casi tan urgente como mejorar la estabilidad de Windows 11. La compañía ha prometido en varias ocasiones que reducirá la presión de la IA en el sistema operativo y que se centrará en mejorar el rendimiento y la fiabilidad, pero los episodios como el de Discord ponen de manifiesto lo frágil que sigue siendo esa promesa ante la opinión pública.

Lecciones que deja el caso Microslop para Microsoft y su comunidad

Más allá del ruido puntual, el episodio del bloqueo de Microslop en Discord deja varias conclusiones que afectan tanto a Microsoft como a su enorme base de usuarios, también en el ámbito europeo.

  • La moderación basada en listas de palabras prohibidas es limitada cuando se aplica a críticas legítimas; puede frenar insultos explícitos pero, en memes y apodos críticos, provoca censura percibida y respuestas virales de resistencia.
  • La marca está cada vez más atada a la experiencia real de los usuarios. Si existe una brecha entre lo que se promete con la IA y lo que se llega a experimentar, las críticas se trasladan al lenguaje usado para expresar esa frustración.
  • La confianza es un recurso escaso. Los usuarios toleran cierta experimentación si pueden desactivar lo que no desean y si sienten que sus quejas son tomadas en serio y atendidas.

El episodio de Microslop en Discord deja la sensación de que Microsoft se enfrenta a un equilibrio delicado: continuar empujando su apuesta por la IA sin perder de vista las preocupaciones de quienes usan sus productos a diario. Cómo gestione esta tensión en los próximos meses será clave para determinar si términos como Microslop se quedan en una anécdota pasajera o se consolidan como la etiqueta que muchos asocian, de forma casi automática, con la forma en la que la compañía despliega su inteligencia artificial.

from Linux Adictos https://ift.tt/9JAtbTk
via IFTTT

GPT-5.4: IA agéntica, uso del ordenador y contexto largo para la productividad europea

GPT-5.4

OpenAI ha dado otro giro de tuerca a su estrategia en inteligencia artificial con el lanzamiento de GPT-5.4, un modelo que no solo promete más potencia de cálculo o mejores puntuaciones en pruebas sintéticas, sino que da un paso claro hacia la automatización de trabajo real. La compañía presenta este sistema como su modelo más capaz y eficiente hasta la fecha, con el foco puesto en entornos profesionales, tareas largas y agentes capaces de operar como si fueran una persona sentada frente al ordenador.

El anuncio llega, además, en un momento delicado para la firma de Sam Altman, inmersa en una crisis de reputación asociada a sus acuerdos con el Departamento de Defensa de Estados Unidos y a campañas de boicot como #QuitGPT. La presentación de GPT-5.4, apenas días después de GPT-5.3 Instant, funciona así como movimiento técnico y también político: enseñar músculo tecnológico mientras se intenta recuperar la confianza de usuarios y grandes clientes.

Dos variantes para distintos perfiles: GPT-5.4 Thinking y GPT-5.4 Pro

OpenAI ha lanzado GPT-5.4 en dos sabores principales. Por un lado, GPT-5.4 Thinking, disponible en los planes de pago de ChatGPT (Plus, Team y Pro), orientado al razonamiento profundo y multietapa. Este modelo muestra al usuario un esquema previo de cómo va a abordar la tarea, lo que permite intervenir a mitad de respuesta para redirigir instrucciones sin tener que empezar desde cero. Esta capacidad de “cortar y reconducir el razonamiento”, que OpenAI denomina steerability, está pensada para problemas complejos en los que el usuario quiera tener algo más de control sobre el proceso.

Por otro lado aparece GPT-5.4 Pro, dirigido a empresas y desarrollos de gran escala donde prima el rendimiento sostenido. Esta variante está optimizada para tareas intensivas y flujos de trabajo complejos, con especial énfasis en agentes que trabajen durante periodos largos, procesen muchos documentos y tengan que tomar decisiones encadenadas. En la API, ambas versiones pueden utilizarse como motor para productos propios, integrándose también con la plataforma orientada al código, heredera de Codex.

Una IA que maneja el ordenador como un usuario humano

La característica que más titulares está generando es que GPT-5.4 es el primer modelo generalista de OpenAI con capacidades nativas de uso del ordenador. La compañía habla de “computer use” para referirse a un modo en el que el sistema no se limita a generar texto, sino que interpreta lo que ve en la pantalla (mediante capturas y visión de alta resolución) y emite acciones de ratón y teclado para completar tareas.

En la práctica, esto permite plantear escenarios que hasta hace poco sonaban a ciencia ficción cotidiana: pedir a la IA que abra el correo, descargue facturas, extraiga datos clave y los vuelque en una hoja de cálculo, o que navegue por diferentes aplicaciones empresariales para rellenar formularios, consultar bases de datos o generar informes. Según los benchmarks internos, en la prueba OSWorld-Verified, que mide precisamente esa capacidad de manejar un entorno de escritorio, GPT-5.4 logra un 75 % de éxito, por encima del 47,3 % de GPT-5.2 y también del rendimiento medio humano, fijado en 72,4 %.

Este tipo de habilidades encajan de lleno con la tendencia hacia la IA basada en agentes. Herramientas como el agente OpenClaw, orientado a “coger las riendas” del ordenador del usuario para automatizar tareas repetitivas, se benefician directamente de un modelo que ya viene preparado de serie para interpretar la pantalla y ejecutar secuencias completas de acciones. Para empresas europeas que están probando agentes en departamentos de administración, finanzas o soporte técnico, la diferencia entre un chatbot que solo responde y un modelo que realmente actúa es sustancial.

Ventana de contexto de hasta un millón de tokens

Otro de los grandes titulares de GPT-5.4 está en su capacidad de memoria a corto plazo. En la API y en su integración con Codex, el modelo soporta ventanas de contexto de hasta un millón de tokens. Esto multiplica por más de dos la memoria operativa asociada a GPT-5.2, que se situaba en torno a los 400.000 tokens, y supone un salto importante para quienes trabajan con información masiva: contratos de cientos de páginas, repositorios de código voluminosos, bases de datos de clientes o informes financieros anuales.

Para empresas y despachos europeos, acostumbrados a lidiar con regulación extensa, desde normativa bancaria hasta documentación de cumplimiento como el RGPD, esta ampliación de contexto permite tratar conjuntos de documentos completos sin tener que trocearlos de forma artificial. La consecuencia directa es que se pierde menos contexto, se reducen errores por omisión y se mantiene mejor la coherencia en tareas que requieren seguir instrucciones precisas durante muchos pasos.

Además de la memoria, GPT-5.4 introduce lo que algunas fuentes han descrito como un modo de “razonamiento extremo”. Este enfoque permite dedicar mucha más capacidad de cómputo a preguntas complejas, ejecutando procesos que pueden prolongarse durante horas en lugar de segundos. No se trata solo de responder rápido, sino de ser capaz de mantener un análisis prolongado con más profundidad y consistencia, algo especialmente relevante para consultoras, auditoras o equipos de investigación que operan en Europa con proyectos de largo recorrido.

Tool Search y eficiencia en el uso de herramientas

Para los desarrolladores que construyen sobre la API, una de las novedades más prácticas es Tool Search. Hasta ahora, los modelos necesitaban recibir en el contexto la definición de todas las herramientas disponibles, lo que disparaba el consumo de tokens en sistemas con muchas funciones. Con Tool Search, GPT-5.4 es capaz de buscar dinámicamente la herramienta que necesita en cada momento, consultando solo la información imprescindible.

En pruebas con 250 tareas del benchmark MCP Atlas, utilizando 36 servidores de herramientas distintas, esta forma de acceso dinámico logró reducir el consumo total de tokens en torno a un 47 %, manteniendo el mismo nivel de precisión. Para compañías europeas que están diseñando plataformas de agentes con decenas de microservicios, desde sistemas de facturación hasta CRMs y ERPs internos, esta mejora se traduce en costes operativos más bajos y tiempos de respuesta más rápidos, sin renunciar a la complejidad de los flujos de trabajo.

Rendimiento profesional: del despacho a la hoja de cálculo

Más allá de los titulares técnicos, GPT-5.4 está pensado explícitamente para tareas de conocimiento profesional. En el test GDPval, que mide la capacidad de agentes de IA para producir trabajo real en 44 ocupaciones diferentes, el nuevo modelo iguala o supera a profesionales humanos en el 83 % de las comparaciones. Este tipo de tareas van desde la preparación de presentaciones comerciales hasta el análisis financiero básico o la redacción de documentos jurídicos.

OpenAI destaca especialmente las mejoras en el trabajo con hojas de cálculo y presentaciones. En un benchmark interno de modelado financiero, GPT-5.4 logra un 87,3 % de puntuación, frente al 68,4 % de GPT-5.2. Para bancos, aseguradoras o fintech europeas, que manejan modelos complejos en Excel o en herramientas equivalentes, esta diferencia puede marcar el salto entre una herramienta de apoyo y un asistente capaz de realizar tareas de un analista junior con supervisión limitada.

En el ámbito de las presentaciones, evaluadores humanos prefirieron en torno al 68 % de las veces las diapositivas generadas por GPT-5.4 frente a las de su predecesor, tanto por estética como por variedad visual. Ese tipo de mejoras encaja de lleno en el día a día de equipos de ventas, marketing o consultoría en España, donde preparar una presentación clara y bien estructurada puede consumir muchas horas de trabajo.

Menos errores, más fiabilidad en respuestas largas

Uno de los reproches habituales a los modelos anteriores era su tendencia a “alucinar”, es decir, a inventarse datos o mezclar fuentes de forma poco fiable. OpenAI afirma que GPT-5.4 es un 33 % menos propenso a emitir afirmaciones falsas que GPT-5.2, y que sus respuestas completas tienen un 18 % menos de probabilidades de contener errores. Estas cifras, aunque proceden de pruebas internas, apuntan a una IA más adecuada para sectores regulados como el financiero o el sanitario, donde cualquier información incorrecta puede suponer un problema serio.

La combinación de una ventana de contexto mucho más amplia, un modo de razonamiento extendido y la posibilidad de interrumpir el proceso a mitad para corregir el rumbo contribuye a esa mayor fiabilidad. Para un despacho de abogados en Madrid o una consultora en Bruselas, poder revisar el “plan de ataque” del modelo antes de que termine de redactar un informe completo permite detectar desvíos o malos enfoques a tiempo, sin malgastar recursos ni tiempo de revisión posterior.

Programación y rendimiento en benchmarks técnicos

En el terreno del desarrollo de software, GPT-5.4 hereda las capacidades de GPT-5.3-Codex y, según OpenAI, las iguala o supera en pruebas exigentes como SWE-Bench Pro con menor latencia. Las mejoras en puntuación no son espectaculares (hablamos de un salto moderado en el porcentaje de incidencias resueltas), pero la combinación de código, razonamiento y uso de ordenador nativo en un único modelo plantea un escenario interesante: agentes que leen repositorios de código, modifican archivos y prueban cambios en entornos reales, todo dentro del mismo flujo.

Para desarrolladores europeos que integran GPT-5.4 a través de la API, quizá la clave no sea tanto la cifraExacta de un benchmark, sino el hecho de que el modelo resuelva tareas similares usando menos tokens. OpenAI insiste en que GPT-5.4 es su sistema de razonamiento más eficiente en consumo de tokens hasta ahora, lo que significa que puede llegar a la misma conclusión con menos “palabras internas”. Para empresas que pagan por token, esa eficiencia puede compensar con creces el incremento de tarifa por millón de tokens.

Navegación web y búsquedas complejas

Otro terreno donde GPT-5.4 avanza respecto a sus predecesores es la interacción con la web. En benchmarks como BrowseComp, centrados en tareas de búsqueda e investigación online, el nuevo modelo alcanza alrededor del 82,7 %, frente al 65,8 % de GPT-5.2. OpenAI sostiene que GPT-5.4 es especialmente bueno a la hora de identificar información relevante entre grandes cantidades de datos, lo que llaman consultas tipo “aguja en un pajar”.

Para periodistas, analistas de mercado o investigadores europeos, esta capacidad supone poder delegation parte del trabajo de cribado de información en la IA, manteniendo un papel de supervisión y verificación final. El modelo puede rastrear múltiples fuentes, seleccionar las que parecen más fiables y ofrecer un resumen razonado, reduciendo el tiempo dedicado a búsquedas repetitivas.

Precios más altos, pero también más eficiencia

En el apartado económico, GPT-5.4 llega con un incremento de precios respecto a GPT-5.2. El modelo estándar cuesta 2,50 dólares por millón de tokens de entrada y 15 dólares por millón de tokens de salida, frente a los 1,75 y 14 dólares, respectivamente, de GPT-5.2. La versión GPT-5.4 Pro es bastante más cara: 30 dólares por millón de tokens de entrada y 180 dólares por millón de tokens de salida, cifras claramente orientadas a proyectos empresariales de alto valor añadido.

OpenAI defiende estas tarifas apoyándose en la mayor eficiencia en el consumo de tokens y en la reducción de errores. Si un modelo necesita muchos menos tokens para resolver la misma tarea y además comete menos fallos que requieran corrección manual, el coste total por proyecto puede ser menor incluso con un precio por token más elevado. Para grandes cuentas en Europa, desde bancos sistémicos hasta grandes grupos industriales, el debate ya no se centra tanto en el precio nominal por millón de tokens, sino en el coste global de automatizar procesos con garantías.

Un lanzamiento en medio de polémicas y competencia feroz

GPT-5.4 no aparece en el vacío. Llega en medio de una competencia muy reñida con Anthropic y Google, y en pleno ruido mediático por los acuerdos de OpenAI con el Pentágono. Mientras que Anthropic ha ganado terreno en el segmento empresarial con modelos como Claude Opus 4.6 y un discurso más centrado en la seguridad, Google compite con su familia Gemini y capacidades multimodales avanzadas. En este contexto, GPT-5.4 busca colocarse como modelo de referencia en capacidad agéntica, uso de ordenador y contexto largo.

Al mismo tiempo, el movimiento llega tras campañas como #CancelChatGPT y QuitGPT, que han impulsado a cientos de miles de personas a cancelar sus suscripciones o a anunciar un boicot en redes sociales. La percepción de que OpenAI habría aceptado un contrato militar sin suficientes salvaguardas, mientras Anthropic lo rechazaba, ha erosionado parte del capital reputacional de la compañía. Desde Europa, donde el debate sobre el uso ético de la IA y la regulación avanza con marcos como la futura Ley de IA, estos acuerdos se observan con especial atención.

Costes de infraestructura y presión por la rentabilidad

Detrás de cada nueva versión de GPT hay una realidad menos visible: el coste de operar modelos cada vez más grandes y con ventanas de contexto gigantescas. OpenAI maneja cifras multimillonarias en gasto de infraestructura y computación, con proyecciones de pérdidas abultadas en los próximos años a pesar de un crecimiento notable de ingresos. Un modelo como GPT-5.4, con capacidad de procesar hasta un millón de tokens y modos de razonamiento que pueden extenderse durante horas, exige una potencia de cálculo considerable por solicitud.

Para contener esos costes, la compañía está apostando por hardware propio o especializado y por acuerdos con grandes proveedores de nube. También está segmentando su catálogo en varias gamas (Instant, Thinking, Pro, Codex) para ajustar cuánta potencia destina a cada tipo de petición. La introducción de modos configurables en GPT-5.4, que permiten elegir entre respuestas más rápidas y baratas o análisis más profundos, encaja con este intento de equilibrar capacidad y rentabilidad. En Europa, donde los centros de datos y el consumo eléctrico están bajo lupa regulatoria, este tipo de modelos también reabre el debate sobre el impacto energético de la IA.

Hacia una nueva normalidad: agentes, seguridad y cambios constantes

Más allá de la ficha técnica, GPT-5.4 refuerza una tendencia que ya se venía dibujando: la transición de los chatbots a los agentes autónomos. La combinación de uso nativo del ordenador, contexto largo y herramientas dinámicas apunta a sistemas capaces de gestionar procesos completos con intervención humana puntual. Firmas de análisis prevén que, para finales de 2026, una parte importante de las grandes corporaciones utilicen arquitecturas basadas en agentes de la serie GPT-5.x para tareas críticas, desde la atención al cliente hasta la gestión documental interna.

Ese movimiento viene acompañado de preguntas incómodas sobre seguridad y control. Si un modelo puede trabajar durante horas, consultando datos sensibles y ejecutando acciones en sistemas internos, los mecanismos de supervisión y las barreras de seguridad tienen que ser mucho más robustos. Voces dentro y fuera de la industria, incluida la comunidad investigadora europea, llevan tiempo advirtiendo de que la carrera por lanzar modelos cada vez más potentes no puede ir por delante del desarrollo de salvaguardas efectivas.

Con GPT-5.4, OpenAI intenta demostrar que puede ofrecer más potencia, más autonomía y más eficiencia sin perder de vista la fiabilidad. El modelo mejora en benchmarks, reduce errores, usa menos tokens y es capaz de manejar el ordenador con soltura, pero también llega en medio de dilemas éticos, presión competitiva y dudas sobre la sostenibilidad económica de este ritmo de innovación. Para empresas y profesionales en España y en el resto de Europa, la cuestión ya no es solo si la tecnología es impresionante, sino cómo integrarla de forma responsable en su día a día, con beneficios claros y riesgos asumibles.

from Linux Adictos https://ift.tt/LrOYFQy
via IFTTT

PPSSPP 1.20: la actualización que redefine la experiencia PSP en dispositivos modernos


La experiencia de juego clásico se actualiza sin perder su esencia. PPSSPP, el emulador de PSP de referencia, ha lanzado la versión 1.20, disponible ya en todas las plataformas. Esta entrega se centra en mejorar la usabilidad, la conectividad y la velocidad, adaptándose a las demandas de jugadores que juegan desde móviles,PCs o consolas portátiles como la Steam Deck. Entre las novedades, destaca un notable incremento en fiabilidad del multijugador local (ad hoc) y la introducción de un modo retrato nativo para dispositivos móviles, cambios que facilitan disfrutar de títulos PSP donde sea y como sea.\n\nEsta actualización llega nueve meses después de la 1.19 y pone énfasis en tres pilares: orientación vertical en móviles, retransmisión asistida por servidor para estabilizar partidas multijugador ad hoc y la posibilidad de subir archivos al emulador a través de HTTP en la red local. Además, se mejora la gestión de partidas guardadas (save states), ofreciendo mayor flexibilidad para exploraciones y retos.\n\nUn vistazo a las novedades de PPSSPP 1.20:\n- Modo Retrato en móviles: la interfaz se adapta a la orientación vertical, con menús y controles en pantalla reorganizados para una experiencia cómoda, ya sea una sesión rápida con una mano o una partida más detallada.\n- Multijugador Ad Hoc más fiable: se utiliza un servidor para enrutar paquetes, superando obstáculos de red y NAT, lo que reduce interrupciones y facilita emparejamientos en juegos como Monster Hunter Freedom Unite o Dissidia Final Fantasy.\n- Transferencias por Wi‑Fi vía HTTP: subir juegos, partidas guardadas y otros archivos a través de la red local desde cualquier dispositivo, sin cables ni búsquedas complicadas.\n- Estados de guardado más flexibles: slots configurables que llegan hasta 30, permitiendo experimentar con mayor libertad en juegos desafiantes. Estas mejoras se combinan con el soporte para mandos, shaders y escalado de resolución, manteniendo la simplicidad para el usuario diario.\n\nPPSSPP continúa siendo un pilar para los amantes de la nostalgia. Su capacidad para mejorar títulos de PSP en una amplia gama de dispositivos permite disfrutar de gráficos más nítidos y un rendimiento estable, con Android alcanzando cifras destacadas de instalación y presencia en plataformas como Steam Deck. Las funciones de modo retrato y las cargas por Wi‑Fi responden a una forma de juego más móvil y versátil.\n\nEl proyecto, bajo licencia GPL, se mantiene gracias a una comunidad activa liderada por su creador original, Henrik Rydgård. El registro de cambios de 1.20 demuestra un compromiso continuo con correcciones de errores y optimización de rendimiento en Android, Windows, Linux, macOS e iOS. Si ya utilizas PPSSPP, la actualización debería estar disponible en tu canal habitual; los nuevos usuarios encontrarán una configuración accesible y una trayectoria de mejoras constantes.\n\nCon PPSSPP 1.20, la biblioteca de PSP brilla con ajustes que facilitan la reproducción de clásicos como God of War: Ghost of Sparta o Persona 3 Portable, manteniendo viva la experiencia portátil a través de una emulación precisa y moderna.

from Linux Adictos https://ift.tt/zY6SxTK
via IFTTT

Linux Mint y el nuevo salvapantallas: una innovación que integra X11, Wayland y la gestión nativa en Cinnamon

Linux Mit y su nuevo protector de pantalla

Tal y como adelantaron en la nota de febrero, Linux Mint estaba trabajando en un salvapantallas que sería compatible con X11 y también con Wayland, lo que se está convirtiendo el servidor gráfico de presente y futuro en Linux. La nota de marzo del proyecto, que recoge lo sucedido en febrero, nos ha mostrado lo que se ve en la captura de cabecera, diciendo que el nuevo salvapantallas de Cinnamon ya está listo y que llegarán muchas buenas noticias en este apartado.

El salvapantallas anterior se ejecutaba como un proceso separado dentro de la sesión, se escribió en Python y C, usaba GTK y estaba diseñado para Xorg. El nuevo salvapantallas no es un proceso separado. Es Cinnamon quien gestiona las cosas directamente, bloqueando la pantalla de manera nativa con sus propios toolkit y widgets, como se ve en la siguiente imagen.

Salvapantallas con Widgets

Este salvapantallas es completamente compatible con Wayland. Clem aún no ha decidido si Linux Mint se pasará a Wayland por defecto, pero sí valora la posibilidad.

El desarrollo no ha tenido un camino sencillo. Aunque cuenta con transiciones más suaves, curiosamente se encontraron con el mismo bug que tuvieron durante décadas en el viejo:

«Lo que parecía una condición de carrera aleatoria, lo que hace que la sesión sea visible brevemente antes de que aparezca el protector de pantalla al reanudar o al abrir la tapa. Intentamos solucionar este problema sin éxito durante años y, mientras trabajábamos en el nuevo protector de pantalla, nos dimos cuenta de qué lo estaba causando. Ya está solucionado, no sólo para el nuevo protector de pantalla, sino también después de extensas pruebas como actualización del anterior…«, pero ya está solucionado.

Otras novedades de febrero en Linux Mint

La pagina de sensores se ha añadido a la herramienta de reportes del sistema. Es una página que lista todos los sensores detectados en el equipo y refresca sus valores automáticamente. Hay herramientas tipo CLI que hacen más o menos lo mismo, pero el que haya usado una con interfaz gráfica sabe lo cómodo que es algo no basado en textos.

Todas estas novedades deberían llegar a Linux Mint a mediados de 2026, cuando llegue la próxima versión del sistema operativo. No se sabe si para entonces ya habrán decidido seguir con el calendario habitual o pasar a menos lanzamientos por año, algo que también dejaron caer el mes pasado.

from Linux Adictos https://ift.tt/4RKqACn
via IFTTT

Modo escritorio de Android en Pixel: cuando el móvil se convierte en un centro de trabajo

Modo escritorio de Android

Durante años, la idea de usar un móvil Android como si fuera un ordenador ha estado ahí, pero siempre dependía de soluciones propias de cada fabricante. Ahora Google se ha decidido a dar el paso que muchos usuarios avanzados llevaban pidiendo: se integra por fin un modo escritorio de Android real en los Pixel.

Con la última actualización de Android y el Pixel Feature Drop de marzo, los Pixel 8 y modelos posteriores estrenan un entorno de escritorio completo al conectarse a un monitor externo. La experiencia deja de ser un simple espejo de la pantalla del móvil y pasa a parecerse mucho más a lo que encontramos en un PC con Windows, macOS o Linux.

Qué es exactamente el modo escritorio de Android

El concepto es sencillo: al enchufar el teléfono a una pantalla externa compatible, Android deja de mostrar una copia de la interfaz del móvil y activa un escritorio pensado para pantallas grandes. Aparecen una barra de tareas inferior, un área de notificaciones y ajustes rápidos en la parte superior y un sistema de ventanas flotantes que se pueden mover y redimensionar libremente.

Este modo escritorio no es un sistema operativo distinto, sino otra forma de presentar el mismo Android que llevas en el bolsillo. Las aplicaciones que ya tienes instaladas se ejecutan como siempre, pero se adaptan al nuevo formato: funcionan en ventanas independientes, se pueden fijar en el dock para tenerlas a mano y muestran indicadores cuando están abiertas, muy en la línea de lo que vemos en los escritorios tradicionales.

La idea clave es que puedas tener varias apps abiertas a la vez sin la sensación de estar forzando la multitarea móvil. Leer el correo en una ventana, trabajar un documento en otra y mantener un chat abierto al lado deja de ser un apaño y se convierte en una forma de uso natural cuando conectas el móvil a un monitor.

Dispositivos compatibles y requisitos técnicos

De momento, Google ha decidido limitar el modo escritorio a una lista concreta de equipos. La función se estrena en los Pixel 8 y posteriores, lo que incluye tanto modelos estándar como versiones Pro, así como los plegables más recientes de la marca.

Entre los dispositivos anunciados se encuentran Pixel 8 y superiores, Pixel 9 Pro Fold y Pixel 10 Pro Fold, además de Pixel Tablet, que recibe su propia versión de la interfaz de ventanas. En tablets y plegables, el sistema aprovecha mejor las dimensiones de la pantalla para ofrecer una sensación aún más cercana a la de un portátil ligero.

Para que todo esto funcione, el móvil debe soportar DisplayPort sobre USB‑C. Es el estándar que permite enviar la señal de vídeo y audio al monitor a través del mismo puerto de carga. El monitor, por su parte, puede tener entrada USB‑C con DisplayPort o HDMI: en este último caso basta con un adaptador o un cable USB‑C a HDMI de calidad. La resolución máxima actual llega hasta 4K, suficiente para trabajar con comodidad en la mayoría de entornos domésticos y de oficina.

Así se activa el modo escritorio de Android paso a paso

El arranque del modo escritorio es bastante directo, aunque en algunos casos requiere tocar antes un par de ajustes. En los Pixel compatibles, basta con conectar el móvil a un monitor externo usando un cable USB‑C adecuado. Nada más detectar la pantalla, Android muestra una ventana emergente preguntando qué quieres hacer con la conexión.

En ese cuadro de diálogo aparecen dos opciones principales: usar el móvil como si fuera un “Ordenador” (modo escritorio propiamente dicho) o limitarse a proyectar la pantalla como se ha hecho siempre. Al elegir la primera, el sistema deja de duplicar la interfaz del teléfono y lanza automáticamente el entorno de escritorio adaptado a la pantalla grande.

Para completar la configuración es recomendable conectar un teclado y un ratón, normalmente vía Bluetooth. El emparejamiento es el mismo que con cualquier otro accesorio inalámbrico de Android, y una vez enlazados se pueden usar para manejar ventanas, escribir y navegar por la interfaz como si se tratase de un ordenador convencional. También es posible usar periféricos por cable si el monitor actúa como concentrador USB o se recurre a un hub.

La experiencia de uso: Android como sistema operativo de escritorio

Una vez activado, el modo escritorio transforma la forma de trabajar con el dispositivo. Lo primero que se aprecia es un escritorio con barra inferior tipo dock, donde se muestran aplicaciones ancladas y un lanzador para acceder al resto de apps instaladas. En la parte superior, una barra de sistema ofrece la hora, el estado de la batería, la conectividad y el acceso a notificaciones y ajustes rápidos.

Las aplicaciones se abren en ventanas redimensionables y movibles, que pueden colocarse en paralelo, superpuestas o a pantalla completa. Es posible tener, por ejemplo, dos ventanas del navegador una al lado de la otra para consultar documentación mientras se redacta un informe, o mantener un vídeo en una esquina mientras se revisa el correo y se chatea con compañeros de trabajo.

Un detalle interesante es que la pantalla del móvil y la del monitor funcionan de forma independiente. Mientras el escritorio externo muestra varias ventanas, el terminal puede quedarse bloqueado, usar otra app diferente o atender llamadas y mensajes. Esto convierte al Pixel en una especie de centro de control: el móvil sigue siendo móvil, pero al mismo tiempo alimenta un entorno de trabajo más amplio.

En el modo escritorio, las apps de mensajería como WhatsApp, Telegram o X (Twitter) se utilizan en su versión nativa, no como pestañas de navegador. Eso significa notificaciones integradas, funcionamiento en segundo plano y un uso más directo de todas las funciones móviles, desde compartir archivos hasta responder llamadas, sin tener que abrir versiones web o atajos intermedios.

Ventajas y límites actuales de la multitarea

La mayor ganancia de este modo es la productividad. Para tareas de oficina, navegación, gestión de correo o edición ligera de documentos, hojas de cálculo y presentaciones, la potencia de los Pixel recientes es más que suficiente. En escenarios de teletrabajo o trabajo híbrido, poder llegar a un espacio con monitor, teclado y ratón y enchufar solo el móvil simplifica bastante el equipo que hay que transportar.

También hay margen para el ocio. Muchos juegos de Android se pueden disfrutar con ratón y teclado igual que en un PC, y el acceso a servicios de streaming o a aplicaciones de vídeo se hace más cómodo en una pantalla grande. Un editor de imágenes o de vídeo sencillo también puede aprovechar este formato de escritorio para ofrecer una interfaz más despejada y manejable.

Eso no quita que existan limitaciones. Algunas aplicaciones siguen sin estar bien adaptadas a pantallas grandes y mantienen diseños pensados para el formato vertical del móvil. En estos casos, las ventanas pueden verse demasiado estrechas o desaprovechar parte del espacio. Además, gestionar archivos en Android nunca ha sido tan directo como en los sistemas de escritorio clásicos, y aunque hay apps para suplir esa carencia, sigue siendo un punto algo menos pulido.

Activación desde opciones de desarrollador y ajustes finos

En algunos Pixel, sobre todo en las primeras fases de despliegue, es necesario tocar las opciones de desarrollador para desbloquear funciones de escritorio. El procedimiento habitual pasa por activar primero el menú de desarrollo en los ajustes de Android y, después, habilitar específicamente los modos experimentales de escritorio.

Tras activar esa opción, el sistema suele solicitar un reinicio. Al volver a encenderse, Android queda ya preparado para ofrecer el modo escritorio en cuanto detecta un monitor compatible. A partir de ahí, cada vez que enchufes el cable aparecerá la elección entre proyectar la pantalla o usar el dispositivo como “ordenador”, lo que facilita alternar entre un comportamiento y otro según lo que necesites en cada momento.

Una vez dentro del escritorio, la barra de tareas permite fijar aplicaciones, acceder a todas las apps abiertas mediante un botón específico y cambiar rápidamente entre ellas. Se mantiene, además, el sistema clásico de navegación de Android: es posible utilizar los tres botones tradicionales o el control por gestos, aunque con ratón y teclado lo habitual es moverse principalmente con el cursor.

Android 16 QPR3: la pieza técnica que hace posible el salto

El lanzamiento del modo escritorio se apoya en la actualización Android 16 QPR3, uno de los cambios de mayor calado de los últimos años en el ecosistema de Google. Esta versión no solo introduce mejoras visuales y pequeños ajustes, sino que incorpora por primera vez un modo de escritorio nativo perfectamente integrado en el sistema.

Dentro de Android 16 QPR3, el escritorio se activa al conectar el dispositivo a un monitor mediante USB tipo C con soporte DisplayPort, y abre un entorno multiventana con barra de tareas y apps ancladas. La actualización también mejora la independencia entre pantallas: mientras el monitor muestra el escritorio, el móvil puede seguir usándose para otras cosas, algo especialmente útil si llega una llamada o un mensaje urgente.

La misma base técnica se despliega en tablets y plegables, donde el sistema puede extender el escritorio entre varias superficies y crear espacios de trabajo continuos. Google ha trabajado en este terreno junto a Samsung para unificar la gestión de ventanas y garantizar que el comportamiento sea coherente en todo el ecosistema Android, independientemente de la marca o del formato del dispositivo.

Productividad y teletrabajo: ¿puede el móvil sustituir al portátil?

La pregunta que sobrevuelan muchas de estas novedades es clara: ¿puede un Pixel sustituir por completo a un portátil? La respuesta depende mucho del tipo de trabajo. Para tareas de ofimática, navegación, videollamadas, gestión del correo, redes sociales y cierto nivel de edición ligera, la combinación de modo escritorio, potencia de los SoC actuales y buena conexión a internet puede cubrir sin problemas la jornada de muchos usuarios.

En el contexto europeo, donde el teletrabajo y los modelos híbridos se han asentado con fuerza desde la pandemia, tener un único dispositivo que sirva tanto de teléfono como de estación de trabajo puede resultar atractivo. Para quien se mueve entre domicilio, oficina y espacios compartidos, llevar solo el móvil en el bolsillo y encontrar en destino monitor, teclado y ratón simplifica bastante el equipaje.

Dicho esto, hay ámbitos en los que un portátil tradicional sigue teniendo ventaja: desarrollo de software pesado, edición de vídeo profesional, tratamiento de imágenes de alta resolución o uso de herramientas muy específicas que aún no tienen equivalente real en Android. El modo escritorio no viene a jubilar el PC de golpe, pero sí a abrir la puerta a que el móvil cubra cada vez más escenarios en los que antes era impensable trabajar con comodidad.

Un cambio de mentalidad para usuarios y desarrolladores

Usar Android en formato escritorio implica un pequeño ajuste de mentalidad. De repente, el icono de WhatsApp ya no es solo algo que consultas de vez en cuando en el móvil, sino una ventana más en tu escritorio donde entran mensajes mientras escribes un documento o navegas. La forma de organizarse cambia: se tiende a dejar apps abiertas en segundo plano como se hace en un PC, en lugar de cerrarlas constantemente.

En el lado de los desarrolladores, el reto es mayor. Para que el escritorio de Android tenga sentido, las apps deben adaptarse bien a ventanas redimensionables, atajos de teclado y uso con ratón. Google lleva tiempo empujando en esa dirección, sobre todo desde el auge de las tablets y los plegables, pero el modo escritorio pone aún más presión para que la experiencia en pantallas grandes deje de ser un añadido menor y pase a ser una prioridad.

Android 17 profundiza en esta idea: cuando una aplicación apunta al nuevo SDK, el sistema limita la posibilidad de bloquear orientación o tamaño de ventana en pantallas amplias. El objetivo es que, si arrastras una app a un entorno tipo escritorio o la usas en un plegable desplegado, la interfaz aproveche el espacio de forma adecuada y no se quede anclada a un formato pensado únicamente para móviles pequeños.

Un paso más hacia la convergencia con ChromeOS

El movimiento de Google con el modo escritorio no parece aislado. Desde hace tiempo se habla internamente de aproximar Android y ChromeOS para crear una plataforma única capaz de escalar desde móviles hasta ordenadores portátiles. En este contexto, disponer de una interfaz de escritorio sólida en los Pixel es una pieza importante del puzle.

La idea de una especie de sistema unificado, capaz de funcionar igual de bien en un teléfono, una tablet, un plegable o un portátil, encaja con la estrategia de competir frente a ecosistemas muy cerrados como el de Apple. Mientras se pulen los detalles, el modo escritorio actual sirve de banco de pruebas: permite a Google comprobar qué funciona, qué falta por mejorar y cómo responden usuarios y desarrolladores a esta nueva forma de usar Android.

Aunque todavía quedan flecos por pulir —algunos comportamientos extraños del teclado en pantalla, una gestión de ventanas que podría ser más intuitiva o la falta de optimización de ciertas apps—, el primer despliegue oficial del modo escritorio marca un cambio de etapa en la relación entre móvil y ordenador. No es solo un añadido curioso: es una declaración de intenciones sobre hacia dónde quiere ir Android en los próximos años.

Con el modo escritorio ya activado en los Pixel 8 y posteriores, Android se acerca a ese escenario en el que el mismo dispositivo que usamos para llamar, chatear y hacer fotos puede convertirse, con un simple cable y un par de periféricos, en el centro de un puesto de trabajo completo; una función que, sin hacer ruido excesivo en la comunicación oficial, tiene potencial para cambiar la forma en la que entendemos el papel del móvil en el día a día.

from Linux Adictos https://ift.tt/uwRxZpM
via IFTTT

Borderlands 4 en Steam Deck: verificado, pero con matices

Borderlands 4 verificado en Steam Deck

Después de haberme pasado y disfrutado Borderlands, Borderlands The Pre-Sequel, Borderlands 2 y Borderlands 3, creo que a nadie le sorprenderá cuando diga que le tengo ganas al 4. Cuando salió hubo dos cosas que me decepcionaron: una es el precio, que 10€ más de lo «normal» no son muchos, pero se nota el cambio de tendencia; la otra fue que no estaba verificado para la Steam Deck. Pues bien: Borderlands 4 ya está verificado para la consola de Valve.

El anuncio llegó por parte de la cuenta de Borderlands en la red social X, y lo hizo el 4 de febrero. Poco antes, hubo creadores de contenidos que ya habían subido vídeos a YouTube asegurando que los parches más recientes habían hecho que el título fuera jugable en la Steam Deck, pero no todos están de acuerdo. Hay que ir por partes, porque la polémica está servida.

Borderlands 4 a ~40fps en la Steam Deck

Si Valve le ha dado el verificado ha sido porque ya supera los 30fps de media. De hecho, esa media suele estar por los 40fps, pero con matices. Para llegar a esa cifra, la configuración para la Steam Deck usa una de reescalado muy agresivo (FSR en ultra rendimiento), y esto hace que se vea borroso.

Como no he probado personalmente Borderlands 4, sólo tengo una referencia similar, y es lo que ocurre al jugar a God of War de la saga nórdica en la Steam Deck: para mejorar el rendimiento, el FSR está activado por defecto, y cuando empiezas a jugar se ve todo como borroso. Llega a sorprender, ya que el juego es famoso por sus gráficos, pero en la Deck se ve como pixelado por defecto. Lo mejor de todo es que si se desactiva el reescalado también va bien, y los gráficos ya se ven como deben.

Aún con todo esto, hay momentos en los que los fotogramas bajan a unos 20fps, y es aquí en donde la gente suele discrepar con el verificado que ha recibido. En mi opinión personal, si el juego se puede acabar, pero tiene caídas hasta los 20fps, creo que el título debería ser marcado como jugable. Estando con el globo amarillo, los usuarios entraríamos, podríamos leer que ese amarillo es porque hay zonas que le pesan y ya tendríamos información más exacta. Cuando recibe el verificado uno espera que las caídas no sean tan dramáticas.

Cabe destacar que esto es lo que me gustaría a mí. Lo que hace Valve si el juego tiene problemas de rendimiento, aunque sean puntuales, es darle directamente el No Compatible.

Otro problema: eliminación de opciones de configuración

Borderlands 4 no está bien optimizado, y esto lo sabe Gearbox. Para llegar a más usuarios, han aplicado parches y hecho algunas «trampas». No sólo han usado el reescalado más agresivo posible; además han eliminado opciones de configuración en la Steam Deck. ¿Qué significa esto? En cualquier otro juego ejecutado en un PC (y la Deck lo es), uno puede navegar por la configuración y retocar ciertos parámetros. Esas opciones no están disponibles en la Steam Deck: cuando el título detecta la consola de Valve, sencillamente desaparecen.

Se pueden recuperar las opciones gráficas de configuración si se va a los parámetros del título estando en el modo juego de SteamOS, yendo al apartado de Borderlands 4 y añadir los parámetros de lanzamiento SteamDeck=0 %command%. Con esto se recuperan, pero cuidado con retocar mucho o será imposible jugar en condiciones.

No está de más recordar que la Steam Deck tiene una pantalla de 7″ o 7.4″, y que si algo se ve algo borroso ahí, conectado a una pantalla más grande ya es un desastre total. En el resto de Borderlands es posible configurarlos para que salgan a 1080p y no pierde rendimiento, pero el Cell Shading usado en los otros cuatro es tan amigable que no se nota gran mejoría visual al jugar. Sí se nota en los textos y menús, pero poco más.

Sea como sea, Borderlands 4 ya es jugable en la Steam Deck. Ahora bien, si, como yo, alguien tiene pensado adquirir una Steam Machine (si es que llega, que ya tarda), quizás lo mejor es tener un poco más de paciencia.

from Linux Adictos https://ift.tt/yTl0WeL
via IFTTT

GPT-5.3 Instant: el ajuste fino que transforma la interacción diaria en ChatGPT

GPT-5.3 Instant

La última gran apuesta de OpenAI para su asistente conversacional ya está en marcha: GPT-5.3 Instant se ha convertido en el nuevo modelo por defecto para la mayoría de interacciones diarias en ChatGPT. La compañía no lo presenta como una revolución técnica, sino como un ajuste fino centrado en lo que los usuarios notan de verdad: menos trabas, menos rodeos y respuestas más útiles a la primera.

Este relevo llega tras meses de críticas al comportamiento de GPT-5.2 Instant, percibido como excesivamente cauteloso, moralizante o incluso condescendiente en ciertos contextos. Con GPT-5.3 Instant, OpenAI promete un asistente que mantenga las barreras de seguridad, pero que evite convertir cada consulta inofensiva en una negociación sobre políticas o salud mental, algo que había generado bastante desgaste entre usuarios intensivos, también en Europa.

Un despliegue global que apunta al uso diario

Según la propia compañía, GPT-5.3 Instant ya está activo para todos los usuarios de ChatGPT y disponible para desarrolladores a través de la API bajo el identificador gpt-5.3-chat-latest. Esto significa que tanto particulares como empresas europeas que integran la tecnología en sus servicios SaaS, herramientas internas o asistentes de atención al cliente ya pueden apoyarse en el nuevo modelo sin cambios de arquitectura profundos.

OpenAI subraya que esta versión es el modelo “más usado” dentro de su ecosistema, el que se encarga de la mayoría de conversaciones rápidas y tareas cotidianas. Por eso el foco no está tanto en nuevas funciones exóticas, sino en pulir el tono, la relevancia de las respuestas y el flujo de la interacción: que la conversación fluya sin callejones sin salida ni interrupciones innecesarias.

Para facilitar la transición en entornos de producción, los suscriptores de pago mantendrán acceso a GPT-5.2 Instant durante aproximadamente tres meses, etiquetado como modelo legado. La compañía ya ha fijado una fecha de corte clara: el modelo anterior se eliminará de los servidores el 3 de junio de 2026, un calendario que obliga a equipos europeos con integraciones críticas a programar migraciones y pruebas con cierto margen.

Menos negativas absurdas y menos sermones

Uno de los cambios que más se van a notar en el día a día tiene que ver con cómo decide el sistema decir “no”. Hasta ahora, GPT-5.2 Instant tendía a rechazar peticiones que sí podía atender sin riesgos reales, o se lanzaba a largos preámbulos sobre normas, límites o advertencias morales antes de entrar en materia. Eso, en la práctica, rompía el ritmo de lectura y hacía que muchas consultas acabasen en frustración.

Con la nueva versión, OpenAI asegura que GPT-5.3 Instant reduce de manera significativa las negativas innecesarias y recorta los discursos defensivos previos a la respuesta. El objetivo es que, cuando la pregunta sea segura y legítima, el modelo vaya directo al problema: formule hipótesis, pida parámetros si hace falta y ofrezca la información sin decorar cada mensaje con recordatorios genéricos.

La compañía insiste en que esto no implica levantar las protecciones en temas sensibles. Más bien se trata de ajustar el criterio para evitar bloqueos absurdos o respuestas que parecen tratar al usuario como alguien incapaz de manejar información básica. En consultas de carácter técnico, legal o financiero —muy habituales entre profesionales europeos que usan ChatGPT en su trabajo—, ese cambio de tono puede marcar la diferencia entre una herramienta útil y una experiencia que agota.

Adiós al “cringe”: un tono menos condescendiente

Además de reducir los rechazos, OpenAI ha puesto el foco en el estilo con el que se expresan las respuestas. El propio laboratorio reconoce que ciertas fórmulas de GPT-5.2 Instant —tipo “tómate un respiro” o “no estás roto”— se habían vuelto irritantes para muchos usuarios, especialmente cuando aparecían en preguntas puramente informativas o técnicas donde nadie pedía apoyo emocional.

Con GPT-5.3 Instant, la empresa quiere recortar ese componente de “cringe” y los disclaimers sermoneadores que daban la impresión de un asistente paternalista. La idea es que, si una situación realmente apunta a un problema de salud mental o a un posible riesgo, el modelo pueda modular el tono y mostrar cautela; pero que esa capa empática deje de activarse por defecto en cada petición rutinaria.

En ejemplos internos compartidos por OpenAI, la diferencia se ve con claridad: allí donde antes la respuesta arrancaba con frases tranquilizadoras que muchos percibían fuera de lugar, el nuevo modelo reconoce que un contexto puede ser difícil, pero evita ponerse en modo terapeuta sin que nadie lo haya pedido. En entornos como el financiero, el cripto o el de mercados bursátiles —muy activos también en la UE—, este cambio encaja mejor con lo que el usuario espera: datos, contexto y análisis, no un discurso motivacional.

Uso de la web más inteligente: menos listas, más contexto

Otro de los grandes frentes de la actualización está en cómo GPT-5.3 Instant se relaciona con internet cuando necesita información reciente. Hasta ahora, los modelos de la casa podían caer en respuestas tipo “lista de enlaces” o resúmenes poco conectados, limitándose a calcar resultados de búsqueda sin aportar demasiada estructura.

OpenAI afirma que el nuevo modelo logra un equilibrio más afinado entre lo que encuentra en la web y su propio conocimiento preentrenado. En lugar de volcar párrafos inconexos procedentes de distintas fuentes, GPT-5.3 Instant intenta identificar la intención de la pregunta, seleccionar lo relevante y tejer una explicación con criterio, incorporando contexto previo cuando procede.

Esto es especialmente relevante para usuarios europeos que ya utilizan ChatGPT como una especie de “meta buscador” para temas de actualidad, regulación o cambios normativos. En lugar de obligarles a navegar entre pestañas y titulares, el modelo sintetiza las ideas principales y las encaja en un relato más coherente, lo que puede ahorrar tiempo tanto en trabajos de análisis como en tareas académicas o periodísticas.

Menos alucinaciones: cifras concretas de mejora

La precisión factual sigue siendo uno de los talones de Aquiles de cualquier modelo de lenguaje. OpenAI sostiene que, en GPT-5.3 Instant, este punto mejora de forma medible dentro y fuera de la web, con resultados que interesan especialmente a profesionales de sectores regulados en Europa como el legal, el sanitario o el financiero.

Según las evaluaciones internas del laboratorio, en dominios de alto riesgo el nuevo modelo reduce las alucinaciones un 26,8% cuando se apoya en búsqueda en internet, y un 19,7% cuando opera solo con su propia base de conocimientos, siempre en comparación con su predecesor directo. Son cifras que no eliminan la necesidad de contrastar información crítica, pero sí apuntan a un descenso apreciable de errores graves.

OpenAI también emplea un segundo tipo de evaluación, basada en diálogos desidentificados de ChatGPT que los usuarios marcaron como incorrectos. En ese conjunto, particularmente exigente, la compañía reporta caídas adicionales en las tasas de alucinación, tanto con acceso web como sin él. Todo este trabajo se recoge en una System Card específica para GPT-5.3 Instant, donde se detallan los procedimientos de pruebas y mitigación de riesgos.

Escritura más rica y versátil

Más allá de la precisión, GPT-5.3 Instant quiere ser un mejor compañero de redacción. OpenAI describe un modelo capaz de generar textos con mayor textura, rango emocional y control estructural, tanto en registros formales como en estilos más creativos. La idea es que pueda saltar con soltura de un informe técnico a un relato imaginativo, manteniendo coherencia y claridad.

En demostraciones internas se comparan poemas y fragmentos de prosa generados por GPT-5.2 y GPT-5.3, donde el nuevo modelo ofrece imágenes más concretas y menos fórmulas abstractas. Para profesionales de comunicación, equipos de marketing o periodistas en España y el resto de Europa, esto se traduce en un asistente que ayuda mejor a pulir textos, adaptar tonos o reescribir borradores sin perder el control sobre el mensaje de fondo.

La compañía señala además que se ha trabajado en suavizar la tendencia a las grandes proclamaciones o a los cierres grandilocuentes, algo que muchos usuarios consideraban poco natural. El objetivo pasa por un estilo más estable y sobrio, que no robe protagonismo al contenido que el usuario quiere transmitir.

Limitaciones actuales y margen de mejora en otros idiomas

Pese a los avances, OpenAI reconoce que GPT-5.3 Instant sigue rindiendo mejor en inglés que en otros idiomas. En lenguas como el japonés o el coreano, la compañía admite que las respuestas pueden sonar rígidas o excesivamente literales, con giros poco naturales en la conversación.

En el caso del español, el modelo ya resulta bastante funcional para usuarios de España y América Latina, pero todavía puede mostrar cierta rigidez en expresiones coloquiales o registros muy específicos. El laboratorio asegura que la naturalidad multilingüe es una prioridad en futuras revisiones, y que seguirá ajustando los datos y las guías de estilo para mejorar el resultado en distintos contextos culturales.

Otro punto que OpenAI mantiene sobre la mesa es la personalización del tono. GPT-5.3 Instant debería sonar más neutro y menos intrusivo por defecto, pero la empresa continúa ampliando las opciones para que cada persona ajuste el grado de calidez, entusiasmo o formalidad a su gusto, lo que puede ser especialmente útil en entornos corporativos europeos donde las expectativas de estilo cambian mucho de un sector a otro.

Relación con la familia GPT-5.3 y otros modelos

GPT-5.3 Instant no llega solo. Forma parte de una familia más amplia de modelos 5.3, entre los que aparecen variantes especializadas como GPT-5.3-Codex y GPT-5.3-Codex-Spark, enfocadas al desarrollo de software y a la programación en tiempo real. Aunque estas versiones siguen su propia hoja de ruta, OpenAI subraya que la experiencia recogida con el modelo Instant influye en el ajuste general de tono y comportamiento.

En el anuncio oficial se adelanta también que las versiones GPT-5.3 Thinking y GPT-5.3 Pro recibirán actualizaciones en la misma línea en fechas próximas. Para empresas tecnológicas europeas, esto implica un ecosistema donde distintos modelos comparten una base de comportamiento más consistente, facilitando tanto la integración como la formación de empleados que trabajan a diario con varias variantes de ChatGPT.

Por ahora, el enfoque es claro: GPT-5.3 Instant se queda con el rol de asistente rápido, de baja latencia y orientación general, mientras que otros modelos de la serie 5.3 cubrirán casos de uso más intensivos en razonamiento profundo o programación avanzada. Esta segmentación permite elegir el modelo según la tarea concreta, optimizando costes y rendimiento en proyectos que van desde chatbots de soporte hasta herramientas internas de análisis.

Impacto para usuarios y empresas en España y Europa

En el contexto europeo, donde el marco regulatorio sobre IA se está endureciendo y el AI Act avanza en su aplicación, los ajustes introducidos por GPT-5.3 Instant pueden tener implicaciones prácticas. Menos alucinaciones, un tono más contenido y un uso de la web mejor estructurado facilitan que empresas y administraciones públicas evalúen riesgos y definan políticas de uso interno.

Para startups y pymes tecnológicas de España, el nuevo modelo abre margen para construir asistentes de soporte, herramientas de documentación y flujos de trabajo con menor fricción, manteniendo al mismo tiempo un control razonable sobre reputación y cumplimiento normativo. La promesa de menos bloqueos y menos sermones ayuda a que la IA se perciba más como una herramienta de productividad y menos como un filtro paternalista.

Aun así, OpenAI y los propios medios especializados recuerdan que el sistema no es infalible. Validar información crítica, especialmente en campos regulados, sigue siendo imprescindible, y no conviene delegar decisiones de alto impacto en un modelo estadístico por afinado que esté. En este punto, los responsables de producto en Europa deberán equilibrar las ganancias de eficiencia con protocolos claros de supervisión humana.

Con GPT-5.3 Instant, OpenAI intenta afinar un equilibrio complicado: mantener salvaguardas de seguridad y cierta empatía cuando hace falta, sin convertir cada diálogo en un cruce de advertencias, ni caer en un tono que muchos usuarios percibían como condescendiente. Al mismo tiempo, la mejora en síntesis web, la reducción medible de alucinaciones y el salto en calidad de escritura sitúan al modelo como una herramienta algo más fiable para el trabajo cotidiano, tanto para particulares como para empresas en España y el resto de Europa.

from Linux Adictos https://ift.tt/Xrhautw
via IFTTT