Kioxia presenta la serie GP SSD con Memory Class Storage para ampliar la memoria accesible por GPU y acelerar cargas AI de alto rendimiento



En un movimiento estratégico para impulsar la eficiencia de las cargas de trabajo de inteligencia artificial, Kioxia ha anunciado la serie GP SSD, diseñada para aprovechar la tecnología Storage Class Memory (SCM) y ampliar la memoria accesible por las unidades de procesamiento gráfico (GPU). Este enfoque busca unir la velocidad de la memoria cercana al DRAM con la capacidad y durabilidad de las soluciones de almacenamiento, abriendo nuevas posibilidades para aplicaciones de alto rendimiento que requieren una latencia ultrabaja y un mayor ancho de banda.

La propuesta central de la serie GP SSD es proporcionar una capa de memoria rápida y persistente que pueda ser gestionada por GPUs sin la necesidad de soluciones intermedias complejas. A medida que las cargas de trabajo de IA evolucionan hacia modelos cada vez más grandes y complejos, la demanda de acceso rápido a datos, modelos y datasets se intensifica. Con SCM integrada en la ruta de acceso a memoria, Kioxia apunta a reducir cuellos de botella entre la CPU, la memoria principal y las unidades de almacenamiento, generando mejoras significativas en IOPS (operaciones de entrada/salida por segundo) y en la latencia de lectura/escritura.

Entre las ventajas anunciadas para entornos de GPU, se destaca la capacidad de ofrecer millones de IOPS sostenidos, lo que puede traducirse en una mayor eficiencia durante el entrenamiento y la inferencia de modelos de IA, así como en una mayor velocidad de procesamiento de grandes volúmenes de datos en tiempo real. Este rendimiento está orientado a cargas de trabajo que requieren acceso rápido a conjuntos de datos voluminosos, pipelines de procesamiento y operaciones repetitivas de alta demanda.

El enfoque de SCM usado por la serie GP SSD también contempla resiliencia y durabilidad, dos factores críticos en infraestructuras modernas donde la continuidad operativa se medirá no solo por la velocidad, sino también por la capacidad de mantener integridad y disponibilidad ante fallos y picos de demanda. La integración con infraestructuras existentes se presenta como un punto clave, permitiendo a los equipos de datos optimizar la arquitectura de memoria y almacenamiento sin reconfigurar por completo sus clústeres de GPU.

Desde una perspectiva de caso de uso, los actores en investigación de IA, despliegues de aprendizaje profundo y sistemas de inferencia en tiempo real podrían beneficiarse de una reducción de latencia en accesos a pesos de modelo, activaciones intermedias y datos de entrenamiento, favoreciendo una mayor eficiencia energética y una reducción del coste total de propiedad. Al mismo tiempo, las soluciones GP SSD deben demostrar una coherencia operativa en entornos multinodo, donde la gestión de memoria distribuida y la coherencia de caché son aspectos críticos para obtener rendimientos sostenidos.

Kioxia continúa enfatizando el papel de la SCM como acelerador de rendimiento para cargas que tradicionalmente dependían de DRAM de mayor costo. Si la adopción de estas tecnologías se consolida, la arquitectura de los sistemas GPU podría evolucionar hacia configuraciones mixtas que optimicen la combinación de memoria volátil y persistente, manteniendo la velocidad de acceso requerida para trabajos de IA intensivos y, al mismo tiempo, asegurando un flujo de datos robusto y escalable.

En síntesis, la serie GP SSD representa una propuesta emergente para ampliar la memoria accesible por GPU mediante la integración de Storage Class Memory, con el objetivo de entregar millones de IOPS y una latencia eficiente para cargas de trabajo de IA de alto rendimiento. A medida que la industria evalúa estas soluciones, el éxito dependerá de la capacidad de equilibrar rendimiento, durabilidad y compatibilidad con infraestructuras heterogéneas, así como de la adopción por parte de desarrolladores y equipos de operaciones que buscan acelerar sus innovaciones sin comprometer la estabilidad operativa.

from Latest from TechRadar https://ift.tt/gWBSK4u
via IFTTT IA

Thelio Mira de System76: potencia modular para el escritorio Linux con Ryzen 9000, DDR5 y soporte para RTX 5090



En el ecosistema de escritorios Linux, pocas máquinas logran combinar rendimiento, flexibilidad y una experiencia de usuario pulida de la manera en que lo hace Thelio Mira de System76. Este equipo se posiciona como una plataforma de alto rendimiento pensada para profesionales creativos, desarrolladores y entusiastas que exigen potencia sin complicaciones. Con procesadores Ryzen 9000, soporte para hasta 192 GB de memoria DDR5 y compatibilidad con tarjetas gráficas Nvidia RTX 5090, Thelio Mira redefine lo que es posible en un escritorio modular.

Diseño y modularidad
Thelio Mira continúa la tradición de System76 en incluir una construcción cuidadosa y un enfoque claro en la gestión térmica y la facilidad de expansión. El chasis modular facilita actualizaciones de CPU y memoria sin sacrificar la estética ni la solvencia de refrigeración. Esta filosofía se traduce en una máquina que no solo llega preparada para tareas exigentes, sino que también puede adaptarse a futuras necesidades sin requerir cambios radicales de sistema.

Rendimiento con Ryzen 9000
La serie Ryzen 9000 aporta mejoras en rendimiento multi-hilo, eficiencia y capacidades de manejo de cargas de trabajo intensivas, lo que se refleja directamente en flujos de trabajo como renderizado, compilación de software y análisis de datos. En Thelio Mira, el procesador se aprovecha junto con una configuración de memoria amplia para garantizar que las operaciones complejas se ejecuten con fluidez y sin cuellos de botella.

Memoria DDR5 y ancho de banda
Con soporte para hasta 192 GB de memoria DDR5, Thelio Mira está preparada para entornos profesionales que requieren grandes volúmenes de datos en memoria—bases de datos en memoria, entornos de laboratorio de IA ligera, o simulaciones de ingeniería. DDR5 ofrece mayores velocidades y mayor eficiencia energética, lo que se traduce en mayores tasas de transferencia y latencias más bajas en aplicaciones críticas.

Gráficos de alto rendimiento: desde la RTX 5090
La compatibilidad con tarjetas Nvidia RTX 5090 posiciona a Thelio Mira como una estación de trabajo orientada a tareas gráficas y de cálculo acelerado por GPU. Ya sea para renderizado en tiempo real, modelado 3D, simulaciones o aprendizaje automático, disponer de una GPU de nueva generación permite aprovechar técnicas como trazado de rayos, renderizado por GPU y procesamiento paralelo avanzado. En un entorno Linux, los controladores y el soporte de CUDA/cuDNN pueden integrarse de forma estable para facilitar flujos de trabajo profesionales.

Software y experiencia de usuario
Un sistema basada en Linux para un equipo como Thelio Mira suele ir acompañada de optimizaciones específicas por parte del fabricante, así como de un ecosistema de herramientas que facilitan la instalación, la administración y la seguridad. La integración de la distribución y el software de System76 suele traducirse en un entorno coherente, con drivers actualizados y soporte para entornos de desarrollo, virtualización y contenedores, lo que potencia la productividad sin sacrificar la estabilidad.

Casos de uso recomendados
– Renderizado y diseño 3D profesional con cargas mixtas de CPU y GPU.
– Desarrollo de software y compilación rápida gracias a la gran memoria disponible.
– Análisis de datos y simulaciones que requieren gran ancho de banda de memoria y potencia de procesamiento.
– Entornos de laboratorio de IA ligera y experimentación con modelos que se benefician del rendimiento de la RTX 5090.

Conclusión
Thelio Mira de System76 representa una propuesta sólida para quienes buscan un escritorio Linux de alto rendimiento, escalable y preparado para el futuro. Con la potencia de los Ryzen 9000, la capacidad de memoria DDR5 hasta 192 GB y el soporte para GPUs de última generación como la Nvidia RTX 5090, esta plataforma ofrece una base robusta para tareas exigentes y proyectos que requieren tanto CPU como GPU al máximo rendimiento.

from Latest from TechRadar https://ift.tt/M5UlJ8E
via IFTTT IA

El viaje de los colores: la obsesión de Apple por las máquinas coloridas desde 1979



La historia de Apple está entrelazada con una visión audaz: las computadoras deben ser algo más que herramientas funcionales; deben ser expresiones visuales de una identidad. Desde 1979, Apple ha cultivado una paleta de colores que no solo distingue sus productos, sino que también moldea la experiencia del usuario y la percepción de la marca. Este camino, que empezó con un conjunto de intuiciones y experimentos, se convirtió en una filosofía de diseño que continúa guiando a las Macs en la actualidad.

En los inicios, la decisión de presentar equipos en una variedad de colores fue una declaración de intenciones: la tecnología podía ser accesible, amigable y, sobre todo, personal. Cada tonalidad no era solo un acabado estético; era una promesa de que la computadora sería una extensión de la personalidad del usuario. A lo largo de las décadas, esta obsesión por el color ha evolucionado, pero su impacto persiste en la forma en que Apple conceptualiza la experiencia de usuario, la usabilidad y la identidad visual de sus productos.

El recorrido ha pasado por momentos de exploración, reinvención y, a veces, consolidación de un lenguaje. Las decisiones cromáticas han acompañado avances técnicos, desde la introducción de sistemas operativos más intuitivos y interfaces más limpias, hasta la adopción de materiales y acabados que enriquecen la sensación táctil y visual. El color, en este sentido, ha sido una vía para comunicar facilidad de uso, innovación y cercanía.

Hoy, las Macs continúan portando el legado de aquella primera obsesión: colores que invitan a la creatividad, que facilitan la distinción entre dispositivos y que, en conjunto, refuerzan una identidad de marca coherente. Este hilo conductor entre historia y presente revela cómo una elección estética puede convertirse en una estrategia duradera, capaz de influir en la forma en que trabajamos, aprendemos y nos expresamos frente a una pantalla.

Al mirar hacia el futuro, la pregunta ya no es si Apple volverá a sorprendernos con nuevos tonos, sino cómo transformará la experiencia cromática para que siga siendo relevante en un ecosistema que evoluciona con rapidez. En cada lanzamiento, el color continúa siendo una voz que habla de innovación, compatibilidad y una filosofía centrada en el usuario: que la tecnología llegue de forma clara, atractiva y personal.

from Latest from TechRadar https://ift.tt/0OFfIdh
via IFTTT IA

Homescreen Heroes: P Water, una forma simple de rastrear la hidratación sin contar onzas



En un mundo donde las pantallas nos rodean y el tiempo parece acelerarse, mantener hábitos saludables puede convertirse en un desafío cotidiano. P Water llega como una solución elegante para aquellos que desean cuidar su hidratación sin complicaciones ni cálculos mentales. Este enfoque, centrado en la experiencia del usuario desde la pantalla de inicio, transforma la rutina diaria en una tarea simple y sostenible.

La premisa detrás de P Water es clara: facilitar un hábito esencial sin convertirlo en una contabilidad exhaustiva. En lugar de medir cada mililitro con precisión absoluta y llenar hojas de cálculo mentales, P Water propone una experiencia visual y accesible que recuerda beber agua de forma natural a lo largo del día. Este enfoque reduce la fricción y aumenta la probabilidad de adherencia, especialmente para personas con agendas apretadas, viajes frecuentes o cambios de zona horaria.

Elementos clave del enfoque:
– Recordatorios sutiles: notificaciones que se integran con la rutina diaria sin interrumpir la productividad.
– Indicadores simples: un diseño claro que muestra progreso sin abrumar, utilizando gráficos suaves y colores que invitan a la acción.
– Motivación perceptible: recompensas pequeñas y metas realistas que mantienen el impulso sin generar presión innecesaria.
– Adaptabilidad: la solución se ajusta a distintos estilos de vida, ya sea para quienes buscan mantener una ingesta constante o para quienes buscan alcanzar un objetivo diario más ligero.

Desde la experiencia del usuario, la clave no está en el conteo exacto de onzas, sino en cultivar una conciencia constante sobre la hidratación. Este enfoque reduce la ansiedad asociada con las métricas y permite que la hidratación se integre de manera orgánica en la jornada diaria, sin requerir pasos adicionales ni complicaciones técnicas.

Beneficios observables para usuarios y equipos:
– Mayor adherencia a hábitos saludables con menos fricción.
– Optimizaciones de diseño que priorizan la claridad y la usabilidad en pantallas pequeñas.
– Potencial para integraciones con otras herramientas de bienestar, brindando una visión holística de la salud diaria.

En resumen, P Water propone una visión práctica y centrada en el usuario: cuidar la hidratación de forma sencilla y sostenible, desde la pantalla de inicio, sin necesidad de contar cada onza. Al eliminar la complejidad y enfocarse en hábitos consistentes, esta propuesta se convierte en una aliada valiosa para quienes buscan una vida más equilibrada en medio de la vorágine diaria.

from Latest from TechRadar https://ift.tt/c37rZ1p
via IFTTT IA

Desafíos y Oportunidades de los Modelos de Lenguaje Grande en Salidas Estructuradas



En el desarrollo moderno de IA, los modelos de lenguaje grande (LLMs) han demostrado una capacidad impresionante para generar texto coherente, responder preguntas y asistir en tareas complejas. Sin embargo, cuando se les solicita producir salidas estructuradas —como tablas, listas jerárquicas, o formatos de datos rigurosos— su rendimiento puede caer significativamente. En evaluaciones recientes, los LLMs alcanzan aproximadamente un 75% de exactitud en tareas estructuradas complejas, lo que plantea dudas serias sobre su fiabilidad para aplicaciones críticas.

Este rendimiento tiene implicaciones directas para equipos de desarrollo, producto y operaciones. En escenarios donde una salida estructurada debe integrarse a flujos de datos, APIs o sistemas empresariales, un 25% de error puede traducirse en fallos de procesamiento, datos inconsistentes o pérdidas operativas. Por ello, es fundamental comprender las limitaciones actuales y diseñar estrategias que mitiguen el riesgo sin obstaculizar la innovación.

Primero, es importante reconocer la fuente de las limitaciones: los LLMs son optimizados para generar texto que suene plausible y coherente, no para adherirse a especificaciones formales o a esquemas de validación rígidos. Esto significa que, frente a reglas de negocio, estructuras de datos o contratos de intercambio, pueden desviarse o producir formatos cercanos pero no exactos. En segundo lugar, la variabilidad de los datos de entrada, la ambigüedad en las instrucciones y la necesidad de contextos prolongados pueden exacerbar los errores en salidas estructuradas.

Para mejorar la fiabilidad, las organizaciones pueden adoptar varias prácticas complementarias. En primer lugar, incorporar validación externa y checksums para las salidas generadas, de modo que cualquier desviación se detecte y se recupere automáticamente. En segundo lugar, utilizar plantillas y esquemas predefinidos con límites estrictos de validación (por ejemplo, JSON Schema, XML Validation) para forzar estructuras correctas y facilitar la verificación.

Una estrategia práctica es combinar la potencia de los LLMs con componentes de procesamiento posterior (post-processors). El flujo típico podría incluir: generación inicial por el modelo, extracción y normalización de datos, validación estructural, y corrección automática de inconsistencias con reglas de negocio claras. Este enfoque híbrido permite aprovechar la flexibilidad del modelo sin sacrificar la precisión requerida por sistemas críticos.

Además, la calibración de instrucciones y el uso de sistemas de orquestación pueden reducir errores. Dar instrucciones explícitas, fijar ejemplos de salida esperada y emplear pruebas con casos límite son prácticas que elevan la robustez. Las pruebas automatizadas que simulan escenarios reales de operación pueden identificar patrones de fallo antes de la producción.

Desde la perspectiva de producto, la fiabilidad de las salidas estructuradas impacta directamente en la confianza del usuario y en la escalabilidad de soluciones basadas en IA. Los equipos deben equilibrar la ambición de entregar respuestas rápidas y contextualmente ricas con la necesidad de cumplir con formatos y contratos de datos. Recomendamos documentar explícitamente las limitaciones conocidas y establecer SLAs técnicos para salidas estructuradas, de modo que las expectativas sean realistas y gestionables.

En resumen, aunque los LLMs ofrecen capacidades sin precedentes para generar contenido y guiar decisiones, su rendimiento en salidas estructuradas complejas aún alcanza un umbral del 75% de precisión. Este dato no debe ralentizar la innovación, sino inspirar un enfoque disciplinado que combine generación de lenguaje con validación, normalización y controles de calidad. Con arquitecturas híbridas, buenas prácticas de validación y una mentalidad orientada a la fiabilidad, es posible aprovechar lo mejor de estos modelos al mismo tiempo que se mitiguen los riesgos operativos.

from Latest from TechRadar https://ift.tt/kodhty1
via IFTTT IA

Explorando la Inspiración Detrás de Assassin’s Creed Shadows: Un Viaje de Investigación y Descubrimiento



En el mundo de los videojuegos, la autenticidad y la inmersión son elementos cruciales para crear experiencias que permanezcan en la memoria del jugador. Recientemente, Ubisoft ha compartido detalles sobre el proceso de desarrollo de Assassin’s Creed Shadows que destacan un enfoque meticuloso hacia la investigación y la inspiración cultural. Este artículo ofrece una visión clara de cómo las rutas de exploración y el estudio profundo de contextos históricos y geográficos se transforman en una narrativa de juego más rica y verosímil.

Una de las piezas centrales del proyecto fue la investigación exhaustiva que precedió a cualquier diseño de escenario. En lugar de basarse únicamente en descripciones y referencias superficiales, el equipo de desarrollo llevó a cabo un análisis detallado de periodos históricos, arquitectura, costumbres y dinámicas sociales. Este enfoque permitió establecer una base sólida sobre la que se construye la experiencia de juego, asegurando que cada entorno se sienta auténtico y coherente con el periodo representado.

Además, las visitas guiadas por Japón jugaron un papel significativo en la consolidación del tono y la atmósfera del título. Estas excursiones no solo sirvieron para capturar imágenes y referencias visuales, sino también para comprender la vida cotidiana, los gestos culturales y las particularidades del paisaje urbano y rural. Las rutas guiadas ofrecieron perspectivas de primera mano sobre la relación entre los lugares y las historias que los jugadores esperan descubrir, enriqueciendo la narración y fortaleciendo el sentido de lugar.

La adopción de un enfoque contemporáneo a la investigación no implica en modo alguno la pérdida de libertad creativa. Al contrario, la recopilación de datos y experiencias de campo actúa como una brújula que orienta el diseño hacia posibilidades narrativas más profundas. La colaboración entre historiadores, diseñadores y artistas conceptuales dio lugar a soluciones innovadoras que equilibran la precisión histórica con la fantasía propia de la saga Assassin’s Creed.

En términos de experiencia del jugador, este compromiso con la investigación se traduce en entornos que invitan a la exploración, misiones que se sienten contextualizadas y efectos visuales que respiran autenticidad. La riqueza de detalles, desde la iluminación hasta los patrones de interacción social, contribuye a que cada sesión de juego se convierta en una oportunidad para aprender y maravillarse al mismo tiempo.

En resumen, la revelación de Ubisoft sobre su proceso de desarrollo subraya una filosofía clara: la investigación rigurosa y las experiencias de campo son motores creativos que elevan la narrativa y la inmersión. Assassin’s Creed Shadows no es únicamente un producto de entretenimiento, sino una ventana a la complejidad de culturas y ciudades, reflejada con respeto y ambición en cada rincón del juego.

from Latest from TechRadar https://ift.tt/tvz1k7d
via IFTTT IA

Mejora el rendimiento de tu Mac en juegos: consejos prácticos y cambios simples



En la actualidad, muchos usuarios buscan sacar el máximo rendimiento de su Mac sin renunciar a la estabilidad del sistema. A continuación, te presento una serie de estrategias prácticas y cambios simples que pueden marcar una diferencia notable en la experiencia de juego.

1) Mantén el sistema operativo y los drivers actualizados
– Asegúrate de instalar las últimas actualizaciones de macOS, ya que suelen incluir mejoras de rendimiento y compatibilidad con juegos recientes.
– Revisa periódicamente las actualizaciones de aplicaciones y herramientas de optimización disponibles para macOS.

2) Optimiza la configuración de energía
– En Preferencias del Sistema > Ahorro de energía, ajusta para un máximo rendimiento cuando estés conectado a la corriente. Desactiva funciones que consumen recursos innecesarios en segundo plano durante las sesiones de juego.
– Activa la opción de rendimiento alto en el plan de energía cuando uses baterías solo si la duración de la batería no es crítica para ti.

3) Libera recursos y gestiona el almacenamiento
– Cierra aplicaciones que no necesites. El consumo de CPU y RAM por procesos en segundo plano puede afectar el rendimiento de los juegos.
– Mantén un límite de almacenamiento libre en el disco. Un disco casi lleno puede provocar ralentizaciones y tiempos de carga más largos.
– Considera usar una unidad SSD externa para juegos si tu Mac dispone de puertos compatibles y capacidad suficiente.

4) Optimiza la configuración gráfica del juego
– Ajusta resolución y calidad gráfica. En muchos títulos, reducir ligeramente la resolución o desactivar efectos como sombras, anti-aliasing o efectos de niebla puede incrementar significativamente las tasas de frames por segundo sin comprometer demasiado la experiencia.
– Activa las opciones de sincronización vertical (V-Sync) solo si notas tearing; de lo contrario, desactívala para mejorar la fluidez.
– Si tu juego admite modos de rendimiento, elige opciones como «High Performance» o «Performance Mode» cuando sea posible.

5) Aprovecha herramientas y utilidades compatibles con macOS
– Utiliza gestores de tareas o monitores de rendimiento para identificar procesos que consumen recursos excesivos y gestionarlos adecuadamente.
– Considera herramientas de optimización que sean compatibles con macOS y que no comprometan la seguridad del sistema.

6) Gestión de memoria y almacenamiento de juegos
– Instala los juegos en una ubicación con suficiente espacio libre y velocidad de lectura/escritura adecuada (idealmente una SSD interna o externa rápida).
– Si tu Mac dispone de varias unidades, prioriza la ejecución desde la que ofrezca menor latencia y mayor ancho de banda.

7) Audio y periféricos
– Revisa la configuración de audio; a veces, desactivar efectos de sonido innecesarios o usar un perfil de audio básico puede reducir la carga en la CPU.
– Verifica que los controladores de periféricos (mandos, ratón, mando) estén actualizados y optimizados para reducir la latencia.

8) Mantenimiento periódico
– Realiza limpiezas de disco y verifica la integridad del sistema de archivos para evitar caídas de rendimiento a largo plazo.
– Desinstala software que no uses y que pueda ejecutarse en segundo plano.

Conclusión
Con estos ajustes, es posible lograr una experiencia de juego más fluida y estable en una Mac sin necesidad de soluciones externas costosas. El objetivo es equilibrar calidad visual y rendimiento, manteniendo la estabilidad del sistema para que puedas disfrutar de tus títulos favoritos con tranquilidad. Si bien cada equipo es único, la mayoría de estas recomendaciones ofrecen mejoras perceptibles y fáciles de implementar.

from Latest from TechRadar https://ift.tt/alqmdNw
via IFTTT IA

Panther Lake: Perspectivas y Rendimiento Esperado según Nish Neelalojanan de Intel



En esta entrega, exploramos las expectativas y el desempeño proyectado de Panther Lake, el nuevo capítulo en la estrategia de Intel para la gestión y optimización de sus recursos de hardware y software. Basándonos en las declaraciones y el marco analítico proporcionado por Nish Neelalojanan, analista y líder de visión tecnológica dentro de Intel, se destacan las líneas centrales que guían el desarrollo y la implementación de Panther Lake. \n\nContexto estratégico: Panther Lake representa una iniciativa clave para reforzar la eficiencia operativa, la escalabilidad de cargas de trabajo y la seguridad a lo largo del ciclo de vida de los productos. La visión de Nish enfatiza una sinergia entre arquitectura, herramientas de desarrollo y capacidades de soporte para clientes empresariales y socios tecnológicos. \n\nRendimiento técnico: En lo que respecta al rendimiento, las expectativas se centran en mejoras continuas en áreas como procesamiento, capacidad de memoria y eficiencia energética. Se resalta la necesidad de balancear potencia y consumo, optimizando la relación rendimiento/consumo para escenarios de datos intensivos, inteligencia artificial y cargas de nube híbrida. \n\nExpectativas de implementación: Se anticipa una adopción gradual con fases de prueba, validación y despliegue escalonado. La estrategia de Panther Lake se apoya en métricas claras: rendimiento sostenido bajo presión, estabilidad de plataformas y compatibilidad con ecosistemas existentes. Nish subraya la importancia de la colaboración con desarrolladores y clientes para iterar rápidamente sobre feedback y situaciones del mundo real. \n\nImpacto para el ecosistema: La expectativa es que Panther Lake impulse una mayor optimización de soluciones, facilitando tiempos de comercialización más cortos y una mayor resiliencia ante cambios en demanda y entornos de seguridad. Al alinear las capacidades de hardware con herramientas y marcos de software, Intel busca proporcionar una plataforma más ágil para innovaciones continuas. \n\nReflexión final: Con las declaraciones de Nish Neelalojanan como guía, Panther Lake se posiciona no solo como una mejora técnica, sino como una estrategia integral para sostener la competitividad en un panorama tecnológico en constante evolución. La clave será mantener la transparencia con la comunidad de usuarios y continuar priorizando rendimiento práctico, eficiencia y escalabilidad en cada fase de desarrollo.

from Latest from TechRadar https://ift.tt/ZWnvXlo
via IFTTT IA

La vulnerabilidad persistente: cómo las credenciales robadas y las cookies pueden socavar las protecciones MFA



En el panorama de seguridad moderno, la autenticación multifactor (MFA) se ha convertido en una línea defensiva crucial para proteger cuentas y datos sensibles. Sin embargo, incluso las configuraciones MFA más robustas pueden quedar expuestas cuando las credenciales o las cookies de sesión son comprometidas. Este artículo analiza las rutas principales por las que estas piezas de información pueden ser explotadas y las implicaciones para las organizaciones y los usuarios.

1) Credenciales robadas como puerta de entrada
Las credenciales obtenidas de phishing, breaches o malware pueden permitir a un atacante iniciar sesión en servicios que, en teoría, requieren MFA. Si el atacante ya posee la combinación de usuario y contraseña, la MFA podría ser omitida o el atacante podría interceptar el segundo factor en el momento delicado del inicio de sesión, dependiendo de la implementación:
– MFA basada en conocimiento o en dispositivos: algunas aplicaciones pueden permitir un inicio de sesión si el segundo factor es presentado desde un dispositivo confiable o si el usuario no ha verificado explícitamente el intento de inicio.
– MFA con verificación de ubicación o dispositivo: los ataques pueden intentar simular un entorno conocido o explotar deficiencias en la detección de dispositivos.
– MFA desencadenada por flujos de autenticación específicos: ciertos proveedores pueden permitir flujos de autenticación alternativos ante credenciales ya verificadas.

2) Cookies de sesión y su impacto en la MFA
Las cookies de sesión son piezas pequeñas de información que permiten a un servicio identificar a un usuario entre sesiones. Si un atacante obtiene cookies válidas, podría eludir ciertos controles de MFA durante sesiones activas, dependiendo de:
– Caducidad de la cookie: cookies de larga duración pueden permitir acceso sostenido sin volver a pasar por MFA.
– Alcance de la sesión: cookies atadas a un navegador o dispositivo específico pueden facilitar el robo de sesión si el atacante comparte entorno con el usuario legítimo.
– Implementaciones de corto plazo: algunas plataformas requieren MFA solo durante el inicio de sesión, no durante las operaciones de sesión continuada; con una cookie comprometida, el atacante podría realizar acciones hasta que la cookie caduque o sea invalidada.

3) escenarios combinados y vectores de ataque
En la práctica, los atacantes suelen combinar credenciales robadas y cookies para maximizar sus posibilidades:
– Ataques de sesión resucitada: uso de credenciales robadas para iniciar sesión y obtención de cookies de sesión válidas para mantener el acceso sin MFA repetido.
– Robo de cookies mediante malware o repositorios: el malware puede extraer cookies de navegadores y trasladarlas a un servidor controlado.
– Suscripción de sesiones en dispositivos comprometidos: el atacante podría explotar la confianza de MFA basada en dispositivos para obtener acceso sostenido.

4) Riesgos para la organización y el usuario
– Pérdida de control de cuentas críticas: acceso no autorizado a servicios de correo, herramientas de colaboración o sistemas empresariales.
– Exposición de datos sensibles: información de clientes, propiedad intelectual y datos de tarjetas pueden verse comprometidos.
– Impacto reputacional y cumplimiento: fallos en la protección de datos pueden acarrear sanciones regulatorias y daños a la confianza.

5) Estrategias para mitigar estos riesgos
– Refuerzo de la verificación de MFA: utilizar MFA basada en múltiples factores dinámicos, como claves de hardware (FIDO2), biometría en dispositivos confiables y autenticación basada en riesgo.
– Gestión de sesiones y cookies: invalidar sesiones en eventos de seguridad, implementar rotación de cookies, y exigir MFA al cambiar dispositivo o ubicación sospechosa.
– Detección de anomalías: monitorizar inicios de sesión desde ubicaciones inusuales, dispositivos no reconocidos y intentos repetidos de autenticación fallidos.
– Educación y simulaciones: entrenar a usuarios para reconocer phishing y otros vectores de robo de credenciales, y realizar ejercicios de simulación para mejorar la respuesta.
– Proceso de respuesta ante incidentes: establecer procedimientos claros para revocar tokens, invalidar sesiones y emitir cambios de credenciales cuando se detecten indicios de compromiso.

6) Conclusión
La MFA sigue siendo una pieza esencial de la arquitectura de seguridad, pero no es infalible. Un enfoque holístico que combine controles de acceso adaptativos, gestión de sesiones rigurosa y educación continua es clave para reducir la superficie de ataque asociada a credenciales robadas y cookies. La resiliencia se construye con capas, monitoreo proactivo y respuestas rápidas ante indicios de compromiso.

from Latest from TechRadar https://ift.tt/n4UFbWY
via IFTTT IA