Passkeys: cuatro años de evolución que hoy los posicionan como la autenticación número uno



En los últimos cuatro años, los passkeys han dejado de ser una promesa para convertirse en una práctica recomendada a gran escala. Impulsados por estándares como WebAuthn y la colaboración de actores clave de la industria, estos identificadores de usuario basados en dispositivos han escalado desde proyectos piloto hasta convertirse en la opción preferente para la autenticación segura. Esta trayectoria explica, en buena medida, por qué cada vez más empresas y plataformas las están promoviendo como la solución de referencia para acceder a servicios digitales.

¿Qué son exactamente los passkeys? En esencia, son credenciales criptográficas que permiten autenticarse sin contraseñas. En lugar de recordar una secuencia, el usuario utiliza un dispositivo (teléfono, portátil, llave de seguridad) y, según el caso, biometría, PIN o un factor de posesión. Esta arquitectura ofrece una resistencia natural al phishing: incluso si un atacante intenta engañar al usuario, carece de una credencial válida para el dominio legítimo, lo que dificulta la reproducción de una sesión.

Entre sus principales beneficios destacan una experiencia de usuario más fluida y segura. Al eliminar la necesidad de contraseñas, se reduce la fricción del inicio de sesión y, al mismo tiempo, se mitigan vectores comunes de compromiso como filtraciones de contraseñas, reutilización de credenciales y ataques de phishing. Para las organizaciones, esto se traduce en menores costos de soporte, menos incidencias de seguridad y una mayor tasa de adopción de autenticación fuerte entre empleados y clientes.

La adopción ha ido ganando impulso de forma sostenida. Grandes ecosistemas y fabricantes de sistemas operativos—incluidos proveedores de servicios en la nube, bancos y plataformas de productividad—integran soporte para passkeys, con una visión de interoperabilidad que permite autenticarse entre dispositivos y ecosistemas diferentes sin perder seguridad. Este impulso colaborativo facilita una experiencia unificada para usuarios y reduce las barreras técnicas para la migración desde métodos tradicionales.

Como cualquier cambio de seguridad, la transición no está exenta de desafíos. Las organizaciones deben planificar la migración desde sistemas que dependen de contraseñas, establecer políticas de recuperación y backups de credenciales, y asegurar una experiencia sin fricción al usuario final. Es crucial contemplar escenarios de pérdida de dispositivo, rotación de credenciales y compatibilidad con aplicaciones heredadas que no soportan WebAuthn de inmediato. La estrategia debe incluir opciones de recuperación, alternativas temporales y una ruta de implementación gradual para evitar interrupciones operativas.

Para maximizar el impacto, se recomiendan prácticas claras: implementar WebAuthn en el servidor y los flujos de autenticación, respaldar credenciales en soluciones seguras de almacenamiento de claves, ofrecer autenticadores variados (integrados, externos, biométricos) y garantizar compatibilidad entre plataformas. También es importante fomentar una educación básica para usuarios y administradores, comunicar las políticas de seguridad y diseñar procesos de recuperación confiables que no debiliten la seguridad general.

Mirando hacia el futuro, la tendencia apunta a una adopción aún más amplia y a una consolidación de los passkeys como pilar central de la identidad digital. La estandarización, la interoperabilidad entre dispositivos y proveedores, y una mayor madurez en las soluciones de respaldo serán factores determinantes. En este contexto, las organizaciones que ya han adoptado passkeys estarán mejor posicionadas para responder a nuevas necesidades de seguridad, cumplimiento y experiencia de usuario.

En síntesis, los passkeys han recorrido un camino notable en apenas cuatro años: de una innovación emergente a una recomendación sólida y cada vez más extendida. Su promesa de mayor seguridad, acompañada de una experiencia de usuario más sencilla, explica por qué hoy se consideran la autenticación número uno para muchos entornos. Si tu organización aún no ha explorado su implementación, este es un momento oportuno para evaluar cómo una estrategia de passkeys puede transformar la seguridad y la experiencia de tus usuarios.

from Latest from TechRadar https://ift.tt/LGuAMi4
via IFTTT IA

Agentes de IA en acción: no solo respuestas, sino cadenas de decisiones



Hoy, los agentes de IA ya no se limitan a responder preguntas de forma aislada. En el mundo práctico, estos sistemas funcionan como orquestadores de decisiones: observan, interpretan, planifican acciones y ejecutan una sucesión de pasos para alcanzar metas específicas. Esta capacidad de tejer secuencias de decisiones coloca a los agentes de IA en un plano diferente al de las respuestas puntuales. Comprender esta dinámica ayuda a diseñadores, usuarios y ejecutivos a aprovechar mejor su potencial y a gestionar sus riesgos.

Para entenderlo, conviene distinguir entre dos modos de operación. Por un lado esta la respuesta directa, adecuada para consultas simples o informaciones estáticas. Por otro, existe un modo de deliberacion que permite al agente construir un plan de accion a partir de varias fases, cada una con entradas, salidas y criterios de exito. En este modo el sistema no entrega una sola salida, sino un itinerario de tareas que pueden incluir buscar datos, consultar herramientas externas, analizar resultados intermedios y ajustar el rumbo en funcion de retroalimentacion.

La arquitectura subyacente combina percepcion, razonamiento y ejecucion. En la primera etapa el agente recibe una estimulación o instruccion y transforma esa entrada en una representacion manejable. En la segunda etapa el sistema genera un plan: una secuencia de decisiones que guiaran la accion. Este plan puede ser lineal o jerarquico, con niveles de abstraccion que permiten descomponer objetivos amplios en tareas manejables. Finalmente llega la ejecucion, que implica interactuar con herramientas, APIs, bases de datos o interfaces de usuario. Cada paso genera una observacion que alimenta una nueva ronda de deliberacion, cerrando un ciclo de mejora continua.

Este enfoque tiene varias ventajas. Permite resolver problemas complejos que requieren combinar conocimiento de dominios distintos, incorporar datos recientes o estructurar un proceso que se puede auditar. También facilita la reutilizacion de habilidades: un mismo agente puede afrontar tareas de ventas, soporte tecnico o exploracion de datos gracias a una biblioteca de planes y herramientas compartidos. No obstante, la cadena de decisiones introduce nuevos desafios. Un error en una fase temprana puede desalinear el plan completo; por ello la gestion de incertidumbre, el manejo de fallos y la verificacion de resultados intermedios se vuelven componentes centrales del diseno.

Una buena practica consiste en registrar y explicar al usuario las decisiones criticas que guian el plan. Esto no implica exponer una cadena de pensamiento paso a paso que pueda revelar procesos internos, sino ofrecer una explicacion clara de como se tomo la decision clave, que herramientas se utilizaron y cual fue el resultado observado. La trazabilidad facilita la responsabilidad, la depuracion y el aprendizaje del sistema, especialmente cuando opera en entornos regulados o con alto impacto.

Desde la perspectiva operativa, un agente de IA bien diseñado maneja tres actores en su core: memoria, razonamiento y orquestacion. La memoria almacena contexto de conversaciones, datos relevantes y experiencias previas que pueden influir en decisiones futuras. El razonamiento organiza el plan a partir de objetivos, restricciones y estimaciones de costo o riesgo. La orquestacion coordina la ejecucion de cada tarea, supervisando tiempos, dependencias y interacciones con herramientas externas. Esta separacion de roles ayuda a crear sistemas mas robustos, donde cada componente puede evolucionar sin perturbar las demas partes.

En aplicaciones reales, este modelo de decision making por cadenas se ve en clientes que buscan resolver problemas complejos, como diagnosticar una interrupcion de servicio, planificar una campaña de marketing multicanal o realizar una investigacion de datos a gran escala. En todos estos casos el resultado no depende de una sola instruccion, sino del acoplamiento de varias acciones encadenadas que deben coordinarse con criterio de exito y con controles de calidad. Por ello, las empresas que adoptan este enfoque tienden a adoptar practicas de gobernanza de IA que contemplan auditabilidad, pruebas en escenarios simulados y controles de sesgo.

Mirando hacia el futuro, la evolucion de los agentes de IA parece dirigirse a planes cada vez mas sofisticados y adaptativos. Investigadores y equipos de producto exploran tecnologias de razonamiento jerarquico, planes probabilistas y memoria de trabajo a largo plazo. El objetivo es construir agentes que no solo respondan a una pregunta, sino que tracen rutas de acceso a conocimiento, evalúen alternativas y aprendan de la experiencia sin necesidad de intervenciones constantes. Este progreso abre oportunidades para colaboraciones hombre maquina mas fluidas, donde la agencia de la maquina en el mejor sentido de la palabra se complementa con la intuicion, el juicio y la creatividad humana.

En la practica, lo clave es reconocer que la calidad de un agente de IA no se mide solo por la exactitud de una respuesta sino por la confiabilidad de la cadena de decisiones que la sustenta. Esto implica diseñar con claridad criterios de exito, establecer salvaguardas, promover la explicabilidad y facilitar la observabilidad de cada etapa. Cuando se logra ese equilibrio, los agentes dejan de ser simples asistentes y se convierten en colaboradores que transitan desde tareas puntuales a procesos y proyectos que requieren varias etapas de razonamiento y ejecucion.

En resumen, los agentes de IA de hoy no se limitan a contestar preguntas. Tejen, miden y ajustan secuencias de decisiones para avanzar hacia objetivos, un cambio de paradigma que redefine la forma en que resolvemos problemas complejos. Entender esta dinamica abre un abanico de posibilidades para crear soluciones mas potentes, pero tambien exige una disciplina firme en gobernanza, seguridad y responsabilidad.

from Latest from TechRadar https://ift.tt/YAqamnt
via IFTTT IA

Memristores de los 2000: una tecnología controvertida que podría hacer más barata, más rápida y casi indestructible la IA



En la década de 2000 emergió una tecnología que prometía un cambio de paradigma para la inteligencia artificial: el memristor. Con un nombre que suena técnico y a la vez cinematográfico, esta idea despertó entusiasmo y escepticismo a la vez. Su argumento central: una memoria que recuerda la historia de la corriente que la ha atravesado y que podría integrarse estrechamente con la lógica de procesamiento para crear sistemas de IA mucho más eficientes. El resultado sería una IA más barata de entrenar y ejecutar, más rápida en la inferencia y, en ciertos escenarios, notablemente más resiliente frente a fallos. A continuación, exploramos qué es realmente un memristor, por qué fue tan controversial en sus inicios y cómo, si la industria logra superar sus desafíos, podría transformar la forma en que diseñamos y operamos hardware de IA.

Qué es un memristor y por qué llamó tanto la atención
Un memristor es, en esencia, un componente cuya conductancia cambia en función de la historia de la tensión o la corriente que ha atravesado sus capas. Esta propiedad permite almacenar información de manera no volátil sin necesidad de energía continua y, al mismo tiempo, realizar operaciones lógicas y de matrices directamente en la memoria. En teoría, un entramado de memristores podría ejecutar con gran eficiencia las operaciones de multiplicación de matrices que están en el corazón de las redes neuronales, reduciendo la latencia y el consumo energético frente a las arquitecturas tradicionales de CPU/GPU y a la memoria volátil.

La controversia de los años 2000: realidades técnicas frente a promesas mediáticas
La década pasada vio una explosión de titulares sobre memristores, impulsados en buena medida por demostraciones de laboratorios y afirmaciones ambiciosas de empresas como Hewlett-Packard. Para muchos, aquello parecía la promesa de una revolución en la memoria y, por extensión, en la forma en que entrenamos y desplegamos modelos de IA. Pero también hubo críticas rigurosas: la replicabilidad de los resultados, la estabilidad a largo plazo, la variabilidad entre dispositivos y la compatibilidad con procesos de fabricación comerciales eran grandes incógnitas. En resumen, el tema fue polarizante: existía un núcleo teórico sólido y un enorme interés práctico, pero la ruta hacia una producción fiable y rentable era aún incierta. Con el tiempo, la investigación avanzada para entender materiales, diseños y escalabilidad ha seguido, desglosando parte de la promesa y aclarando cuán lejos podría estar el objetivo real.

Cómo podría transformar la IA: costos, velocidad y resiliencia
– Cómputo en memoria (in-memory computing): al incorporar la memoria y la lógica en el mismo sustrato, se reduce significativamente la transferencia de datos entre unidades de memoria y procesadores. Esto se traduce en menor consumo energético y mayor velocidad, especialmente para operaciones de redes neuronales profundas que dependen de multiplicaciones de matrices.
– Densidad y persistencia: la memoria no volátil de los memristores permite almacenar grandes cantidades de estado sin consumir energía continua. Esta combinación de densidad y retención abre posibilidades para modelos más complejos o para inferencia en dispositivos con restricciones de energía y refrigeración, como el edge computing.
– Arquitecturas neuromórficas y resiliencia: los arrays de memristores pueden facilitar enfoques neuromórficos que mimetizan, a alto nivel, la eficiencia de la cognición biológica. En teoría, estos sistemas podrían ser más tolerantes a fallos gracias a la redundancia y a la capacidad de reconfigurar circuitos ante daños, acercándose a una idea de IA que funcione con menos interrupciones y menos necesidad de refrigeración.
– Eficiencia en costes operativos: menos latencia, menor energía y menor requerimiento de hardware de alto rendimiento pueden traducirse en costos operativos más bajos para centros de datos y para deployments a gran escala. Esto podría traducirse en una IA más asequible para una gama más amplia de empresas y aplicaciones.
– Potencial para IA en el borde: la combinación de memoria persistente y baja demanda energética podría permitir que modelos más pesados funcionen en dispositivos locales, reduciendo la necesidad de enviar datos a la nube y acelerando respuestas en tiempo real.

Desafíos y consideraciones para una adopción responsable
– Variabilidad y fiabilidad: las propiedades de los memristores pueden fluctuar entre dispositivos y a lo largo del tiempo, lo que plantea retos para la consistencia del rendimiento en IA. La tolerancia a variaciones y la calibración serán áreas críticas de desarrollo.
– Integración con procesos existentes: adaptar líneas de fabricación y libs de diseño para integrar memristores con CMOS y otros componentes estándar implica costos y riesgos técnicos. La estandarización de procesos y pruebas será clave para la adopción a gran escala.
– Desafíos de seguridad y mitigación de riesgos: como cualquier tecnología de hardware persistente, existen consideraciones de seguridad ante posibles ataques a nivel de hardware o de generación de datos corruptos que podrían propagarse a través de una red neuronal entrenada con este tipo de memoria.
– Impacto económico y social: pese a su promesa de reducción de costos, la adopción escalada podría concentrar capacidades en ciertos actores con capacidad de invertir en I+D y en infraestructuras de fabricación, con efectos sobre empleo y competitividad en la industria de IA.
– Medio ambiente y sostenibilidad: la explotación de nuevos materiales y procesos de fabricación trae cuestiones ambientales que deben gestionarse con responsabilidad, evaluando el ciclo de vida y las repercusiones de extracción, producción y desecho.

Hacia un horizonte práctico: escenarios de implementación
– Centros de datos de próxima generación: si se logra una producción estable, los centros podrían beneficiarse de memoria de alta densidad y procesamiento en memoria para acelerar entrenamiento y despliegue de grandes modelos, reduciendo costes energéticos y térmicos.
– IA en el borde: dispositivos con capacidad de inferencia avanzada, operando sin conexión constante a la nube, podrían abrir nuevas aplicaciones en industriales, vehículos autónomos y dispositivos IoT con requerimientos de seguridad y latencia estrictos.
– Sistemas robustos y autoajustables: una combinación de memristores con técnicas de aprendizaje y de reconfiguración podría dar lugar a sistemas capaces de diagnosticar y compensar degradaciones de hardware sin intervención externa, acercándose a una visión de IA más resiliente.

Conclusión: una promesa que necesita madurar, pero con un camino claro
La idea de que una tecnología controvertida de los años 2000 podría hacer que la IA sea más barata, más rápida y casi indestructible es convincente en el plano conceptual. Sin embargo, transformar esa promesa en una realidad comercial estable exige avances técnicos sostenidos, inversiones en fabricación y una adopción consciente que tenga en cuenta los riesgos, la seguridad y las implicaciones sociales. En última instancia, el éxito de los memristores no será solo una victoria de la ingeniería de hardware, sino un paso estratégico para una IA más eficiente y accesible, con un marco regulatorio y de gobernanza que asegure un desarrollo responsable y sostenible.

from Latest from TechRadar https://ift.tt/rNmia1U
via IFTTT IA

iOS 26.4.2: un parche pequeño con un impacto notable en la seguridad de las comunicaciones



iOS 26.4.2 llega como una actualización modesta: un único fix nombrado. A primera vista parece simple, pero el cambio tiene implicaciones relevantes para la seguridad y la privacidad de los usuarios.

La corrección se centra en abordar una vulnerabilidad en el manejo de cifrado y la protección de datos en tránsito. Aunque la nota oficial no describe todos los detalles, el objetivo es reforzar la confidencialidad de las comunicaciones y la integridad de las sesiones entre dispositivos y servicios de Apple.

Para el usuario, esto se traduce en una menor exposición ante posibles intentos de acceso no autorizado a datos, incluidas posibles interceptaciones por terceros, como agencias de seguridad o actores con capacidades de vigilancia. Sin embargo, es importante entender que un único parche no transforma la seguridad por sí solo: es una pieza dentro de un programa continuo de mejoras que también incluye prácticas de configuración y hábitos de uso seguros.

Recomendaciones: mantener el dispositivo actualizado, revisar permisos de las apps, activar la autenticación de dos factores cuando esté disponible y usar configuraciones de seguridad recomendadas por Apple. Mantener el software actualizado es una de las formas más efectivas de reducir superficies de ataque y proteger la privacidad en un ecosistema cada vez más interconectado.

En resumen, iOS 26.4.2 es pequeño en tamaño pero significativo en propósito: una corrección puntual que refuerza la seguridad de las comunicaciones y subraya el compromiso de la plataforma con la protección de la privacidad de sus usuarios.

from Latest from TechRadar https://ift.tt/QPKRtMC
via IFTTT IA

Imanes con pantalla E Ink en color: fotos y listas en la nevera, sin baterías



En la era de la cocina conectada, un nuevo accesorio para la nevera está cambiando la forma en que organizamos nuestras tareas y recuerdos: imanes que integran una diminuta pantalla de tinta electrónica en color. Más allá de su aspecto moderno, estas piezas ofrecen la posibilidad de mostrar fotos y listas de tareas con una claridad sorprendente, y lo más destacable: pueden funcionar sin baterías.

Qué significan estas innovaciones para la vida diaria

La idea detrás de estos imanes es simple pero poderosa: reemplazar el papel o las notas pegajosas por contenidos digitales estáticos que se mantienen visibles sin consumir energía constante. Al colocar una imagen o una lista en la pantalla, el contenido permanece legible a lo largo del tiempo, gracias a la naturaleza de la tinta electrónica en color. Cuando llega el momento de actualizar, una breve señal de actualización envía el nuevo contenido al imán y la pantalla se refresca, manteniendo la información relevante sin necesidad de una fuente de alimentación continua.

Cómo funciona, a grandes rasgos

El corazón de estos imanes es una pantalla de tinta electrónica en color extremadamente compacta. La tecnología E Ink ofrece una excelente legibilidad bajo diferentes condiciones de iluminación y un contraste suave que evita la fatiga visual. Aunque el dispositivo se describe como “batería cero” o “battery-free”, la actualización del contenido requiere una fuente de energía momentánea. Esa energía se puede suministrar mediante una base de actualización cercana o a través de una conexión con un teléfono o sistema inteligente del hogar. Una vez cargado, el contenido se mantiene visible sin consumo constante de energía.

Ventajas clave para la organización del hogar

– Claridad y estética: un formato limpio y discreto que se integra con cualquier estilo de cocina o comedor.
– Persistencia del contenido: fotos y listas permanecen visibles sin necesidad de reposición frecuente.
– Personalización rápida: cambiar la foto de recuerdo o la lista de compras es tan sencillo como actualizar el contenido en la app asociada o mediante la base de actualización.
– Reducción de desorden: menos notas pegadas en la puerta del refrigerador y más información centralizada en un solo lugar visual.

Casos de uso prácticos

– Fotografías de momentos familiares en la cocina para recordar eventos o semanales de comida.
– Listas de compras o recordatorios diarios que se actualizan según necesidades y menús de la semana.
– Planificación de tareas del hogar: domingos para limpieza, lunes para la despensa, etc.
– Rutinas y recordatorios de rutina matutina, como preparar el desayuno o verificación de bandejas de entrada.

Diseño y experiencia de usuario

Los imanes combinan un formato compacto con un borde minimalista para no distraer la vista. La resolución de la pantalla y la reproducción del color están optimizadas para una visualización legible a corta distancia, ideal para miradas rápidas mientras se prepara el café. La interacción se facilita a través de interfaces simples de sincronización: desde una app móvil o una base de actualización, los usuarios pueden seleccionar imágenes y listas para transferirlas a la pantalla del imán.

Consideraciones a tener en cuenta

– Compatibilidad: verificar que el sistema sea compatible con tu ecosistema de dispositivos y con la app de gestión utilizada.
– Actualización de contenidos: entender el proceso para actualizar y la frecuencia recomendada para evitar conflictos de contenido.
– Cuidado y durabilidad: la superficie del imán debe limpiarse con métodos suaves para preservar la legibilidad y el tacto de la pantalla.
– Costo: este tipo de tecnología, al combinar diseño y electrónica de alta densidad, puede situarse en un rango superior al de los imanes tradicionales; el valor se define por la persistencia de contenido y por la experiencia de uso.

Conectar tecnología, diseño y vida diaria

Estos imanes con pantalla E Ink en color demuestran que la tecnología puede integrarse de forma sutil en nuestra rutina diaria, sin complicaciones y con un toque de diversión visual. Más que un simple accesorio, se convierten en una pequeña ventana a la organización personal: fotografías que inspiran, listas que orientan y una presencia constante que recuerda lo que importa, todo sin la necesidad de cambiar baterías con frecuencia.

Conclusión

Si buscas un modo elegante y práctico de personalizar tu cocina y simplificar la gestión de tareas, estas soluciones con pantalla E Ink en color ofrecen una propuesta atractiva. Son una apuesta para quienes valoran la claridad, la persistencia de la información y una experiencia de usuario fluida, sin la molestia de mantener baterías cargadas. Explora la disponibilidad de modelos compatibles y considera cómo podrían encajar en tu rutina diaria, ya sea para organizar la despensa, mantener vivos recuerdos familiares o facilitar la colaboración en tareas del hogar.

from Latest from TechRadar https://ift.tt/7V4kHCv
via IFTTT IA

Escuchar para arreglar Windows 11: la promesa de Microsoft para este año



En el ecosistema de los sistemas operativos, el feedback de los usuarios se considera una materia prima tan vital como el código. Microsoft ha comunicado que este año su estrategia para Windows 11 se centrará en escuchar a los usuarios y convertir sus comentarios en mejoras reales. Esta orientación busca traducir las señales de uso en decisiones de producto más acertadas y en una mayor confianza entre administradores de TI y desarrolladores que dependen de la plataforma.

La promesa de doblar esfuerzos en escuchar feedback implica un cambio de ritmo y de transparencia. No se trata solo de recopilar opiniones, sino de convertir esas opiniones en acciones medibles, con plazos y prioridades claros. En la práctica, esto podría traducirse en ciclos de actualización más predecibles, un backlog de correcciones listo para priorizar y una mayor claridad sobre qué errores están siendo abordados y por qué.

Las vías para la retroalimentación se han fortalecido. Entre ellas destacan el Feedback Hub, el programa Windows Insider y las encuestas de satisfacción. También se espera una participación más activa en foros de la comunidad y en eventos de usuarios, con un compromiso explícito de cerrar el ciclo entre comentario y respuesta. Para las empresas, la telemetría y los informes de uso siguen siendo piezas importantes, pero con un énfasis renovado en la interpretación de esos datos de forma responsable.

A falta de anuncios oficiales detallados, las señales apuntan a que se priorizarán mejoras en rendimiento y estabilidad, compatibilidad de hardware y periféricos, así como ajustes de experiencia de usuario que reduzcan fricciones en tareas cotidianas. Otros frentes posibles incluyen la optimización de actualizaciones para reducir tamaños y tiempos de instalación, y mejores herramientas para administradores de TI que faciliten la gestión de múltiples equipos.

Si Microsoft logra traducir las voces de la comunidad en cambios visibles, los beneficios podrían ser sustantivos: una experiencia más suave en PCs modernos y antiguos por igual, menos interrupciones por fallos conocidos y una ruta de actualización más confiable. Para desarrolladores y empresas, un roadmap más claro y un canal de retroalimentación más directo pueden significar menos incertidumbre y mejor alineación con las prioridades de software y hardware.

Si quieres influir en la evolución de Windows 11, considera unirte al Windows Insider Program para acceder a builds tempranas y pruebas de características. Usa Feedback Hub para describir problemas con detalle reproducible y acompáñalo de información de tu entorno, como hardware, versión y pasos para reproducir. Participar de forma constante y constructiva ayudará a que tu voz sea tomada en cuenta en el proceso de priorización.

Escuchar a la base de usuarios es un activo estratégico. La promesa de este año sugiere un compromiso más claro por traducir el feedback en mejoras reales, rápidas y medibles. La prueba de fuego estará en la transparencia de los resultados: qué cambios llegan, cuándo llegan y cuánto alivian la experiencia cotidiana de millones de usuarios. Si esa promesa se mantiene, Windows 11 podría no solo ganar en estabilidad sino también consolidar la confianza de quienes dependen de él para su trabajo diario.

from Latest from TechRadar https://ift.tt/ZEwjRyU
via IFTTT IA

McLaren apuesta al largo plazo con la llegada de Gianpiero Lambiase



La Fórmula 1 está en vilo ante una noticia que podría marcar un antes y un después para McLaren: Gianpiero Lambiase, el conocido ingeniero de carrera de Max Verstappen, dejará Haas para sumarse a las filas de Woking como chief racing officer, con fecha límite para su incorporación en 2028 y reportando directamente a la cabeza técnica, Andrea Stella. Las primeras reacciones no se hicieron esperar y, entre ellas, la de Guenther Steiner, ex jefe de Haas, que ve en este movimiento más que una contratación estrella: una declaración contundente de que McLaren está construyendo para el largo plazo. Este tipo de mensajes no se emiten todos los días en la Fórmula 1, y menos cuando vienen acompañados de una promesa tan clara de continuidad en la cúpula técnica.

¿Qué significa exactamente que McLaren nombre a un chief racing officer y que ese puesto esté pensado para 2028? En la práctica, se trata de un rol transversal que busca alinear las áreas de rendimiento en pista y fuera de ella: ingeniería de carrera, aerodinámica, simulación, estrategia y desarrollo de la fábrica. Es una palanca de liderazgo destinada a garantizar que cada decisión, cada simulación y cada cambio de diseño converjan hacia un objetivo común: convertir a McLaren en un contendiente constante, capaz de luchar por podios y victorias año tras año, no solo en una temporada aislada.

La cifra de esperar hasta 2028 puede parecer ambiciosa, incluso lenta, pero tiene un beneficio estratégico clave: proporciona un marco claro para invertir en talento, cultura y tecnología sin la presión de resultados inmediatos. En un deporte donde la ventana de rendimiento puede cerrarse o abrirse en cuestión de meses, un plan a largo plazo bien definido es a veces la mayor ventaja competitiva. Lambiase llega a un equipo que quiere transformar su estructura interna y, al mismo tiempo, establecer un estándar de excelencia que trascienda a las personas y se traduzca en procesos duraderos.

Para Andrea Stella, esta firma no es solo un refuerzo de nombres: es la señal de que McLaren apuesta por una visión integrada del rendimiento. Que Lambiase reportando directamente a Stella implica una cadena de mando más corta y una mezcla de experiencia de pista con la estrategia de desarrollo que ya está en marcha. Es, en ese sentido, un movimiento de continuidad y confianza: la dirección técnica busca una voz que pueda cohesionar a todos los departamentos y convertir la data y las pruebas en resultados sostenibles en la pista.

El trasfondo de la noticia también entusiasma por lo que sugiere sobre la cultura de McLaren. Lambiase, conocido por su historial de trabajo intenso y su capacidad para extraer rendimiento de cada jornada de tests y cada sesión de carrera, trae consigo una mentalidad de alto rendimiento que podría contagiar a todo el equipo. Si la simbiosis entre Verstappen y su ingeniero ha sido un motor de éxito en otros escenarios, llevar esa filosofía a McLaren podría traducirse en un cambio de mentalidad: más precisión, más eficiencia en el uso de recursos y una toma de decisiones más basada en datos.

Claro que el camino no estará exento de desafíos. Integrar a un líder de tanta experiencia en una organización que está en plena reconfiguración requiere humildad, paciencia y una ejecución meticulosa. El calendario hasta 2028 implica que los próximos años serán de construcción: reforzar el talento, optimizar procesos, afinar la cultura de rendimiento y, por supuesto, cultivar la sinergia entre el centro técnico y las personas que están en las pistas. Si McLaren logra convertir esa visión en programas concretos y medibles, podría estar preparando una era más estable y competitiva que la que ha visto en años recientes.

En definitiva, la llegada de Gianpiero Lambiase es un movimiento que genera emoción y expectativas. No es solo el fichaje de un nombre con historial de éxito; es la señal de un plan claro para un equipo que quiere regresar a la primera línea de la Fórmula 1 con consistencia. Veremos en los próximos años cómo se materializa este proyecto y si, finalmente, las decisiones de alto nivel se traducen en rendimiento sostenido en la pista. Para quien quiera seguir la historia completa y entender las implicaciones estratégicas, aquí está la fuente original: https://ift.tt/5HFqbe4
from Motorsport.com – Formula 1 – Stories https://ift.tt/5HFqbe4
via IFTTT IA

Por qué los smartphones no deben ser la plataforma predeterminada para la IA



Los smartphones se han consolidado como punto de contacto para muchas tecnologías emergentes, desde asistentes personales hasta experiencias de realidad aumentada. Sin embargo, cuando hablamos de inteligencia artificial, depender exclusivamente de los teléfonos como plataforma de integración no es suficiente. Este artículo analiza por qué los teléfonos no pueden ser la base única de la IA y qué enfoques pueden permitir un despliegue más seguro y eficiente.

Capacidad de cómputo y energía: los modelos de IA actuales, especialmente los de gran tamaño y los sistemas de aprendizaje continuo, demandan potencia de cálculo sostenida y capacidades de memoria que superan lo que ofrecen la mayoría de los dispositivos móviles. Los teléfonos tienen límites de batería, gestión térmica y diversidad de chips que hacen impracticable escalar modelos complejos solo en el dispositivo. Aunque existe la inferencia en el dispositivo, no reemplaza la necesidad de recursos en la nube o en el borde para entrenamiento, actualizaciones y tareas de mayor complejidad.

Fragmentación del ecosistema: la heterogeneidad de hardware, sistemas operativos y políticas de actualización dificultan la estandarización de experiencias de IA. Una solución viable debe funcionar a través de plataformas que orquesten servicios, modelos y datos sin depender de un único tipo de dispositivo, lo que exige estándares abiertos, herramientas de gobernanza y procesos de validación robustos.

Privacidad, seguridad y gobernanza de datos: la IA a menudo implica datos sensibles o personales. Centralizar o distribuir de manera inadecuada esos datos a través de smartphones puede generar riesgos de privacidad. Es imprescindible definir quién posee los datos, cómo se procesan, dónde se almacenan y cómo se auditan las operaciones, con enfoques como el aprendizaje federado, el cifrado de extremo a extremo y la minimización de datos.

Latencia, conectividad y operatividad offline: si bien los teléfonos pueden actuar como terminales para consumir IA, muchas aplicaciones requieren latencia ultrabaja o funcionamiento sin conexión. Los modelos grandes no siempre pueden servir desde el dispositivo, y depender de una conexión constante a la nube introduce retrasos, puntos de fallo y costos.

Arquitecturas recomendadas: una estrategia de IA híbrida que combine edge, cloud y servicios gestionados tiende a ser más resistente y escalable. Esto incluye: (a) despliegue de modelos optimizados para dispositivos cuando sea factible, (b) inferencia en el borde para respuestas rápidas y privacidad, (c) procesamiento en la nube para entrenamiento, actualización de modelos y análisis a gran escala, (d) una capa de orquestación y gobernanza que estandarice APIs, datos y métricas. Esta separación permite aprovechar la experiencia del usuario en el smartphone sin imponer las limitaciones técnicas de un único dispositivo.

Conclusión: los smartphones seguirán siendo una parte clave del ecosistema de IA, especialmente como interfaz de usuario y punto de acceso para servicios. Pero para que la IA alcance su máximo potencial de forma segura y escalable, es necesario adoptar plataformas abiertas y arquitecturas híbridas que separen claramente la interacción, el procesamiento y la gobernanza de datos. Solo así se logrará una experiencia robusta, respetuosa con la privacidad y capaz de evolucionar al ritmo de la investigación.

from Latest from TechRadar https://ift.tt/ZviQDMF
via IFTTT IA

Cuando las máquinas igualan a los investigadores de élite en la búsqueda de vulnerabilidades: Mozilla y Mythos AI



En el campo de la seguridad del software, un nuevo hito demuestra que las herramientas impulsadas por IA pueden competir con investigadores de élite en la identificación de vulnerabilidades críticas. En un experimento conjunto realizado por Mozilla y Anthropic con Mythos AI, los resultados indican que las máquinas pueden igualar el rendimiento humano en ciertas categorías de hallazgos, cuando se les proporciona el marco adecuado, datos de prueba bien curados y una supervisión experta.

Este desarrollo tiene implicaciones profundas para la industria. Por un lado, la capacidad de escalar la detección de vulnerabilidades puede acelerar la entrega de software más seguro y reducir costos operativos. Por otro, exige un replanteamiento de los roles de los equipos de seguridad y una atención sostenida a la confiabilidad y la interpretabilidad de las conclusiones generadas por IA.

Metodología a alto nivel
– Se llevó a cabo una evaluación comparativa en la que Mythos AI trabajó sobre bibliotecas de código real junto a un grupo de investigadores humanos con experiencia en seguridad.
– Los hallazgos se clasificaron por severidad y tipo de vulnerabilidad, y se midió la tasa de aciertos, el tiempo de detección y la tasa de falsos positivos.
– Se adoptó un enfoque de revisión humana a lo largo de todo el proceso, con validaciones finales por parte de profesionales de seguridad para evitar dependencias inadecuadas de la IA.

Hallazgos clave y límites
– Mythos AI mostró una capacidad notable para identificar patrones y señales de alerta que suelen pasar desapercibidos en revisiones manuales, logrando rendimientos equiparables en varios escenarios representativos.
– En otros casos, los humanos aportaron intuición contextual, conocimiento de dominio y juicio situacional que la IA aún no puede replicar completamente.
– Los resultados destacan la importancia de la supervisión y la necesidad de mecanismos de trazabilidad para entender cómo se llegan a ciertas conclusiones, especialmente cuando se reportan vulnerabilidades críticas.

Implicaciones para la práctica
– Integración IA humana: los equipos de seguridad deben diseñar flujos de trabajo donde la IA se use como facilitador y acelerador, con revisiones por expertos antes de comunicar hallazgos a los equipos de desarrollo.
– Gestión de riesgos: es crucial invertir en gobernanza de IA, verificación independiente y pruebas de robustez para mitigar posibles sesgos o fallos de confianza del sistema.
– Formación y cultura: la adopción de estas herramientas exige capacitación continua y nuevas métricas de desempeño que midan tanto el rendimiento técnico como la calidad de las recomendaciones.

Mirando hacia el futuro
La experiencia de Mozilla con Mythos AI subraya que la frontera entre la investigación humana y la automatizada se está reconfigurando. Lejos de sustituir a los especialistas, estas tecnologías tienen el potencial de ampliar su alcance, reducir tiempos de ciclo y elevar el nivel de rigor en la defensa del software. Sin embargo, su implementación responsable exige marcos éticos, estándares de interoperabilidad y una inversión sostenida en investigación y talento humano.

Conclusión
El experimento resalta una tendencia emergente: la combinación de inteligencia artificial avanzada y supervisión humana bien dirigida puede acercar a las máquinas a los límites de la pericia humana en seguridad de software. Con un foco claro en gobernanza, trazabilidad y capacitación, las organizaciones pueden traducir este progreso en productos más seguros y confiables para los usuarios finales.

from Latest from TechRadar https://ift.tt/SoIuDPc
via IFTTT IA

Amazon reduce el precio del Garmin Forerunner 265: ahora £314.49



Con la llegada de nuevos modelos al mercado de relojes para correr, las ofertas pueden marcar la diferencia para quienes buscan un equilibrio entre precio y rendimiento. En Amazon, el Garmin Forerunner 265 ha visto un descenso significativo: ahora se ofrece por £314.49. Esta caída sitúa al reloj en una franja competitiva para quienes quieren un dispositivo con seguimiento sólido de rendimiento sin pagar la etiqueta de los modelos premium.

Qué ofrece el Garmin Forerunner 265
– Pantalla AMOLED de alta resolución para una visualización nítida en cualquier condición.
– GPS preciso y seguimiento de múltiples deportes, con métricas de rendimiento en tiempo real.
– Monitorización de la frecuencia cardíaca, sueño y estrés para entender mejor la carga de entrenamientos.
– Métricas de entrenamiento como VO2 max estimado, carga de entrenamiento y recomendaciones de recuperación, disponibles a través de la app Garmin Connect.
– Conectividad con Garmin Connect para analizar entrenamientos y progresos, y para sincronizar planes de entrenamiento personalizados.
– Resistencia al agua y autonomía suficiente para sesiones diarias y entrenamientos prolongados.

Por qué este descuento tiene sentido
Con el reloj para corredores que buscan fiabilidad y un conjunto sólido de funciones sin el coste de modelos superiores, una rebaja a £314.49 mejora la propuesta de valor. Para quienes ya estaban considerando un reloj de running de Garmin, este precio puede convertirlo en una compra ventajosa y duradera.

Cómo sacar el máximo provecho
– Personaliza los perfiles de deporte y activa alertas de ritmo, distancia y frecuencia cardíaca.
– Vincula Garmin Connect para analizar datos, construir planes y medir las mejoras a lo largo del tiempo.
– Asegura actualizaciones de firmware para obtener mejoras y nuevas funciones.
– Evalúa la duración de la batería en modo GPS y ajusta el uso según tus rutas y entrenamientos.

Conclusión
El Garmin Forerunner 265 continúa siendo una opción atractiva para corredores que buscan un reloj con una sólida base de métricas de rendimiento y una experiencia de usuario fluida. La reducción de precio en Amazon amplía su atractivo, especialmente para quienes quieren empezar a monitorear de forma profesional su entrenamiento sin realizar una inversión mayor. Precio sujeto a cambios; verifica la oferta actual en Amazon para confirmar.

from Latest from TechRadar https://ift.tt/2AFtfTv
via IFTTT IA