Amazon, Apple, Google, Meta y Microsoft unen fuerzas para el reconocimiento de la voz de personas con discapacidad

La Universidad de Illinois se ha asociado con Amazon, Apple, Google, Meta, Microsoft y Speech Accessibility Project para contribuir a la mejora del reconocimiento de la voz de personas con discapacidad y de diversos patrones de habla que en muchas ocasiones no son considerados por las inteligencias artificiales empleadas en ese ámbito. Esto incluye a personas con esclerosis lateral amiotrófica (ELA), Parkinson, parálisis cerebral, Síndrome de Down y otras enfermedades que, de manera directa o indirecta, terminan interfiriendo en el habla.

Mark Hasegawa-Johnson, profesor de la Universidad de Illinois, ha dicho que “las interfaces de voz deben estar disponibles para todos, y eso incluye a las personas con discapacidades. Esta tarea ha sido difícil porque requiere una gran cantidad de infraestructura, idealmente del tipo que pueden respaldar las principales empresas de tecnología, por lo que hemos creado un equipo interdisciplinario único con experiencia en lingüística, voz, inteligencia artificial, seguridad y privacidad”.

Por su parte, para incluir a personas con discapacidades como el Parkinson, el Speech Accessibility Project (Proyecto de Accesibilidad del Habla) se encargará de recolectar muestras de individuos que representan una diversidad de patrones en el habla, mientras que la Universidad de Illinois reclutará a voluntarios pagados para que contribuyan con muestras de voz y ayuden a crear un conjunto de datos privados y no identificados que pueda servir para entrenar a los modelos de aprendizaje automático.

Lo malo es que en un principio el proyecto, al menos de momento, se centrará en el inglés estadounidense, así que esperemos que en un futuro no solo se expanda a otras variantes del mismo idioma, sino a otros del resto del mundo.

Algunas organizaciones estadounidenses como Davis Phinney Foundation, dedicada al Parkinson, y Team Gleason, que ayuda a personas con ELA, ya han mostrado su apoyo al proyecto impulsado por la Universidad de Illinois.

A pesar de que la tecnología contribuye a facilitar la vida de la mayoría de las personas, en no pocas ocasiones termina excluyendo o dificultando su acceso a personas con discapacidades. Por otro lado, tampoco hace falta mirar a las personas con discapacidad para encontrarse con este tipo de situaciones, ya que los zurdos, en no pocas ocasiones, tienen que amoldarse a un mundo hecho para diestros, situación que puede complicarse cuando a eso se suma una discapacidad.

Estándares Wi-Fi pasados, presentes y futuros: cosas que debes saber

El Wi-Fi es una parte fundamental de nuestra sociedad, y forma parte de nuestro día a día. Hoy damos por hecho muchas cosas en este sentido, nos hemos acostumbrado a que funcione bien y a que ofrezca un excelente rendimiento incluso cuando tenemos varios dispositivos conectados, pero esto no siempre ha sido así.

En sus orígenes, esta tecnología tuvo algunas carencias importantes, y solo con el paso del tiempo y con el desarrollo de nuevos estándares se han ido superando. Su evolución ha sido muy interesante, y ha marcado puntos de inflexión muy claros que hoy queremos compartir con vosotros en este artículo, donde veremos uno a uno los diferentes estándares Wi-Fi que existen.

Para que este artículo os resulte más útil y fácil de consultar he hecho una distinción entre estándares Wi-Fi que podemos considerar como obsoletos y otros que están más avanzados y que son el presente o el futuro del sector. Como siempre, si tras leer el artículo os queda cualquier duda podéis dejarla en los comentarios.

Estándares Wi-Fi obsoletos

  • IEEE 802.11: el estándar que sirve de base en la comunicación de las redes inalámbricas. El primer estándar del año 1997 permitió transferir datos a 1 Mbps. Se identifica como el «abuelo» de esta tecnología
  • IEEE 802.11a: se desarrolló sobre la base del estándar IEEE 802.11. Llegó en 1999, funcionaba en la banda de 5 GHz y alcanzó una velocidad máxima de 54 Mbps. Se identifica como Wi-Fi 2.
  • IEEE 802.11b: fue el primer estándar desarrollado a finales de los años noventa. Es capaz de transferir dados a un máximo de 11 Mbps en la banda de 2,4 GHz. Se identifica como Wi-Fi 1. Debes tener cuidado con él, ya que puede arruinar tu conexión Wi-Fi.
  • IEEE 802.11g: también utiliza la banda de 2,4 GHz. Con este estándar, la velocidad máxima de transmisión se incrementó hasta los 54 Mbps. Llegó a partir de 2003. Se identifica como Wi-Fi 3.

Estándares utilizados a día de hoy

  • IEEE 802.11n: se ratificó en septiembre de 2009. Funciona tanto en la banda de 2,4 GHz como en la de 5 GHz y alcanza velocidades de hasta 600 Mbps. Se identifica como Wi-Fi 4.
  • IEEE 802.11ac: se estandarizó a finales de 2013. Opera en la banda de 5 GHz y puede alcanzar velocidades de 1.300 Mbps. Se identifica como Wi-Fi 5.
  • IEEE 802.11ax: un avance importante que alcanza velocidades de hasta 10 Gbps. Se identifica como Wi-Fi 6.

Estándares que serán el futuro

  • IEEE 802.11be: será el próximo gran salto en conectividad Wi-Fi. Trabajará en las bandas de 2,4 GHz, 5 GHz y 6 GHz, y promete velocidades de hasta 30 Gbps. Este se identificará como Wi-Fi 7. Este estándar ya está empezando a dar sus primeros pasos en entornos de pruebas, y empezará a estar disponible entre finales de 2023 y principios de 2024.

NVIDIA DLSS 3 y GeForce RTX 4090: un vistazo técnico a la nueva tecnología de NVIDIA

Digital Foundry ha publicado un interesante y completo análisis en vídeo donde prueban NVIDIA DLSS 3, una importante actualización de la conocida tecnología de reescalado y reconstrucción de la imagen que ahora es capaz de generar fotogramas mediante inteligencia artificial, algo que como ya os contamos en su momento ayuda a mejorar el rendimiento incluso en situaciones donde la CPU actúa como cuello de botella.

Esta es una de las claves más importantes de NVIDIA DLSS 3 porque, cuando activamos esta tecnología, la resolución base desde la que se renderiza un juego se reduce notablemente. Esto hace que mejore el rendimiento al reducirse el número de píxeles en escena, pero al mismo tiempo aumenta el impacto de la CPU y puede acabar dando pie a un cuello de botella.

No es difícil de entender, cuando activamos la tecnología DLSS 2 o DLSS 3 de NVIDIA en modo rendimiento se renderizan solo la mitad de los píxeles en horizontal y en vertical de la resolución objetivo, lo que significa que si queremos jugar en 4K la resolución base será de 1.920 x 1.080 píxeles. Al partir de esa resolución la CPU tiene un impacto grande porque la GPU no está trabajando realmente con más de 8 millones de píxeles, sino que solo está moviendo algo más de 2 millones de píxeles.

Para mejorar el rendimiento no era posible seguir reduciendo la resolución base de renderizado y mejorar la calidad del proceso de reescalado y de reconstrucción, puesto que ese cuello de botella a nivel de CPU sería cada vez más grave. Por eso con la llegada de NVIDIA DLSS 3 el gigante verde ha introducido la generación de fotogramas basada en inteligencia artificial, una tecnología que utiliza dos fotogramas secuenciales para crear un fotograma intermedio sin recurrir a la CPU y sin partir de una determinada cantidad de píxeles.

Todo ese fotograma se crea en la GPU sin una base de píxeles previa, algo que es posible gracias a ese análisis de dos fotogramas secuenciales renderizados de forma tradicional, y a la combinación de vectores de movimiento y a la tecnología Optical Flow Field. Todo este proceso se acelera en el hardware Optical Flow Accelerator presente en las GeForce RTX 40, y es una tecnología exclusiva de dicha generación porque, según NVIDIA, dicho hardware es dos veces más rápido y mucho más preciso que la versión presente en las GeForce RTX 30.

NVIDIA DLSS 3 puede multiplicar por 5 el rendimiento en juegos

Con la generación de fotogramas presente en NV IDIA DLSS 3, el gigante verde ha conseguido superar una de las limitaciones más importantes que se producía al reducir la resolución base para reescalar y reconstruir a una superior. Os hablo de ese cuello de botella a nivel de CPU que os he explicado anteriormente, y que explica por sí mismo por qué NVIDIA ha dado en la diana al introducir la generación de fotogramas mediante inteligencia artificial. Digital Foundry indica en el vídeo que la tecnología NVIDIA DLSS 3 puede ofrecer una mejora de hasta el 500% frente a la resolución nativa.

Al generar un fotograma intermedio mejora notablemente la fluidez del juego y esto se deja notar de forma clara, solo tenéis que ver la parte del principio en la que Digital Foundry nos muestra las animaciones de Spider-Man con y sin la generación de fotogramas activada. La diferencia es sustancial, y en términos de rendimiento el salto es enorme, tanto que puede doblar sin problemas el rendimiento en este título.

Por ejemplo, en Cyberpunk 2077 con calidad máxima y trazado de rayos en «psycho» vemos que la GeForce RTX 4090 supera a la GeForce RTX 3090 Ti en un 248%. La primera utilizaba NVIDIA DLSS 3 y la generación de fotogramas, mientras que la segunda utilizaba NVIDIA DLSS 2. Si nos limitamos a comparar la diferencia de rendimiento entre resolución nativa y DLSS 3 vemos que esta mejora hasta en un 399% el rendimiento también en Cyberpunk 2077 con la misma configuración, mientras que la mejora que obtiene el DLSS 2 es de un 261%.

Como hemos dicho, NVIDIA DLSS 3 ayuda a mejorar el rendimiento cuando se produce una situación limitada por CPU, pero si utilizamos un procesador de bajo rendimiento tendremos problemas de stuttering, es decir, de desincronización en la generación de fotogramas, y esto puede arruinar por completo nuestra experiencia al jugar, así que debemos tenerlo en cuenta. De nada nos servirá montar una GeForce RTX 4090 junto a un procesador que sea incapaz de alimentarla como es debido.

En Portal RTX es donde vemos la ganancia de rendimiento más espectacular, y es que gracias a NVIDIA DLSS 3 y la generación de fotogramas podemos conseguir una mejora de hasta el 560% frente a la resolución nativa en 4K, utilizando en ambos casos una GeForce RTX 4090. Frente al DLSS 2 vemos que el DLSS 3 llega a triplicar el rendimiento en dicho juego.

Generación de fotogramas: qué valor aporta, qué efectos produce y qué calidad de imagen ofrece

Digital Foundry también explica por qué necesitamos la generación de fotogramas. A priori la respuesta parece simple, porque nos permite mejorar el rendimiento y porque en el fondo es casi un paso evolutivo natural partiendo de la base que sentó el DLSS 2, pero hay otras cosas a tener en cuenta. Una de ellas es la mejora en la fluidez de las animaciones, y otra la tenemos en el auge de las pantallas con altas tasas de refresco, que necesitan de tasas de fotogramas por segundo muy elevadas para desarrollar todo su potencial.

Un juego rasterizado con una base técnica «tradicional» no supone un desafío actualmente gracias al DLSS 2, ni siquiera en 4K, pero si introducimos el trazado de rayos en la ecuación la cosa cambia. Ahí es donde entra en juego el DLSS 3, y es donde marca una enorme diferencia. Por otro lado, también nos permite mejorar el rendimiento incluso en escenarios donde hay un cuello de botella a nivel de CPU, un mal que a día de hoy es muy común en juegos.

NVIDIA DLSS 3 y la generación de fotogramas representan una manera de optimizar, de ir más allá de la potencia bruta y de superar muros que se escapan del espacio que ocupa la GPU, y por lo que he visto hasta el momento está bastante claro que NVIDIA ha acertado de pleno con este enfoque. En la parte final del vídeo podemos ver un análisis del tema de la latencia, una cuestión importante que, ya que ese proceso de generación de fotogramas aumenta la latencia.

Para solucionarlo tenemos la tecnología NVIDIA Reflex, que se activa automáticamente cuando NVIDIA DLSS 3 está funcionando. Gracias a dicha tecnología la latencia en Portal RTX con DLSS 3 activado es de solo 56 ms, lo que significa que está prácticamente al mismo nivel que la latencia que registra dicho título con DLSS 2, y supera de forma clara los 95 ms que tenemos en resolución nativa. En Cyberpunk 2077 la latencia con DLSS 3 activado es de 54 ms, cifra que supera los 62 ms del modo nativo, aunque queda por debajo de los 31 ms del DLSS 2.

En la parte final del vídeo tenemos un tema muy importante, la calidad de esos fotogramas generados. Según Digital Foundry, NVIDIA DLSS 3 hace un buen trabajo, y queda confirmado que no es una simple tecnología de interpolación de fotogramas, ya que ofrece una calidad de imagen y un resultado superior cuando se compara con este tipo de soluciones. En el vídeo podemos ver los problemas que da Adobe Pixel Motion, por ejemplo. ¿Significa que es una tecnología perfecta? No, también presenta errores y artefactos, pero el resultado final es muy bueno en general, y está claro que NVIDIA irá mejorando el DLSS 3 con futuras actualizaciones.

También podemos confirmar que la consistencia en la generación de fotogramas al activar NVIDIA DLSS 3 es buena, así que no tendremos nada de lo que preocuparnos en este sentido, siempre que acompañemos a la GeForce RTX 4090 de un procesador lo bastante potente como para «alimentarla».

Kioxia presenta la primera tarjeta microSDXC de 2 Tbytes

Kioxia ha anunciado los primeros prototipos funcionales de tarjetas de memoria microSDXC de 2 Tbytes. Una capacidad de almacenamiento admitida desde hace años por el estándar, pero que hasta ahora no se había utilizado. 

Kioxia usará memoria BiCS FLASH 3D y un controlador de diseño propio para alcanzar una capacidad realmente estratosférica. Se fabricarán con tecnología de fabricación patentada por la compañía, apilando dieciséis troqueles de 1 terabit de memoria flash 3D para un espesor máximo de 0,8 mm en el área de montaje del troquel.

Las unidades alcanzarán velocidades máximas en lectura secuencial de 104 Mbps bajo UHS-I y suponemos un mínimo de 30 Mbps en escrituras. Actualmente, se encuentran en fase de prototipo y la compañía espera comenzar la producción masiva en 2023.

La microSDXC de 2 Tbytes hace más interesante la norma

Hasta el lanzamiento de SD Express que usarán los protocolos PCIe y NVMe (los mismos que SSD), las nuevas microSD de Kioxia serán las que ofrezcan la mayor capacidad de almacenamiento de la industria.

Hay que decir que las tarjetas microSD, la variante más pequeña del estándar de almacenamiento externo y extraíble Secure Digital, son un grupo de producto imprescindible para aumentar la capacidad de almacenamiento de centenares de millones de dispositivos, desde smartphones a cámaras fotográficas, pasando por drones, tablets, GPS, consolas portátiles y un largo etc.

Aunque el objetivo principal de este formato sigue siendo el almacenamiento de datos y de hecho hay dispositivos que lo usan como único medio, también se usan para ejecutar aplicaciones y liberar el almacenamiento interno de los dispositivos como se puede hacer en smartphones con Android, para ejecutar sistemas operativos completos o como medio autoarrancable.

Esos 2 Tbytes de capacidad serán de utilidad para todos casos de uso. Estarán disponibles en 2023.

iPhone 15 Ultra, el próximo tope de gama de Apple estrenará nuevo diseño

Mark Gurman, uno de los analistas más conocidos de Bloomberg por su experiencia en el mundo Apple, ha lanzado algunas predicciones interesantes sobre el futuro de la compañía de la manzana, y en ellas habla del iPhone 15 Ultra y de un importante cambio de diseño en 2023. Vamos a analizar ambas con detalle.

El iPhone 15 Ultra será, en teoría, el próximo smartphone tope de gama de alta y no, no se trata de un nuevo modelo que coexistirá con el iPhone 15 Pro Max, será su sustituto y sucederá al iPhone 14 Pro Max. El cambio de nombre tiene sentido, ya que el distintivo «Ultra» es más sencillo y fácil de utilizar que «Pro Max», y por otro lado también da la sensación de estar hablando de algo superior, es decir, para el consumidor la palabra «Ultra» da una sensación de superioridad clara frente a «Pro», o «Pro Max» en este caso.

Apple debutó con la marca «Pro Max» en 2019, concretamente con el lanzamiento de los iPhone 11 Pro Max. Desde entonces ha venido manteniendo esa nomenclatura hasta el día de hoy, pero ya sabemos que las marcas y los nombres comerciales son algo vivo, y que Apple no duda en ajustarlas o cambiarlas cuando estima que es necesario, así que esta información tiene todo el sentido del mundo, y la fuente encima es muy fiable.

El cambio de nombre a iPhone 15 Ultra no supondrá ninguna novedad relevante, lo que significa que este terminal seguirá manteniendo su enfoque y su posición en el mercado, es decir, seguirá siendo una versión de mayor tamaño de su hermano pequeño, el iPhone 15 Pro. Puede que Apple decida incluir, como ha hecho en otras ocasiones, alguna diferencia a nivel de hardware, pero incluso aunque esto ocurra esas diferencias deberían ser menores.

Por lo que respecta al esperado cambio de diseño, Gurman cree que Apple introducirá cambios importantes en el iPhone 15, y en todas sus versiones. Es importante tener en cuenta que esto afectaría a dos puntos clave, el diseño de la cámara trasera y la disposición de las lentes, y también al marco del terminal. No debemos esperar cambios relevantes en el frontal, y la Dynamic Island ha llegado para quedarse, así que volverá a estar presente en la próxima generación de smartphones de Apple.

Nos quedamos con una duda importante, eso sí, ¿qué ocurrirá con los iPhone 15 y iPhone 15 Max? Todo parece indicar que Apple repetirá la estrategia que vimos con los iPhone 14 y iPhone 14 Max, lo que significa que ambos modelos de nueva generación reutilizarán el SoC A16, presente en los iPhone 14 Pro y iPhone 14 Pro Max. Con todo, al menos harán gala de ese nuevo cambio de diseño que hemos comentado, y tendrán la Dynamic Island.

Si todo va según lo previsto la presentación del iPhone 15 en todas sus versiones tendrá lugar en septiembre del año que viene, aunque podemos esperar un goteo constante de informaciones y filtraciones a partir del primer y segundo trimestre del año que viene, como ya ha ocurrido en años anteriores con otros modelos.

iPhone 14: problemas y soluciones

Han pasado ya unas semanas desde la presentación de los iPhone 14 y, aunque con más que acusadas diferencias en la disponibilidad actual en el mercado, los cuatro modelos de esta generación ya están a la venta. Si quieres un 14 o un 14 Plus solo tendrás que esperar unas horas o unos pocos días, mientras que si te decantas por el Pro, o por el impresionante iPhone 14 Pro Max, que ya hemos probado, la espera se extenderá a semanas, y puede que en poco tiempo a más de un mes, dada la alta demanda.

Ahora bien, con la llegada de las primeras unidades al mercado, hemos empezado a tener noticias sobre algunos problemas en esta nueva generación. Algunos afectarían a todos los modelos, mientras que otros se circunscriben exclusivamente a parte de ellos. Y lo más llamativo es que, según dónde lo leamos, parecen ser incidentes en vía de solución o poco menos que el Armagedón del iPhone, de Apple y hasta puede que de la civilización tal y como la hemos conocido hasta hoy. Recuerda un poco a esos recuentos de participantes en manifestaciones y eventos similares, en las que los organizadores hablan de cientos de miles de asistentes, sus detractores afirman que fueron cinco o seis personas y al final, prácticamente siempre, el valor numérico real es una incógnita entre ambos valores.

Por eso, vamos a dar un repaso a los principales problemas que se han mencionado hasta el momento, intentando aclarar en qué punto se encuentra cada uno de ellos. Si esta información debe disuadirte de momento de adquirir un iPhone 14 o sí, por el contrario, la encuentras tan tranquilizadora como para decidir que sí que es el momento, y que quieres estrenar móvil nuevo lo antes posible, no es algo que debamos decirte nosotros, sino una decisión que debes tomar tú.

A principios de la semana pasada, Apple liberaba iOS 16, la esperada revisión del sistema operativo del iPhone. Lo que pasó un poco más desapercibido es que, horas después del lanzamiento, Apple liberó su primera actualización, iOS 16.0.1. ¿Por qué? Pues porque Apple ya había identificado algunos problemas que se circunscribían exclusivamente a los iPhone 14. Así, lograron adelantarse a la llegada de los primeros modelos al mercado, con una actualización que solventaba los siguientes problemas, descritos por Apple:

  • La activación de iMessage y FaceTime podía no completarse.
  • Las fotos podían verse difuminadas al hacer zoom con el iPhone 14 Pro Max en horizontal.
  • Las apps empresariales con inicio de sesión único podían fallar durante la autenticación.

Por su parte, días después, Apple ha liberado una nueva actualización, iOS 16.0.2, ésta para más modelos y versiones de iPhone que,

  • Al usar algunas apps de terceros para hacer fotos en el iPhone 14 Pro y el iPhone 14 Pro Max, la cámara podía vibrar y ocasionar que las fotos salieran borrosas.
  • Durante la configuración del dispositivo, la pantalla podía quedarse completamente en negro.
  • Al copiar y pegar contenido entre apps, podía aparecer un mensaje sobre los permisos más veces de lo esperado.
  • VoiceOver podía no estar disponible tras reiniciar el dispositivo.
  • Se ha corregido un problema que hacía que algunos iPhone X, iPhone XR y iPhone 11 no respondieran a los toques en la pantalla después de una reparación.

Por su parte, los tres problemas que más se han mencionado con respecto a los iPhone 14 son los siguientes:

  • Vibración de la cámara con apps de terceros.
  • Problemas con la migración de datos entre dispositivos.
  • Problemas con la calidad de sonido de las llamadas a través de CarPlay.

Así pues, basta con dar un rápido vistazo a iOS 16.0.2 y los problemas que soluciona para ver que, al menos en principio, esta actualización debería resolver los dos primeros. En cuanto al tercero, es cierto que Apple no parece haber dado acuse de recibo sobre el mismo, pero a poco que conozcamos como suele actuar Cupertino en estos casos, suelen guardar silencio hasta tener una respuesta definitiva, ya sea en forma de actualización que soluciona el problema o, en caso de no ser posible (algo que dudo que ocurra en este caso), con un plan de servicio especial para reparar/sustituir los dispositivos afectados.

Así, con un poco de perspectiva, personalmente creo que en algunos casos se está exagerando ostensiblemente con respecto no a los problemas, que efectivamente existen y están acreditados, como al impacto real de los mismos. Dicho lo cual, reitero lo que comentaba anteriormente, no seré yo quien te diga si deberías o no deberías comprar un iPhone 14 en este momento. A diferencia de lo que parecen pensar en otros medios, yo creo que tú tienes criterio más que suficiente como para llegar a la conclusión que mejor se adapte a ti.

Cinco errores que debes evitar al comprar un nuevo procesador

Estás decidido, vas a comprar un procesador nuevo, y tienes una idea bastante clara de lo que necesitas, ¿pero estás seguro de que vas a tomar la decisión correcta? La verdad es que este es un tema más complejo de lo que parece, y por razones que van más allá del precio o del rendimiento, y que al final pueden hacernos cometer más de un error en la compra de nuestra nueva CPU.

Soy consciente de que muchos todavía tenéis dudas sobre este tema, y de que comprar un nuevo procesador puede suponer un importante quebradero de cabeza. Por ello, he querido dar forma a esta guía en la que voy a compartir con vosotros cinco errores frecuentes que se producen al comprar una nueva CPU, y os contaré todo lo que debéis saber para evitarlos. También os daré algunas recomendaciones concretas al final del artículo para que lo tengáis un poco más fácil a la hora de elegir vuestro nuevo procesador.

Como siempre, si al terminar de leerlo tenéis cualquier duda no os preocupéis, podéis dejarla en los comentarios y estaremos encantados de ayudaros a resolverla. Sin más preámbulos os invito a poneros cómodos, que empezamos.

1.-Comprar un procesador incompatible con nuestro equipo

Y cuando hablo de procesador incompatible lo hago en sentido amplio. Así, un procesador puede ser compatible con nuestro equipo a nivel de socket, pero puede acabar siendo incompatible por una cuestión de alimentación o de refrigeración, y también puede quedar desaprovechado si elegimos un modelo que no es el ideal para nuestra placa base.

Para que todo esto quede claro, vamos a ver los supuestos de incompatibilidad más importantes:

  • Incompatibilidad física, que es cuando compramos un procesador que no funciona con nuestra placa base porque utiliza un socket diferente.
  • Incompatibilidad a nivel de software, esta se puede solventar normalmente con una actualización de la BIOS de nuestra placa base, pero puede acabar siendo complicado, así que debemos tener cuidado.
  • Incompatibilidad por alimentación, que se produce cuando queremos montar un procesador muy potente y con un alto consumo que nuestra placa base no podrá soportar. Es común al montar CPUs de gama alta con placas base de gama baja. También puede ocurrir si tenemos fuentes de alimentación de muy mala calidad y poca potencia.
  • Incompatibilidad por refrigeración, es un error que también resulta común, especialmente cuando compramos un nuevo procesador más potente que el anterior y decidimos reutilizar nuestro anterior sistema de refrigeración. Este puede no ser suficiente para mantener a raya las temperaturas de nuestra nueva CPU.
  • Procesador desaprovechado porque la placa base donde lo vamos a montar no es capaz de sacarle el máximo partido. Este error no es tan grave como los anteriores, pero hará que nuestra inversión pierda valor. Uno de los escenarios más comunes es cuando montamos una CPU que soporta overclock en una placa base que no lo permite, y otro de los más frecuentes se produce cuando esta está limitada a memoria RAM muy lenta, ya que impedirá a la CPU desarrollar todo su potencial.

Cómo evitar este error: asegúrate antes de comprar tu nuevo procesador de que tienes el equipo adecuado para moverlo de forma óptima, y si tienes cualquier duda pide ayuda al vendedor o a una persona de confianza con conocimientos avanzados sobre hardware.

2.-Elegir un procesador mucho más potente de lo que necesitamos

Este es uno de los errores que más me he encontrado en mis más de 30 años de experiencia en el mundo de la tecnología y la informática, y sí, es incluso más frecuente que el de las incompatibilidades que hemos visto anteriormente, y no solo no ha mejorado con el paso del tiempo, sino que me atrevería a decir que incluso ha ido a peor.

Tenemos tendencia a dejarnos llevar por la idea de comprar cosas «por encima de lo que necesitamos» en el presente, todo porque creemos que envejecerá mejor y que tendrá una mayor vida útil, lo que al final se traducirá en una inversión mucho más rentable. Desgraciadamente, cuando hablamos de procesadores esto no es así, de hecho ocurre todo lo contrario, es decir, comprar un procesador mucho más potente de lo que necesitamos pensando en esa idea de amortización a largo plazo es una mala decisión.

Piensa, por ejemplo, en lo que ocurrió con aquellos que compraron un Ryzen 7 1800X solo para jugar, en su momento invirtieron una cantidad de dinero enorme (569 euros en su lanzamiento), y hoy este procesador rinde mucho peor en juegos que un Intel Core i3-12100F, que ha tenido un precio de entre 105 y 120 euros. Entre los dos hay cinco años de diferencia, y en todo ese tiempo la configuración de 8 núcleos y 16 hilos del primero ha quedado totalmente desaprovechada, una realidad que no parece que vaya a cambiar demasiado con el salto a la nueva generación de consolas.

Siguiendo con el mismo ejemplo, habría sido mucho mejor comprar un Ryzen 5 1600X, ya que costaba la mitad que el Ryzen 7 1800X y su rendimiento en juegos es prácticamente idéntico. Si hablamos de aplicaciones profesionales donde el número de hilos es más importante la cosa sería distinta, eso está claro, pero incluso en esos escenarios la diferencia de IPC a favor del Intel Core i3-12100F es tan grande que este consigue ofrecer un rendimiento excelente comparado con esos dos procesadores de AMD.

Cómo evitar este error: piensa en el uso que le vas a dar al equipo y elige un procesador capaz de cumplir con tus necesidades, buscando siempre dentro de la gama baja-media o de la gama media. Como regla general, para un usuario normal que quiera jugar o trabajar no merece la pena invertir más de 350 euros en un procesador, y esto teniendo en cuenta las recientes subidas de precio que se han producido en dichas gamas. Si solo vas a jugar recuerda que tienes más que suficiente con un procesador de 6 núcleos y 12 hilos.

3.-Montar un procesador con muchos núcleos pero con un IPC mediocre

Podríamos relacionarlo directamente con el punto anterior, y es que es también un error de criterio asociado a esa idea de «más núcleos = más rendimiento y mayor vida útil». No te engañes, de nada te servirá tener 8 núcleos y 16 hilos si utilizas aplicaciones o juegos que son incapaces de aprovecharlos. En estos casos lo que realmente determinará el rendimiento final serán el IPC y, en menor medida, las frecuencias de trabajo.

Siguiendo con el ejemplo anterior, comprar un procesador como el Ryzen 9 3900X para jugar pensando que vamos a tener un rendimiento excelente por sus 12 núcleos y 24 hilos es un error, ya que en realidad la mayoría de esos núcleos e hilos quedarán desaprovechados, y como tiene un IPC inferior al de los Ryzen 5000 obtendremos un rendimiento bastante más bajo que el que tendríamos, por ejemplo, con un Ryzen 5 5600X. Este último tiene 6 núcleos y 12 hilos y es mucho más barato.

Por contra, si vas a utilizar tu PC para trabajar con aplicaciones multihilo exigentes en el ejemplo anterior sí que tendría sentido el Ryzen 9 3900X. A modo de guión, y para poneros las cosas más fáciles, voy a dejaros a continuación un desglose sencillo con el número de núcleos e hilos (nivel óptimo) y el IPC que debe tener nuestro nuevo procesador en función del uso que vayamos a darle:

  • Tareas básicas: dos núcleos y cuatro hilos. IPC al nivel de los Ryzen 1000 o Core Gen4.
  • Ofimática avanzada y gaming: cuatro núcleos y ocho hilos. IPC al nivel de los Ryzen 3000 o Core Gen6.
  • Gaming avanzado: seis núcleos y doce hilos. IPC al nivel de los Ryzen 5000 o Core Gen11.
  • Trabajo profesional con alta carga de paralelizado: ocho núcleos y dieciséis hilos o más, dependiendo de la carga en concreto. IPC al nivel de los Ryzen 5000 o Core Gen11.

Cómo evitar este error: asegúrate de nuevo tienes que pensar en el uso que vas a dar al equipo y elegir tu procesador en consecuencia. Por ejemplo, para gaming avanzado a partir de un Core i5-11600 o un Ryzen 5 5600 ya estarías en el nivel óptimo, mientras que para ofimática y gaming un Core i3-10100F cumpliría de sobra y por muy poco dinero. En juegos debes priorizar el IPC cuando alcances los 6 núcleos y 12 hilos.

4.-Cuidado con los procesadores de gama baja

Es un tema que se ha vuelto complicado por la gran variedad de modelos que podemos encontrar dentro de dicha gama, y por las dudas que surgen al ver procesadores de diferentes generaciones dentro de una misma gama. Debemos tener mucho cuidado porque pueden existir importantes diferencias de rendimiento entre dos procesadores de gama baja incluso aunque tengan precios muy similares.

Uno de los ejemplos más claros lo tenemos en el Core i3-10100F y el Intel Celeron G5900. El primero cuesta 69 euros y el segundo tiene un precio de 66,25 euros, es decir, cuestan casi lo mismo, y podríamos pensar que por tanto rinden igual, pero nada más lejos de la realidad. El Intel Core i3-10100F es mucho más potente, ya que tiene 4 núcleos y 8 hilos a 3,6 GHz-4,3 GHz, mientras que el Intel Celeron G5900 suma 2 núcleos y 2 hilos a 3,4 GHz. Los dos tienen el mismo IPC, ya que se encuadran en la serie Comet Lake.

La diferencia entre ambos es más que evidente. El Core i3-10100F es un procesador de gama baja, pero bastante potente y muy económico, lo que lo convierte en una opción aceptable incluso para juegos. Sin embargo, con el Intel Celeron G5900 no podríamos pasar de un uso muy básico, y obviamente deberíamos olvidarnos por completo de los juegos, a pesar de que este nos habrá costado casi lo mismo que el otro procesador.

Sin embargo debes tener presente que no todos los procesadores de gama baja tienen las mismas especificaciones aunque se encuadren en la misma gama. Siguiendo con el ejemplo anterior, el Core i3-10100F tiene 4 núcleos y 8 hilos, pero su antecesor, el Core i3-9100F, solo tiene 4 núcleos y 4 hilos.

Cómo evitar este error: no te queda más opción que revisar y comparar bien las especificaciones de los distintos procesadores que estés considerando comprar. También puedes pedir ayuda a alguien con conocimientos en la materia, o buscar información en medios de confianza. En MC encontrarás una guía dedicada a equivalencias de procesadores que te será de gran ayuda.

5.-Dar demasiada importancia a las frecuencias de trabajo y al overclock

Es un tema que debería haber quedado superado hace mucho tiempo, pero la verdad es que todavía se le sigue dando una importancia que realmente no merece. No hay duda de que la velocidad de trabajo es una de las claves que determinan el rendimiento final de un procesador, y que hacerle overclock nos permite aumentarlas, lo que implica un mayor rendimiento.

Sin embargo, el peso que tienen las frecuencias de trabajo en el rendimiento de un procesador actual es secundario, y estos vienen a día de hoy tan afinados de casa y utilizan unos modos turbo tan «agresivos» que el margen final que tenemos para hacerles overclock es mínimo, y en ocasiones puede llegar a ser nulo. A esto debemos sumar que hacer overclock normalmente dispara el consumo y las temperaturas a unos niveles que directamente no compensan en absoluto la ganancia de rendimiento que obtenemos.

No te obsesiones con estos temas, ya que puede que acabes cometiendo un error importante en la compra de tu nuevo procesador si te dejas llevar por la velocidad de trabajo y el overclock. Para que lo veas más claro te voy a poner un ejemplo concreto, imagina que quieres montar un PC para jugar y que dudas entre elegir el Core i5-12600KF y el Core i5-12400.

El primero tiene unas frecuencias más altas, cuatro núcleos de alta eficiencia adicionales y soporta overclock. Puede parecer mejor opción, pero lo importante es que el segundo ya llega al nivel óptimo de 6 núcleos y 12 hilos, y tiene además un IPC altísimo. En este caso, si tienes un presupuesto ajustado, es mejor que compres el Core i5-12400F por 211 euros y que inviertas los 118 euros que te ahorras frente al Core i5-12600KF en comprar una tarjeta gráfica más potente.

Cómo evitar este error: no es para nada complicado, ten claro que lo realmente importante a la hora de elegir un procesador son el número de núcleos e hilos y el IPC de este. El IPC va profundamente unido a la arquitectura y a la generación del procesador, lo que significa que los más nuevos son los que mayor IPC tienen (Ryzen 5000 y Core Gen12 a día de hoy).

Cómo utilizar un smartphone para conectar a Internet otros dispositivos

Las posibilidades de los smartphones modernos son enormes. Auténticas computadoras en miniatura, destacan por su versatilidad para varios campos de uso además de las propias de comunicaciones por voz y vídeo, como las tareas de fotografía o de juego en movilidad por poner dos ejemplos. Pero hay otros casos de uso. Uno de ellos es el que vamos a repasar hoy y trata de usar la tarifa de datos del smartphone para convertirlo en un punto de acceso Wi-Fi y con ello dotar de Internet a otros dispositivos.

Los móviles inteligentes son el dispositivo de referencia para conectarnos a Internet y sus servicios en movilidad. La llegada de las redes 5G y las tarifas planas de datos (relativamente económicas) han aumentado enormemente su capacidad de telefonía celular. ¿Por qué no aprovechar a tope este tipo de redes para conectar otros equipos?

Puntos de acceso Wi-Fi

Hay que decir que en la actualidad las redes inalámbricas Wi-Fi públicas están bastante extendidas, pero tienen su problemática en alcance, rendimiento y especialmente en seguridad. Inseguras por defecto ya que no puedes saber quién está mirando por detrás, solo deben usarse puntualmente y para ninguna tarea fundamental o que implique la introducción de datos personales. La conversión de tu smartphone en un punto de acceso te va a ofrecer mucha más seguridad y también mayor rendimiento.

Conviene advertir que no todos los operadores de servicio lo permiten y que, para usarlo, necesitamos tener una buena cantidad de datos disponible, preferiblemente una conexión de datos ilimitado del que ahora con el rendimiento del 5G podremos obtener grandes beneficios y en algunos casos, evitarnos la contratación de servicios adicionales como podría ser Internet fijo para el hogar por fibra o similar.

Señalar también que la mayoría de smartphones no pueden conectarse con redes Wi-Fi mientras que estén en modo de punto de acceso ya que utilizarán sus antenas para permitir que otros dispositivos se conecten. Y si la autonomía es un problema, ten en cuenta que bajo este modo tu terminal consumirá más la batería.

Por último, si pagas por uso o tu tarifa de datos es muy reducida, olvídate de este artículo (salvo para una emergencia) porque el consumo es elevado, especialmente si te dedicas a realizar tareas de gran ancho de banda como streaming, P2P, descargas de archivos grandes o juegos en movilidad.

Cómo convertir un smartphone en un punto de acceso Wi-Fi

Señaladas las advertencias anteriores a tener en cuenta (especialmente la cantidad de datos disponibles con los que cuentas) hay que decir que usar esta función de Hotspot es sumamente sencillo. La gestión varía según el fabricante de tu terminal, pero no será muy diferente a la que se realiza desde un Samsung Galaxy S21 con Android 12 que usamos de ejemplo:

  • Accede a la herramienta de «Configuración» general o «Ajustes» y busca el apartado de «Conexiones». Dependiendo del terminal, de la versión de Android o de la interfaz de usuario del fabricante lo podrás encontrar con otro nombre.

  • Accede al apartado de «Conexión compartida y Módem».

  • Activa y pincha sobre «Conexión compartida».

  • Cambia a tu gusto el nombre de la conexión que verán los demás dispositivos, para el ejemplo «HotspotMC». Introduce la contraseña de acceso, lo más larga y fuerte posible.

A partir de aquí ya podrás compartir la conexión a Internet de tu smartphone. Simplemente conéctate desde el dispositivo o PC deseado a la red Wi-Fi seleccionando el punto de acceso y contraseña creada.

Como funciones avanzadas para aumentar la seguridad, puedes usar la función de «Ocultar el dispositivo» para que nadie pueda ver que está activa. Si quieres añadir aún mayor seguridad, puedes activar que sólo se conecten aquellos dispositivos que permitas específicamente. Se realiza en los ajustes de la conexión compartida con base en el filtrado de la dirección MAC, un identificador único codificado de origen, que hemos revisado en otros artículos prácticos sobre configuración de routers.

Módem USB

Otra opción de conexión compartida en Android es aún más sencilla que la anterior, si bien no es tan potente (a un punto de acceso se pueden conectar de manera inalámbrica hasta 10 equipos) y además requiere conexión física entre el smartphone y el dispositivo al que vayamos a conectar. Para el ejemplo conectamos un smarphone Samsung a un PC con Windows 10 con sus correspondientes drivers habilitados y la conexión entre ellos realizada correctamente.

  • Si accedemos a la página de configuración > Configuración compartida y Módem del móvil, veremos que se ha añadido la posibilidad de compartir mediante «Módem USB».

  • Simplemente lo activamos para ver que el PC con Windows añade nuevas posibilidades de conexión, tanto una nueva red utilizando los datos móviles del smartphone o su conexión.

  • Este tipo de conexiones es ideal cuando queremos dotar de conectividad a solo un equipo determinado. Además de ser una función muy sencilla de habilitar, lo mejor es que se puede utilizar la conexión Wi-Fi del terminal y no solo su tarifa de datos. Se puede gestionar para controlar la conexión desde

Módem Bluetooth

Similar a la anterior, pero en este caso sin cables de manera inalámbrica. De esta manera se puede compartir la conexión a Internet de tu teléfono vinculándolo a otro dispositivo mediante el estándar Bluetooth. A partir de aquí la conexión se produce emparejando dispositivos. Si el dispositivo se ha conectado anteriormente podrás volver a conectarlo siempre que lo necesites en la lista de dispositivos redireccionados.

Una función interesante la de convertir el móvil en un punto de acceso a Internet para compartir la conexión, que podemos usar para urgencias si no contamos con una buena tarifa móvil y para usos más potentes si contamos con muchos datos que poder gastar. Los afortunados que tengan una tarifa de datos móvil ilimitada y con 5G podrán extraer todo el potencial de esta característica y potencialmente prescindir de otros tipos de servicios de Internet fijos o móviles.

Windows 10 21H1 llegará a su Fin de Servicio el 13 de diciembre de 2022

Windows 10 21H1, también conocido como actualización de mayo de 2021 (May 2021 Update), llegará a su Fin de Servicio (End of Service/EOS) dentro de aproximadamente tres meses, más concretamente el 13 de diciembre de 2022.

El gigante de Redmond ha avisado de la descontinuación de Windows 10 21H1 a través de un documento publicado el miércoles. Una vez pasada la fecha de EOS, dicha versión del sistema operativo dejará de recibir actualizaciones de seguridad, así que Microsoft ha salido al paso para recomendar la actualización al último despliegue de Windows 10 o a Windows 11 para así seguir recibiendo soporte de seguridad.

A estas alturas no hace falta explicar en profundidad los riesgos que conlleva el usar software sin soporte ni mantenimiento, sobre todo porque los fallos de seguridad se van acumulando sin que sean parcheados. Con unos actores maliciosos que muchas veces van dos pasos por delante y con un malware cada vez más agresivo (solo hay que ver tipos como el ransomware), el ser implacable con la seguridad de los ordenadores es algo totalmente necesario. Si bien es cierto que la seguridad del 100% es inalcanzable, siempre merece la pena tener el nivel más alto posible.

Aunque todavía no lo ha anunciado oficialmente, parece que Microsoft tiene la intención de forzar la actualización de todos las instalaciones domésticas de Windows 10 21H1 a través de la correspondiente herramienta. Las instancias del sistema que se están usando en empresas no deberían de verse afectadas por esa política, así que esas podrán apurar la fecha de EOS.

Que Microsoft se plantee forzar las actualizaciones en Windows no es ninguna novedad y es más, hasta ha tenido que recular, al menos en parte, debido a los problemas detectados por los usuarios. Sin embargo, viendo la mala costumbre de inhabilitar las actualizaciones que tienen muchos, la compañía se ha visto forzada a implementar políticas más agresivas para garantizar la seguridad.

Pero pese a ciertos traspiés, Microsoft insiste en la idea de forzar las actualizaciones, ya que en el pasado mes de enero decidió aplicar dicha política a más dispositivos para pasarlos a Windows 10 21H2. Dicha versión o despliegue del sistema se convirtió, en las mismas fechas, en aquello a lo que están recurriendo muchos que no pueden actualizar a Windows 11.

Recordamos que Microsoft decidió implementar para Windows 10 un modelo de sistema como servicio en lugar del enfoque de producto que aplicó a las anteriores versiones mayores. Esto ha hecho que cada cierto tiempo aparezcan grandes actualizaciones con cambios importantes y los últimos parches de seguridad. Os dejamos con la lista de ediciones de Windows 10 21H1 que serán descontinuadas el 13 de diciembre de 2022.

  • Windows 10 Enterprise, version 21H1
  • Windows 10 Enterprise multi-session, version 21H1
  • Windows 10 Education, version 21H1
  • Windows 10 IoT Enterprise, version 21H1
  • Windows 10 Home, version 21H1
  • Windows 10 Pro, version 21H1
  • Windows 10 Pro Education, version 21H1
  • Windows 10 Pro for Workstations, version 21H1

¿Cumple tu PC los requisitos para instalar Windows 11 22H2?

Windows 11 22H2 está en la rampa de salida y todo indica que será la semana próxima cuando Microsoft publicará la edición de disponibilidad general. Será la versión final, estable, de la considerada como primera gran actualización del sistema y se entregará gratuitamente para actualizar equipos que cuenten con licencia válida de Windows 11. También será la versión que preinstalarán los fabricantes en los equipos nuevos que se comercializarán a partir de este otoño.

La versión final no será muy diferente de la RTM entregada a las OEM hace semanas salvo correcciones de errores y parches de seguridad. Si como muchos usuarios has seguido usando Windows 10 hasta ver si Microsoft lograba la estabilidad necesaria, añadía las funciones prometidas o mejoraba partes de la interfaz menos conseguidas (véase el menú de inicio o barra de tareas), quizá sea la hora de darle una oportunidad.

Si tienes claro que tu PC podrá ejecutar la versión solo tienes que seguir la guía que preparamos para adelantar la instalación de este Windows 11 22H2 con la RTM disponible, compilación 22621. Si no sabes si tu PC será compatible con el hardware requerido puedes darle un repaso a lo siguiente que te contamos.

Requisitos Windows 11 22H2

Los requisitos de hardware mínimos a cumplir oficialmente son los mismos que los del Windows 11 original. Se aplican tanto a máquinas físicas como virtuales y son los siguientes:

  • Procesador: CPU de 64 bits con 2 o más núcleos, incluidos en este listado.
  • Memoria RAM: 4 GB.
  • Almacenamiento: 64 GB.
  • Chip gráfico: Compatible con DirectX 12 con el controlador WDDM 2.0.
  • Firmware: UEFI compatible con la función de ‘Arranque Seguro’.
  • TPM: Módulo de plataforma segura versión 2.0.
  • Pantalla: 9 pulgadas con resolución HD.
  • Conexión a Internet para Windows 10 Home.
  • Windows 10 versión 2004 (para actualizaciones)

Necesidades de hardware detalladas:

Placa base. Uno de los requisitos mínimos de Windows 11 afecta al firmware del tu equipo, que debe ser una UEFI compatible con Arranque seguro. Si recuerdas, del Secure Boot corrieron ríos de tinta cuando hace unos años se implementó y bloqueó la instalación de sistemas Linux e incluso sistemas anteriores Windows como 7. Tiene que estar soportado en placa y activado. Aquí hay poco que hacer salvo cambiar la placa base.

TPM. El módulo de plataforma segura, es quizá el componente más polémico, aunque es todo un clásico. Muy usado (casi por defecto) en equipos empresariales, es un chip físico dedicado a tareas de seguridad, autenticación, generación de claves criptográficas y en general a mantener la integridad del sistema. La versión 2.0 exigida se introdujo en 2015 y aún no estando presente se puede instalar adicionalmente si la placa cuenta con un conector libre para ello. O activar la modalidad basada en firmware fTPM en la placa base. Puedes comprobar todo esto en el especial que le dedicamos a placas y CPU para Windows 11.

RAM y espacio en disco. Poco que decir respecto a la RAM y el almacenamiento. Cualquier equipo actual de gama media para arriba tiene instalado bastante más y realmente es necesario para obtener una experiencia mínima del sistema y las aplicaciones. Aumentar memoria y almacenamiento (sobre todo en el salto a SSD) son actualizaciones que tienen en mente cualquier usuario. La memoria RAM ha caído de precio y lo mismo podemos decir de las unidades de estado sólido básicas.

CPU. Aunque el requisito de CPU de 64 bits con 2 o más núcleos es bastante mínimo, incomprensiblemente Microsoft exige modelos determinados incluidos en este listado donde se quedan fuera procesadores de sobrada potencia para ejecutar Windows 11 22H2.

DX12. La actualización a Windows 11 también exigió un componente del que se habló menos que el TPM, pero que también dejó fuera a muchos equipos, especialmente con gráficas integradas más antiguas. El requisito mínimo en este apartado es una tarjeta gráfica compatible con DirectX 12 / WDDM 2.x, la versión de las librerías multimedia que Microsoft usa para controlar el sector de juegos en PC a medida que Windows monopolizó el escritorio.

Software. Si vas a usar Windows 11 para actualizar sistemas anteriores debes de hacerlo sobre Windows 10 versión 2004 o superior. El uso de las imágenes ISO sí permitirá actualizar otras versiones o realizar instalaciones limpias.

Otros requisitos recomendados. Las necesidades de pantalla son triviales porque Windows 11 pide paneles de 9 pulgadas de diagonal con resolución 720p. Otros (recomendados) van desde los sistemas de audio a webcams y micrófonos para videoconferencia; cámara IR para Windows Hello; Wi-Fi 6E para contar con lo último en conectividad inalámbrica a Internet; una SDD NVMe para DirectStorage; un módem 5G o soporte para el HDR. Son requisitos opcionales.

¿Cumple tu PC con los requisitos?

La caótica gestión inicial de Microsoft de sus propios requisitos, animó a terceros desarrolladores a publicar aplicaciones para comprobar la compatibilidad de tu equipo para Windows 11. La mejor es ‘WhyNotWin11.exe’. Gratuita, de código abierto y de uso tan sencillo como descargarla desde GitHub y ejecutarla para obtener los resultados:

También Microsoft tiene su propia aplicación. Que lanzó, retiró y de nuevo publicó. Se llama «Comprobación de estado del PC» que ha publicado Microsoft.

¿Y si tu PC no cumple con los requisitos de Windows 11 22H2?

Oficialmente no podrán instalar Windows 11. O esa es la teoría. Microsoft ha adoptado una actitud pragmática porque no puede controlar el inmenso ecosistema de Windows y, además, le interesa que la adopción del sistema (hasta ahora más baja de lo esperado) vaya subiendo.

Tal es así que la misma Microsoft autohackeó sus propios requisitos y corren por Internet todo tipo de herramientas capaces de omitir la verificación del cumplimiento de los requisitos de Windows 11. También hay disponibles versiones hackeadas de las imágenes ISO oficiales listas para instalar en casi cualquier PC. No parece que los chicos de Redmond estén preocupados por ello, si bien en su día salieron a decir que ni soportarán versiones no oficiales ni se harán responsable de ellas.

¿Y si no te interesa la nueva versión de Windows 11, al menos de momento?

Muchos usuarios retrasan las actualizaciones del sistema hasta comprobar su estabilidad. Microsoft ha mejorado tanto la distribución de las mismas como la calidad de software, pero los fallos siguen llegando sin control y aleatoriamente. Retrasar las actualizaciones sigue siendo una técnica obligada para profesionales o usuarios que destinan sus equipos a tareas de producción.

Y si estás usando Windows 10 y no quieres saltar a Windows 11, se aplica la misma técnica. Hay maneras de aplazar las actualizaciones mayores de versiones, las de calidad o las de funciones funciones sin afectar a las de seguridad que seguirán instalándose a través de los parches mensuales o los extraordinarios si fuera necesario. Recordemos que Windows 10 tendrá soporte oficial hasta octubre de 2025. Hay tiempo para la migración y si quieres probar otras cosas también alternativas a este Windows 11 cuya nueva versión estará disponible en breve plazo.

x ¡Hola! ¿Cómo podemos ayudarte? Haz click para escribirnos.