DirectStorage 1.2 mejora el rendimiento incluso en los HDDs más lentos

Microsoft ha lanzado DirectStorage 1.2, una puesta al día de su conocida API que, como sabrán muchos de nuestros lectores, está diseñada para mejorar el rendimiento de las unidades de almacenamiento, aunque se hizo especialmente popular por transferir de la CPU a la GPU las tareas de descompresión de datos instalados en las unidades SSD, un cambio que reduce la carga de trabajo que debe soportar el procesador y que permite reducir enormemente los tiempos de carga.

Con DirectStorage 1.2 nos encontramos ante una actualización que corrige algunos errores presentes en la versión anterior, y que mejora el rendimiento de forma sustancial incluso en unidades HDD que, como sabrán nuestros lectores, se caracterizan por ser más lentas que los SSDs, y por tener unas latencias mucho más altas que aquellas, lo que al final hace que los tiempos de acceso sean mucho peores.

Los discos duros han venido trabajando en modo búfer E/S (entrada y salida), precisamente porque tienen tiempos de búsqueda mucho más largos que los SSDs. Pues bien, según ha explicado Microsoft, DirectStorage abre archivos en modo sin búfer porque esto permite evitar copias innecesarias y llevar los datos a la GPU lo más rápido posible. Sin embargo, tomaron nota de las sugerencias de algunos desarrolladores, que decían que les gustaría poder usar el mismo código tanto en SSD de alta velocidad como en discos duros.

Con el lanzamiento de DirectStorage 1.2 en Microsoft han dado finalmente la posibilidad a los desarrolladores de utilizar el modo búfer E/S con discos duros. Además de este importante cambio se ha incorporado una nueva API «GetCompressionSupport», que introduce la posibilidad de indicar la ruta de descompresión utilizada (vía GPU o CPU).

Otro cambio importante que afecta al rendimiento es la copia inmediata, tras la descompresión, a la cola de procesamiento de la GPU para acelerar el trabajo. Al final, está claro que el uso del núcleo gráfico para sacar adelante las tareas de descompresión se ha convertido en un pilar fundamental, no sólo porque puede completarlo en menos tiempo, sino porque además puede sacarlo adelante de una manera más eficiente.

Será interesante ver cómo mejora esta nueva función de DirectStorage 1.2 el rendimiento de las unidades HDD más lentas, y qué impacto acaba teniendo en escenarios de uso real. Si queréis consultar más detalles sobre esta nueva API os invito a echar un vistazo a la web oficial de Microsoft, donde encontraréis también información sobre los errores que se han corregido con esa actualización.

Instagram permite agregar múltiples enlaces en la biografía

Una nueva función que beneficia a empresas y usuarios de la plataforma.

Instagram anunció una nueva función que servirá para agregar hasta cinco enlaces en su biografía.

De acuerdo con Instagram, los usuarios con cuenta verificada o aquellos con más de mil seguidores podrían ser los primeros en tener acceso a la función. Sin embargo, se espera que la función esté disponible para todas las cuentas, tanto de personas como de negocios, en un futuro próximo.

Con esta nueva función, Instagram se vuelve más competitivo con otras plataformas de redes sociales como Twitter, que siempre ha permitido a los usuarios agregar múltiples enlaces a su perfil.

Se espera que la función sea particularmente beneficiosa para las empresas que publicitan en Instagram, ya que ahora pueden agregar enlaces a su contenido promocional, lo que resulta en más clics y tasas de compromiso más altas.

Es importante tener en cuenta que no todos los usuarios tendrán acceso a esta función de inmediato, ya que se está implementando gradualmente. 

ChatHub, un interesante aglutinador de chatbots

De las últimas herramientas relacionadas con la inteligencia artificial que he probado, debo decir que ChatHub me ha parecido de las más interesantes, no ya por sus funciones actuales, sino principalmente por las que promete integrar en el futuro. Tanto es así que, aunque lógicamente permaneceré atento a su evolución, creo que tiene sentido recomendarla en estos primeros momentos de su desarrollo, pues además eso puede contribuir a su evolución.

En una definición muy rápida, ChatHub aglutina en una única ventana del navegador, Google Chrome, los principales chatbots: ChatGPT, Bing, Bard y Claude. Así, aunque el concepto es el mismo que ya encontramos en Poe, en este caso nos encontramos con algunos modelos que no están presentes en la solución de Quora. A favor de esta última se encuentra, claro, la posibilidad de personalizar los bots, algo que no encontramos en este caso.

Hay otro aspecto importante de ChatHub que también es necesario destacar, y es que emplea tus cuentas para acceder a dichos servicios. Es decir, que tendrás que haber iniciado sesión en los mismos (o en Poe, en el caso de Claude) para poder emplearlos. Esto es muy importante en este punto, puesto que pese a que permite realizar consultas a Bard, el servicio de Google, esta función no estará disponible hasta que no tengamos acceso al mismo.

Con diferencia, lo que más me ha gustado de ChatHub es su vista All-In-One, en la que podremos enviar la misma consulta, de manera simultánea, a varios chatbots. De momento esta vista integra ChatGPT y Bing, pero sus desarrolladores prometen incluir más chatbots en la misma en el futuro, al menos para las cuentas premium. Ese es, precisamente, el punto que me hace recomendarlo, pues poder emplear el mismo prompt con varios modelos y comparar sus resultados en una única vista, me resulta de lo más prometedor.

ChatHub es una extensión gratuita para Google Chrome, que cuenta con un modo premium que, actualmente, puede ser contratado de manera vitalicia por 15 dólares. Eso, y esto lo tengo que aclarar en este punto, no es una recomendación de compra, pues todavía es bastante pronto como para tirarse a la piscina, y más aún teniendo en cuenta que depende de nuestros accesos personales a dichos servicios. No obstante, si se cumple la llegada de las funcione que adelantan sus desarrolladores, sí que puede convertirse en una herramienta tan interesante que sí que justifique la inversión en el modo premium.

Las peores predicciones tecnológicas de la historia

Hablar de tecnología es hablar del futuro y si hay algún sector donde nos gusta jugar a ser adivinos es el nuestro. Seguro que cualquier lector de MC puede recordar alguna de sus profecías tecnológicas y su resultado que, afortunadamente, siempre quedan olvidadas en el ámbito de lo privado.

Sin embargo, también los grandes protagonistas del sector se aventuran qué producto fracasará, qué tecnología se impondrá o qué necesitan los consumidores incluso antes de que ellos mismos lo sepan. Ahí van algunas de las peores profecías tecnológicas de todos los tiempos:

«El automóvil es una moda, una novedad. Los caballos están aquí para quedarse»

Presidente del Michigan Savings Bank (1903)

Horace Rackham trabajaba en el bufete de abogados redactó los documentos de incorporación de la compañía de automóviles de Henry Ford en 1903 y se le ofreció la oportunidad de ser inversor. Antes de tomar la decisión, decidió visitar a un amigo banquero que tenía muy claro que los coches eran poco más que un invento pasajero para ricos.

“No hay ninguna razón por la que una persona quiera tener un ordenador en su casa”

Ken Olsen, fundador de DEC, fabricante de microordenadores (1974)

Esta sentencia fue divulgada por David H. Ahl, un antiguo empleado de Olsen muy molesto después de que se negara a apoyar su proyecto de desarrollo y comercialización de productos informáticos personales.

“La idea de tener un comunicador personal inalámbrico es solo una quimera impulsada por la codicia”.

Andry Grove, consejero delegado de Intel en la Mobile Conference (1992)

En una época donde la industria móvil era poco más que un sueño, Intel se desmarcó por completo de todo lo que tuviera que ver con teléfonos primero y PDAs o smartphones después. Como sabemos, le costó años volver a subirse al carro.

“Cerraría Apple y devolvería el dinero a los accionistas”

Michael Dell (1997)

No es exactamente una predicción, sino la respuesta del mandatario a la pregunta de qué haría con Apple si fuera Steve Jobs, que estaba a punto de volver a tomar el mando.

«En 2005, quedará claro que el impacto de Internet en la economía no ha sido mayor que el del fax».

Paul Krugman, Premio Nobel de Economía (1998).

Paul Krugman escribió esta disertación como parte de un artículo para Red Hering titulado «Por qué la mayoría de las predicciones de los economistas son erróneas».

Con el paso del tiempo, Krugman ha reconocido varias veces su error asegurando que “intentaba ser provocador y me equivoqué. Nos pasa a todos muchas veces”

«El modelo de suscripción para comprar música está quebrado.”

Steve Jobs (2003)

Steve Jobs en una entrevista en Rolling Stone dejó claro su falta de confianza en un modelo basado en “paga y consume lo que quieras”. Para el CEO de Apple, era una cuestión de la forma en la que los usuarios consumían el audio: “comprar discos de 45, LP, cassettes y CD. Van a querer comprar descargas”.

“En los próximos dos años el problema del spam se solventará”

Bill Gates (2004)

En el Foro de Davos el CEO de Microsoft se atrevío a asegurar que el correo basura estaba muy cerca de su fin.

“Simplemente no hay tantos videos que quiero ver”.

Steve Chen, CTO y cofundador de YouTube (2005)

Aunque a día de hoy nos parezca increíble, durante mucho tiempo los fundadores de YouTube estuvieron muy preocupados por la viabilidad a largo plazo de su compañía. Afortunadamente, una máquina de hacer dinero llamada Google llegó para salvarlos y soportar, durante muchos años, la ausencia de ingresos de la mayor plataforma de vídeos de Internet.

“Todos siempre me preguntan cuándo saldrá Apple con un teléfono celular. Mi respuesta es: ‘Probablemente nunca’”.

David Pogue, The New York Times. (2006)

Uno de los mejores periodistas tecnológicos no estuvo muy atinado con este vaticinio. Solo un año después, Apple lanzaría el primer iPhone.

«No hay ninguna posibilidad de que el iPhone consiga una cuota de mercado significativa. Ninguna posibilidad.».

Steve Ballmer, ex CEO de Microsoft (2007)

Esta es probablemente una de las más predicciones recordadas con un motivo poderoso: el iPhone es el dispositivo de consumo más venido de la historia y ha sido clave para que Apple, entre otras cosas, superara a Microsoft en capitalización.

Con el tiempo, Ballmer explicó que su error fue no pensar en que la innovación de Apple no era solo tecnológica, sino en la forma en la que se vendían los teléfonos. Jobs fue capaz de negociar con las operadoras para que pagar el iPhone fuera parte de la factura mensual y, según el ex directivo de Microsoft, esto fue clave para el éxito.

«La industria informática es la única que está más de moda que la moda femenina. Quizá sea idiota, pero no tengo ni idea de lo que habla nadie. ¿Qué es la nube? Es un galimatías. Es una locura».

Larry Ellison en OracleWorld (2008)

No se puede negar que Ellison es un tipo directo y, en el año de la cita, el cloud era todo lo contrario al negocio de Oracle. Sin embargo, tras años de resistencia, en los últimos tiempos la nube ya forma parte nativa de su oferta.

Más allá de la anécdota o de lo divertido que puede ser recordar estos patinazos hay una reflexión interesante: cuando estás al mando de un negocio de éxito es complicado que tu predicción sea que todo está a punto de cambiar. Lo habitual es pensar que vas en la dirección adecuada (informática profesional frente a ordenadores personales, PC frente a móviles, cloud frente a centros de datos…) y es precisamente lo que se espera que digas.

Cerramos aquí esta recopilación, pero os animamos a completarlo compartiendo en comentarios más predicciones tecnológicas que recordéis. Quizás dentro de unos años revisemos este artículo para incorporar predicciones sobre el blockchain, la IA o el metaverso… o todo lo contrario.

Qué tecla debes pulsar para acceder a la BIOS de tu PC

Todos los equipos informáticos tienen teclas especiales programadas que al pulsarlas dan acceso a los nuevos firmware UEFI o a los más antiguos BIOS. Se activan pulsando una tecla determinada durante la fase de testeo del hardware que sucede cuando arrancamos el ordenador personal. Ello nos permite el acceso a los Sistemas Básicos de Entrada/Salida que se ejecutan en el arranque de los equipos proporcionando la comunicación de bajo nivel, el funcionamiento y la configuración básica del hardware del sistema.

El problema es que este tipo de teclas no está estandarizado y en ocasiones las desconocemos. Deberían mostrarse en la pantalla en el arranque, pero no siempre es así por los modos de inicios rápidos de las computadoras personales actuales, especialmente en portátiles. Además, los fabricantes no lo ponen fácil porque cada uno emplea distintas soluciones de firmware y teclas distintas. Lo único positivo es que suelen repetirse en todos los equipos de cada marca.

También son interesantes las teclas dedicadas para el menú de arranque interno, con las que podemos seleccionar el arranque desde los distintos dispositivos de almacenamiento del equipo, sean unidades internas como discos duros o SSD o los externos, pendrives, discos USB o los CD/DVD de la unidades ópticas.

Teclas de acceso a la BIOS

Te dejamos con una lista no exhaustiva de los principales fabricantes. La mayoría usan alguna de las teclas de «Función» o la de «Escape», pero son distintas y se deben conocer. Añadimos las teclas especiales de Apple que también son diferentes.

Portátiles

  • Acer: F2
  • ASUS: F2 o Suprimir
  • Compaq: F10
  • Dell: F2
  • Fujitsu: F2
  • HP: Escape o F10
  • Lenovo: F1, F2 o botón nano
  • Packard Bell: F8
  • Samsung: F10 o F2
  • Sony: F1, F2, F3 o botón de asistencia
  • Toshiba: Escape, F2 o F1

Sobremesas

  • Acer: Suprimir o F2
  • ASUS: F8, F2 o Suprimir
  • Compaq: Escape o F9
  • Dell: F2
  • HP: Escape o F10
  • Lenovo: F1 o F2

Menú de arranque interno

  • Acer: F12, F9 o Escape
  • ASUS: F8 o Suprimir
  • Dell: F12
  • Fujitsu: F12
  • HP: Escape o F9
  • Intel: F10
  • Lenovo: F12, F10 o F8
  • Packard Bell: F8
  • Samsung: Escape, F10 o F2
  • Sony: Escape o F11
  • Toshiba: F12

Portátiles Apple

  • Comando + Opción + P + R: resetea PRAM y NVRAM.
  • Comando + S: arranca en modo monousuario.
  • Comando + V: arranque con estado detallado.
  • Opción: selección del volumen de arranque del disco duro.
  • Opción + N: arranque desde una imagen de un servidor.
  • Shift: arranque en modo seguro.
  • C: arranque desde la unidad óptica.
  • D: arranque en modo de recuperación y test de prueba de hardware.
  • N: arranque desde una red.

El iPhone sin botones tendrá que esperar

En octubre del año pasado supimos, por primera vez, de los planes de Apple para sustituir los botones físicos por controles hápticos en los iPhone 15, un rumor que se vio reforzado a finales de febrero por una nueva filtración que apuntaba en este sentido. Así, hace un mes al recopilar todas las novedades que pueden llegar de la mano de la nueva generación, incluímos este radical cambio en la misma, aunque planteando precisamente eso, que es un cambio muy acusado, y que por lo tanto podría no gustar a todo el mundo.

En Apple, sin embargo y a la luz de las filtraciones, parecían estar bastante satisfechos con la idea. No es la primera vez que sacan la tijera a pasear. Ya lo hemos visto, solo hablando del iPhone, con la eliminación del botón home y el conector minijack para los auriculares. Y lo cierto es que ambos cambios marcaron tendencia, pues a día de hoy es cada vez más difícil encontrar un smartphone de cualquier fabricante que cuente con alguno de ambos elementos (para desconsuelo de los usuarios que preferimos los auriculares con cable para determinadas circunstancias).

Así pues, ya estábamos hechos prácticamente a la idea de que los iPhone 15 Pro marcarían el principio del fin de los botones físicos para controlar el volumen, pues podemos imaginar que lo ocurrido en los dos casos que he mencionado anteriormente se repetiría en esta ocasión. No de un día para otro, claro, pero sí que se convertiría en una tendencia que más pronto que tarde adoptarían otros fabricantes en sus dispositivos tope de gama. Así es como funciona este mercado, ¿verdad?

Parece, sin embargo, que los planes de Apple se han torcido. Sustituir los botones físicos por controles hápticos no parece algo sencillo y, según afirma el reputado y generalmente acertado analista Ming-Chi Kuo en su página de Medium, Apple ha renunciado a los controles hápticos en los iPhone 15 por problemas técnicos. En concreto, esto es lo que podemos leer (traducido) en dicha publicación:

«Mi último sondeo indica que, debido a problemas técnicos no resueltos antes de la producción a gran escala, los dos modelos de gama alta del iPhone 15 (Pro y Pro Max) abandonarán el diseño del botón de estado sólido que tanto se ha comentado, y volverán al diseño tradicional de botón físico».

A partir de ese punto, entra a analizar el impacto de este cambio en los principales proveedores de los componentes necesarios para estos controles, Cirrus Logic (proveedor exclusivo de controlador IC) y AAC Technologies, y también afirma que este cambio no debería influir negativamente en el calendario previsto para la producción y distribución de los iPhone 15 Pro, pues la vuelta a los botones físicos simplifica el diseño y la producción, llevándolos a un escenario mucho más conocido y cómodo para la compañía.

No obstante, podemos entender que se trata de un retraso en la implantación de esta tecnología, no una cancelación. Al desconocer la profundidad del problema técnico no podemos especular al respecto, pero cabe esperar que no tardemos demasiado (en lo referido a generaciones, ya me entiendes) en ver como finalmente Apple se sale con las suyas con un iPhone sin botones.

Cuidado con los cargadores públicos

Los cargadores públicos para smartphones, tablets y demás dispositivos, se han convertido en un elemento imprescindible el mobiliario urbano para muchas personas. Ya sea por despiste antes de salir de casa, porque nos hemos alargado en el trabajo (o en el aperitivo con los amigos) o por cualquier otra razón, disponer de puntos de carga repartidos estratégicamente por ciudades y pueblos, algunos incluso en vehículos de transporte público, puede marcar la diferencia entre que podamos mantenernos conectados o que, por el contrario, experimentemos un súbito receso a finales del siglo XX, que en realidad no está tan lejos, pero era marcadamente distinto a la actualidad.

En no pocos casos, la instalación de los cargadores públicos no ha sido más que la respuesta al plan alternativo que ya empleaban muchos usuarios, y que no es otro que localizar enchufes en los que conectar sus propios cargadores. La ventaja de los cargadores es que, eso sí, al utilizarlos no nos pueden llamar la atención por estar haciendo un uso indebido, algo que sí que ocurre con los enchufes, además de que nos permite llevar encima sólo el cable de conexión, no el cargador.

Sé que se suele decir que hemos desarrollado un excesivo grado de dependencia, pero es indiscutible que permanecer conectados nos proporciona una serie de ventajas y comodidades, que van desde lo banal pero agradable de escuchar música, hasta contar con una herramienta de comunicación que puede marcar la diferencia en situaciones complicadas. Es cierto que podríamos pasar sin los smartphones, pero también es cierto que supondría renunciar, de manera no necesaria, a todo lo bueno que han traído a nuestras vidas.

No todo es bueno, claro. Pero no te preocupes, que en esta ocasión no voy a entrar en el discurso sobre la adicción a los dispositivos y demás, no, en esta ocasión voy a hablar de seguridad, o de un problema de seguridad, para ser más exactos. Como podemos leer en NBC News, el FBI ha emitido una alerta sobre los riesgos de los cargadores públicos, al punto de recomendar que no se empleen aquellos que podemos encontrar en aeropuertos, centros comerciales, hoteles, etcétera. ¿La razón? Que los ciberdelincuentes han descubierto formas de usar los cargadores USB públicos para introducir malware y software de monitoreo en los dispositivos que se conectan a los mismos.

Aunque el FBI se circunscribe a Estados Unidos, lo cierto es que esta amenaza es global, y en realidad no es algo nuevo, aunque sí que podemos entender que se ha incrementado de manera sustancial, lo que ha llevado a que se tenga que emitir dicha advertencia-recomendación.

Los usuarios con un perfil poco o nada técnico posiblemente nunca (o prácticamente nunca) hayan conectado su smartphone al PC para transferir datos, restablecer copias de seguridad, etcétera, pero lo cierto es que el puerto USB-C (o Lightning, en el caso de los iPhone, al menos hasta la llegada de los iPhone 15), es un puerto de carga, pero también de datos, por lo que lo que parece una inocente conexión para cargar el móvil, en realidad puede convertirse en algo bastante más peligroso.

¿Qué dispositivos no podrán actualizarse a iOS 17 y iPadOS 17?

Todavía faltan unos meses para la presentación formal de iOS 17 y iPadOS 17, que salvo enorme sorpresa tendrá lugar en la WWDC 2023 el próximo mes de junio, en un evento en el que todavía no sabemos si el protagonismo recaerá sobre el esperado visor de realidad aumentada de Apple. Hace solo unos días te contábamos que la sombra de un nuevo retraso pende sobre el esperado anuncio, pero hay diversidad de opiniones a este respecto, pues otros analistas dicen que los planes de presentarlo en junio siguen adelante.

Si finalmente se produce el anuncio del visor, sin duda acaparará todo el protagonismo del evento, aún cuando las expectativas sobre el mismo no parecen apuntar tan alto como cabría desear en Cupertino, pues no cabe la menor duda de que sabrán venderlo como algo revolucionario y, aunque sea de manera transitoria, inicialmente sí que nos dejará a muchos con la sensación de que necesitamos un dispositivo como ese en nuestras vidas. Este efecto puede durar minutos o alargarse para siempre, eso es variable, pero sin duda el impacto inicial será sonado.

En caso contrario, si no se produce dicho anuncio, probablemente gran parte del protagonismo recaerá sobre iOS 17 y iPadOS 17, las futuras versiones de los sistemas operativos del iPhone y del iPad. Todavía no sabemos mucho sobre ellas, pero tras unos rumores iniciales que apuntaban a que serían revisiones menores, ha empezado a ganar peso la teoría de que finalmente no será así, y que de su mano llegarán novedades muy interesantes (aunque, curiosamente, los analistas que señalan en este sentido no dan ni un solo dato concreto al respecto).

Sea como fuere, mantenerse un año más dentro de la lista de dispositivos que pueden dar el salto a la versión más reciente es siempre una buena noticia, que encuentra su contraparte en todos aquellos que Apple considera que ya han cumplido su ciclo de vida, y para los que por lo tanto ya no ofrece actualizaciones. Y hoy, gracias a una filtración de la que se hace eco MacRumors, ya contamos con una lista de los dispositivos que no podrán actualizarse a iOS 17 y iPadOS 17.

iOS 17

En primer lugar, en lo referido a los iPhone, estos son los modelos que no podrán dar el salto a iOS 17:

  • iPhone 8
  • iPhone 8 Plus
  • iPhone X

Así, y al igual que ocurrió con el anterior cambio de sistema operativo, vemos que son dos las generaciones que se quedan fuera de la actualización. Preocupa, pues da que pensar si Apple no se estará planteando reducir el tiempo de vida de los iPhone por la vía de dejarlos sin actualizaciones del sistema operativo. Tendremos que esperar para ver si esto se confirma y, en caso afirmativo, qué ocurrirá el año que viene con iOS 18. No obstante, recordemos que la Unión Europea pretende establecer un periodo de vida (mediante actualizaciones del sistema operativo y el software) que podrían limitar las intenciones de Apple en este sentido.

iPadOS 17

En el caso de la tablet de Apple, estos son los modelos que se quedarían anclados en iPadOS 16:

  • iPad Pro 9,7 (primera generación)
  • iPad Pro 12,9 pulgadas (primera generación)
  • iPad quinta generación

Aquí lo que vemos por primera vez es la pérdida de soporte de iPad Pro, la versión tope de gama de la tablet de los de Cupertino. Esto es normal y tarde o temprano tenía que llegar, pero aún así tiene cierto simbolismo que, sin duda, hará poca gracia a quienes todavía siguen empleando esos modelos.

Consejos para hacer un buen uso de Excel:

Excel es una herramienta muy útil para la organización y análisis de datos. Aquí te dejamos algunos consejos para hacer un buen uso de Excel:

  1. Aprende las funciones básicas: Aprende las funciones básicas de Excel, como las fórmulas, las tablas y los gráficos, para poder utilizarlas de manera efectiva.
  2. Organiza tus datos: Asegúrate de organizar tus datos de manera clara y coherente. Utiliza las funciones de ordenar y filtrar para hacerlo.
  3. Utiliza tablas y gráficos: Las tablas y los gráficos son herramientas muy útiles para visualizar y analizar los datos. Asegúrate de utilizarlos de manera efectiva para comunicar tus resultados de manera clara.
  4. Usa atajos de teclado: Aprende los atajos de teclado de Excel para agilizar tu trabajo y aumentar tu eficiencia.
  5. Usa formatos y estilos: Utiliza formatos y estilos para dar a tus hojas de cálculo un aspecto más profesional. Utiliza el formato condicional para resaltar la información importante.
  6. Realiza copias de seguridad: Realiza copias de seguridad de tus archivos de Excel para evitar la pérdida de datos.
  7. Practica y experimenta: La práctica hace al maestro. Experimenta con diferentes funciones y herramientas para mejorar tus habilidades en Excel.

Siguiendo estos consejos podrás hacer un buen uso de Excel y obtener el máximo provecho de esta herramienta.

Memoria gráfica y juegos: resuelve tus dudas con estas cinco claves

Con el lanzamiento de Resident Evil 4 Remake y The Last of Us Part I en PC el tema de la memoria gráfica ha vuelto a estar de plena actualidad, porque ambos juegos tienen un alto consumo de este tipo de memoria, y porque su impacto puede ser enorme tanto en materia de rendimiento en general como de estabilidad al mover dichos juegos.

También se han vuelto a generar muchas dudas sobre el uso de la memoria gráfica, y sobre su importancia y su peso real en juegos. La compilación de shaders ha sido otro tema candente en este sentido por el curioso sistema que The Last of Us Part I ha implementado en su versión para PC, y ha generado todavía más dudas sobre su impacto real en el consumo de memoria gráfica.

La situación actual, la falta de información y el surgimiento de ciertas campañas de desinformación que he visto durante los últimos días me ha llevado a escribir esta guía, donde voy a compartir con vosotros cinco claves que os ayudarán a resolver dudas y a tener más claro el papel que juega la memoria gráfica en juegos y a desmentir, una vez más, los mitos que todavía hay a su alrededor.

Voy a exponer cada una de esas claves de una manera directa y sencilla para que todos podáis entenderlas sin ningún tipo de problema, pero si os surge cualquier tipo de duda al leer el artículo podéis dejarla en los comentarios y esté encantado de ayudaros a resolverla. Sin más preámbulos, entramos en materia.

1.-La memoria gráfica puede hacer que un juego no funcione

Al ejecutar Resident Evil 4 Remake con trazado de rayos activado en 1080p y calidad máxima vemos que la Radeon RX 6600 XT crashea, esto se debe a la falta de memoria gráfica. La mayor potencia de la GeForce RTX 3070 marca la diferencia y le permite aguantar el tirón, pero esta también acaba cayendo al subir la resolución a 1440p. Imagen por cortesía de TechPowerUp.

Es un hecho constatado. Al igual que ocurre con la memoria RAM, cuya cantidad determinará si podemos ejecutar o no un juego concreto, con la memoria gráfica ocurrirá exactamente lo mismo, aunque con una particularidad importante, y es que en este caso lo normal es que nos encontremos con un escenario mucho más flexible, donde podremos jugar con los ajustes gráficos del juego para que funcione bien con una determinada cantidad de memoria gráfica.

Muchos títulos actuales vienen con un indicador que muestra la cantidad de memoria gráfica de nuestro PC, así como la parte de esta que tenemos ocupada con la configuración actual. Algunos juegos pueden funcionar sin problemas incluso aunque superemos el umbral máximo de memoria gráfica disponible, mientras que otros pueden dar problemas más o menos graves de estabilidad y de rendimiento, y otros puede que directamente no funcionen. Al final, dependerá de cada título en concreto.

Tened esto en cuenta porque no todos los juegos se comportan igual si superamos ese umbral de memoria gráfica máxima que tenemos disponible. Por ejemplo, Resident Evil 2 Remake permite utilizar una configuración que exceda la cantidad de memoria gráfica disponible, y dependiendo de la potencia de nuestra tarjeta gráfica el rendimiento puede ser bastante bueno o todo lo contrario. Sin embargo, otros juegos como DOOM Eternal o Red Dead Redemption 2 son muy estrictos con este tema, y no permiten superar el máximo de memoria gráfica disponible.

En casos extremos puede que el juego directamente no arranque si no tenemos una cantidad mínima de memoria gráfica, pero por fortuna esto sólo sucede en casos muy específicos, y cuando hablamos de configuraciones de 1 GB de memoria gráfica y, en menor medida, de 2 GB de memoria gráfica. En líneas generales el mínimo para que todos los juegos actuales funcionen es de 4 GB de memoria gráfica, aunque lo ideal es contar al menos con 6 GB de memoria gráfica para jugar en 1080p, y con  8 GB para jugar en 1440p (con calidades máximas en la mayoría de los casos).

2.-Memoria gráfica ocupada y consumida: dos cosas muy distintas

DOOM Eternal consume una cantidad de memoria específica, en función de los ajustes que utilicemos, y es muy estricto en ese sentido. Si no tenemos la cantidad de memoria gráfica necesaria no podremos utilizar esa configuración gráfica.

Normalmente los juegos utilizan la memoria gráfica para almacenar numerosos elementos, que ya ha sido procesados y compilados, a los que la GPU puede acceder cuando los necesita, evitando que estos tengan que representar un nuevo ciclo de trabajo. La idea es, en esencia, la misma que cuando hablamos de la memoria RAM y el procesador, y previene los ciclos de trabajo redundantes que se producirían al tener que repetir operaciones una y otra vez.

Si no tenemos suficiente memoria gráfica es probable que el sistema se vea obligado a vaciar una parte de esta para llenarla con nuevos elementos, generando nuevos ciclos de trabajo, y cuando la GPU necesite acceder a los elementos que fueron vaciados anteriormente volverá a incurrir en nuevos ciclos de trabajo que, al final, acabarán afectando de forma negativa al rendimiento del equipo. Esto puede variar en función de las particularidades de cada juego, y también de sus exigencias.

Cada juego tiene sus propios requisitos de memoria gráfica, y utiliza este recurso de una manera distinta. No obstante, debemos tener claro que el hecho de que un título ocupe 10, 12 o 16 GB de memoria gráfica no significa que realmente necesite esa enorme cantidad de memoria gráfica. En estos casos lo más probable es que esté ocupando toda la memoria gráfica que tiene disponible de manera preventiva, es decir, para generar un bloque de recursos por si los necesita en algún momento.

Ese escenario representa lo que conocemos como memoria gráfica ocupada, y es algo común en muchos títulos actuales que puede verse agravado si se produce además una fuga de memoria. La fuga de memoria es, en resumen, una ocupación creciente e interminable de la cantidad de memoria gráfica disponible que al final suele terminar en un crasheo del juego cuando se llega al límite de la memoria disponible. Esto ocurre porque el juego va ocupando cada vez más memoria gráfica, y no libera las porciones de esta que deja de necesitar en cada momento concreto.

Por otro lado tenemos la memoria gráfica consumida, que es aquella que sí es utilizada de forma efectiva y que necesita un juego para su correcto funcionamiento. Os pongo un ejemplo, en The Last of Us Part I incluso en resolución 900p (1.600 x 900 píxeles) el consumo de memoria gráfica con una GeForce RTX 4090 puede llegar a superar los 10 GB, pero el juego puede funcionar sin problemas en resoluciones superiores y con calidades máximas con modelos de 8 GB de memoria gráfica.

3.-La cantidad de memoria gráfica importa, pero el ancho de banda también

Contar con una cantidad mínima de memoria gráfica es fundamental para ejecutar determinados juegos, pero el ancho de banda de la memoria también jugará un papel fundamental en el rendimiento, tanto que en casos extremos podría generar un cuello de botella tan enorme que acabe afectando negativamente al rendimiento general del equipo.

El ancho de banda de la memoria gráfica se determina por la velocidad de esta y el bus de memoria, aunque este último tiene un mayor impacto. Vamos a verlo con un ejemplo sencillo, una Radeon RX 6700 XT utiliza memoria GDDR6 a 16 GHz y tiene un bus de memoria de 192 bits, y su ancho de banda es de 384 GB/s, mientras que una GeForce RTX 3060 Ti emplea memoria GDDR6 a 14 GHz y tiene un bus de 256 bits, lo que hace que su ancho de banda total sea de 448 GB/s.

Un mayor ancho de banda permite que las comunicaciones entre la GPU y la memoria gráfica sean mucho más rápidas, aunque estas también dependen de otros factores, como las cachés L2 y L3. Este último tipo de caché está presente en las Radeon RX 6000 y RX 7000, y se conoce como caché infinita. Con la serie GeForce RTX 40, NVIDIA optó por aumentar en gran medida la caché L2, que es más rápida que la caché L3.

Si tenemos una gran cantidad de memoria pero esta es muy lenta la comunicación entre esta y la GPU se verá seriamente afectada, y al final el rendimiento podría acabar siendo bastante pobre. Un buen ejemplo de cómo afecta el ancho de banda al rendimiento de una tarjeta gráfica lo podemos encontrar en la GeForce RTX 3060 de 8 GB, que tiene un bus de 128 bits (el modelo de 12 GB utiliza un bus de 192 bits), y este reduce su ancho de banda de forma significativa.

Debido a esa reducción en el ancho de banda, la GeForce RTX 3060 de 8 GB es, de media, un 15% más lenta en juegos que el modelo de 12 GB, y en algunos casos la diferencia puede llegar a ser de hasta un 30%. Son datos muy interesantes, sobre todo teniendo en cuenta que ambos modelos tienen el mismo número de shaders, y que por tanto es el ancho de banda el único factor que lisia de esa manera el rendimiento de dicha tarjeta gráfica.

4.-El consumo de memoria gráfica se puede reducir fácilmente

La calidad de las texturas determina el nivel de detalle, la nitidez y la calidad en general de Leon y de todos los elementos poligonales de esta escena. Como podemos ver, en este caso destaca especialmente el nivel de detalle de Leon, con mención especial a la chaqueta, pero tenemos texturas de peor calidad en elementos menos importantes.

Esto es un hecho incluso en juegos que tienen una gran dependencia de la memoria gráfica, aunque no todos los ajustes gráficos tienen el mismo impacto en este sentido. Muchos tienen un impacto mínimo y sólo consumen unos pocos megabytes, mientras que otros pueden llegar a consumir cientos de megabytes. El ajuste que mayor cantidad de memoria gráfica consume suele ser la calidad de las texturas, y también la caché de sombras en caso de que exista (no está presente en todos los juegos).

Las texturas se almacenan en la memoria gráfica para poder ser aplicadas de forma directa y son, dicho de una forma simple, la piel de la geometría del juego. Tienen por tanto un enorme peso en la calidad gráfica del mismo. Unas texturas en calidad alta tendrán una mayor nitidez y presentarán un nivel de detalle muy rico, pero tendrán un tamaño mayor y ocuparán más memoria gráfica.

Por contra, unas texturas de menor calidad presentarán una menor nitidez y un nivel detalle más pobre, y pueden llegar a producir un acabado borroso y deslucido. Esas presentan, sin embargo, una ventaja, y es que pesan mucho menos y ocupan una menor cantidad de memoria gráfica. Por ejemplo, en Resident Evil 4 Remake el ajuste de texturas en calidad máxima ocupa 8 GB de memoria gráfica, mientras que el ajuste en calidad media sólo ocupará 0,5 GB de memoria gráfica.

Otro ajuste que suele consumir bastante memoria gráfica es la calidad de las sombras, y al activar el trazado de rayos también se producirá un consumo elevado de memoria gráfica. Subir la resolución tiene el mismo efecto, porque al final estamos utilizando más píxeles. Por fortuna, podemos reducir los niveles de calidad en texturas y sombras para mantener el consumo de memoria gráfica en niveles acordes al máximo de nuestro equipo, y  sin tener que hacer grandes sacrificios a nivel de calidad, ya que la diferencia entre los ajustes de calidad máxima en texturas y sombras y los ajustes en calidad alta suelen ser muy pequeñas.

Solo un apunte importante, evitad a toda costa reducir la calidad de las texturas por debajo del nivel medio, ya que al caer a nivel bajo la pérdida de calidad gráfica y de nitidez es ya demasiado marcada, y no compensa en absoluto. Es mejor jugar con unas sombras muy pobres que con unas texturas emborronadas, porque como dije estas son la piel de toda la geometría del juego.

5.-Los 8 GB de memoria gráfica no están muertos

Cyberpunk 2077 funciona de maravilla con 8 GB de memoria gráfica.

Es algo que he leído incluso en medios profesionales, y francamente es un auténtico disparate porque estos mismos medios luego hablan maravillas de lo bien que están envejeciendo algunas tarjetas gráficas, como la Radeon RX 5700 XT, que curiosamente tiene 8 GB de memoria gráfica. Es cierto que contar con 8 GB de memoria gráfica ya no es una garantía total de que podremos jugar a cualquier cosa al máximo, pero es que esto ya era una realidad hace tiempo, es decir, no es algo nuevo.

Creo que la llegada de The Last of Us Part I a PC ha hecho demasiado daño, y que al final no todo el mundo sabe diferenciar entre problemas de optimización y necesidades reales. Que dicho juego pueda ocupar 14 GB de memoria gráfica no significa que realmente los necesite, de hecho hay juegos mucho más avanzados y complejos con un planteamiento de tipo mundo abierto que consumen muchos menos recursos que este título, como Red Dead Redemption 2 o Cyberpunk 2077, y funcionan sin ningún tipo de problemas con tarjetas gráficas que tienen 8 GB de memoria gráfica.

También hay que tener claro otro detalle importante, y es que tanto PS5 como Xbox Series X tienen 16 GB de memoria unificada, de los cuales quedan libres alrededor de 12,5 GB, que se deben utilizar para almacenar diferentes elementos que, en un PC, se repartirían entre la RAM y la memoria gráfica. Un PC para gaming actual suele contar, como mínimo, con 16 GB de RAM y 8 GB de VRAM.

No hay una separación rígida en consolas, al final cada desarrollador puede repartir esos 12,5 GB como estime conveniente, pero es evidente que una parte se utilizará para datos y elementos del juego que en un PC estarían almacenados en la RAM, y otra parte se utilizará como VRAM, no puede ser utilizado todo como memoria RAM. Un PC con 16 GB de RAM y 8 GB de memoria gráfica no debería tener ningún problema para mover títulos portados de PS5 o Xbox Series X, salvo que la optimización sea un enorme desastre, como ha ocurrido con The Last of Us Part I, pero esto no es un argumento que sirva para decir que los 8 GB están muertos.

Para arrojar algo más de luz en este sentido, porque sé que es un tema complicado que os puede llegar a complicar sobremanera la elección de vuestra próxima tarjeta gráfica, quiero compartir con vosotros un sencillo desglose con los niveles mínimos recomendados y óptimos de memoria gráfica que debemos cumplir a día de hoy para jugar a diferentes resoluciones con garantías. Tened en cuenta que hay algunos casos puntuales donde puede que tengamos que reducir ligeramente la calidad de las texturas, pero esto será la excepción a la regla general.

  • En 1080p el mínimo son 4 GB, pero lo ideal es contar con 6 GB. Hay casos donde necesitaremos 8 GB para jugar al máximo por el peso de las texturas.
  • En 1440p el mínimo son 6 GB, pero lo ideal es disponer de 8 GB. También hay casos donde puede que necesitemos 10 GB para jugar al máximo por el peso de las texturas.
  • En 2160p el mínimo son 8 GB, pero lo ideal es contar con 12 GB. Nos encontramos también con casos donde necesitaremos 16 GB para jugar al máximo por el peso de las texturas.

Descarga nuestra App

En MacroSistemas tenemos lo mejor en tecnología y computación. Variedad de marcas y productos con garantía y envío incluido. Contamos con Cámaras de Seguridad, Servidores, Notebook, Discos Duros, Impresoras, Desktop, Tablet, Audífonos, Escritorios Gamer y mucho más.

x ¡Hola! ¿Cómo podemos ayudarte? Haz click para escribirnos.