Analizando las tendencias tecnológicas de Gartner para este 2025
Un año más, el Grupo Gartner ha publicado su lista de las diez principales tendencias tecnológicas para este año 2025, así que veamos cuales son las tecnologías que consideran que definirán este año.
Como siempre, previo registro os podéis descargar el documento oficial de Gartner sobre las tendencias tecnológicas en este enlace.
Dicho esto, pasemos a analizar las novedades.
Visión general
Las tendencias se organizan en tres grandes grupos:
- Imperativos y riesgos de la inteligencia artificial.
- Nuevas fronteras de la computación.
- Sinergia humano-máquina.

Analizando las temáticas
A continuación vamos a analizar cada una de estas temáticas y sus tendencias tecnológicas.
1.- Inteligencia artificial agéntica
Con este peculiar nombre nos encontramos a aquellos asistentes diseñados para la toma de decisiones, con capacidad de actuar de manera independiente con la finalidad de obtener los objetivos que se hayan especificado.
Estos asistentes, o programas, hacen uso de distintas técnicas de inteligencia artificial, contando con capacidades de memorización, planificación, detección del entorno en el que actúan, uso de herramientas de apoyo y seguimiento de directrices de seguridad para conseguir alcanzar los objetivos por ellos mismos.

Los agentes inteligentes en inteligencia artificial están en sus primeras etapas, pero su evolución es rápida. Comprender esta tecnología y gestionar sus riesgos es clave para preparar el ecosistema digital.
La inteligencia artificial agéntica impulsará la productividad
La inteligencia artificial agéntica permitirá automatizar más tareas y flujos de trabajo. Los desarrolladores de software serán de los primeros en beneficiarse, a medida que los asistentes de codificación basados en inteligencia artificial se vuelvan más sofisticados.
Además, los agentes inteligentes facilitarán la gestión de proyectos técnicos complejos mediante lenguaje natural. También transformarán la toma de decisiones en las organizaciones al analizar datos y predecir acciones de manera autónoma, incluso mientras duermes.
De la asistencia a la autonomía total
La inteligencia artificial agéntica presenta dos extremos:
- En uno están los sistemas tradicionales con tareas definidas.
- En el otro, agentes completamente autónomos capaces de aprender, decidir y actuar sin intervención humana.
Aunque aún existe una brecha entre los asistentes actuales y la inteligencia artificial verdaderamente autónoma, esta se cerrará a medida que se desarrollen mejores herramientas de construcción, gobierno y confianza en estas soluciones.
2.- Plataformas de gobernanza de inteligencia artificial
Este tipo de plataformas van a facilitar la gestión y control de los sistemas de inteligencia artificial, pudiendo asegurar que su uso sea ético y responsable.
Así, van a permitir a los encargados y responsables verificar que la inteligencia artificial es fiable, actúa de manera transparente, es justa y responsable, y que cumple con las normas éticas y de seguridad implantadas. Todo esto va a permitir que la inteligencia artificial se encuentre en línea con los valores de la organización así como cumplir las expectativas que se tienen de ella desde la sociedad.

A medida que la inteligencia artificial se vuelve más común, los riesgos éticos aumentan debido a la falta de alineación con los valores humanos, sesgos, falta de transparencia y preocupaciones sobre privacidad. Para abordar estos desafíos, las plataformas de gobernanza se han convertido en una solución clave.
Por qué la gobernanza de inteligencia artificial es crucial
Las organizaciones enfrentan una creciente presión para regular y supervisar la inteligencia artificial debido a:
- Regulaciones globales más estrictas sobre inteligencia artificial y privacidad de datos.
- Mayor preocupación pública sobre los riesgos de la inteligencia artificial.
- El potencial dañino de sistemas avanzados capaces de generar contenido engañoso.
Las grandes empresas tecnológicas ya están implementando principios de inteligencia artificial responsable, respaldadas por inversiones multimillonarias para impulsar el desarrollo ético de la inteligencia artificial. Además, cada vez más organizaciones están nombrando ejecutivos dedicados a supervisar estos sistemas.
Cómo las plataformas de gobernanza fortalecen la ética
Estas plataformas ayudan a automatizar el cumplimiento de la ética en la inteligencia artificial mediante:
- Métodos integrados de inteligencia artificial responsable: con una mayor transparencia para fomentar la confianza y la toma de decisiones informada.
- Evaluaciones de riesgo: con la identificación de sesgos, violaciones de privacidad e impactos negativos.
- Gestión del ciclo de vida del modelo: que implica un control y mantenimiento de modelos éticos a gran escala.
- Auditoría y monitoreo continuo: asegurando que los sistemas se mantengan alineados con estándares éticos.
- Cumplimiento normativo: con el seguimiento de regulaciones como GDPR y CCPA para garantizar la conformidad.
- Responsabilidad y supervisión: permitiendo a diversas partes interesadas diseñar y probar la inteligencia artificial de manera ética.
3.- Seguridad contra la desinformación
Si controlar la información es vital, la seguridad contra la desinformación está pensada para ayudar a identificar aquello que es confiable de lo que no.
La finalidad es la de crear sistemas que puedan garantizar que la información que se consume es correcta, verificando la autenticidad de la misma e impidiendo la suplantación de identidades que den lugar a la desinformación. Además, busca supervisar la difusión de contenidos que puedan ser perjudiciales.

Las organizaciones ya están sufriendo los efectos de campañas de desinformación y adoptando tecnologías para combatirlas. La demanda es tan alta que, para 2028, se estima que el 50% de las empresas implementará soluciones específicas para la seguridad contra la desinformación, en comparación con menos del 5% en 2024.
Cómo y por qué ocurre la desinformación
Los actores malintencionados tienen distintos objetivos, entre los que destacan:
- Polarizar audiencias: con información manipulada.
- Robar datos de clientes: mediante técnicas de phishing.
- Interrumpir operaciones empresariales: con ataques coordinados.
Métodos comunes de desinformación
Pero, ¿cómo intentan conseguirlo? Los métodos más comunes son:
- Uso de deepfakes para suplantar identidades.
- Difusión de fake news en redes sociales y sitios falsos suplantados.
- Generación masiva de desinformación con inteligencia artificial generativa.
- Phishing altamente convincente, para engañar a empleados y clientes.
- Explotación de vulnerabilidades en herramientas colaborativas y centros de llamadas.
- Malware y robo de credenciales para tomar el control de cuentas.
Para combatir estas amenazas, las organizaciones deben adoptar estrategias holísticas que reduzcan riesgos y aumenten la transparencia.
El futuro de la seguridad contra la desinformación
Las amenazas evolucionan rápidamente, y las empresas deben anticiparse con estrategias proactivas. Adoptar soluciones de seguridad contra la desinformación no solo protege a la organización, sino que refuerza la confianza del público y garantiza operaciones seguras en un entorno digital cada vez más complejo.
4.- Criptografía poscuántica
Aunque suene un poco futurista, la criptografía poscuántica (PQC) hace referencia a los métodos criptográficos que han sido diseñados para protegerse ante las posibles amenazadas que plantean los ordenadores cuánticos, que existir existen ya.

Los gobiernos ya están estableciendo marcos legales para que las organizaciones adopten estrategias de criptografía poscuántica, por lo que se recomienda no esperar a que sea obligatorio sino comenzar a desarrollar la propia ya mismo.
Desafíos en la adopción de la criptografía poscuántica
La transición a la criptografía resistente a la computación cuántica presenta varios obstáculos:
- Falta de reemplazos directos: pues no existen alternativas inmediatas a los algoritmos actuales, lo que implica un proceso de descubrimiento, categorización y reimplementación.
- Diferencias de rendimiento: ya que los nuevos algoritmos requieren claves y cifrados más grandes, lo que puede ralentizar el rendimiento y exigir la reescritura de aplicaciones.
- Desconocimiento organizacional: muchas empresas no tienen visibilidad sobre sus algoritmos criptográficos, ni sobre la gestión de claves y secretos.
- Proveedores no preparados: la mayoría aún no ha desarrollado planes de actualización.
Cómo facilitar la transición
Para superar estos desafíos, se precisa adoptar un enfoque estructurado basado en políticas y buenas prácticas, tales como:
- Establecer políticas claras: definiendo reglas para la sustitución de algoritmos, retención de datos y actualización de sistemas criptográficos. Esto evitará decisiones arbitrarias y facilitará la gestión.
- Crear una base de datos de metadatos criptográficos: documentando los algoritmos en uso para evaluar el impacto de la migración, mitigar riesgos y actualizar planes de respuesta ante incidentes.
- Consultar con proveedores: Pregunta a tus socios tecnológicos sobre sus planes de adopción de criptografía poscuántica y cómo afectarán las actualizaciones a los sistemas.
- Adoptar un enfoque de desarrollo ágil en criptografía: mediante la prueba y validación de los nuevos algoritmos poscuánticos, comprendiendo sus implicaciones en rendimiento y seguridad. Si es necesario, actualizar o reemplazar el hardware para soportar estos cambios.
5.- Inteligencia ambiental invisible
con este nombre nos encontramos con el uso generalizado de etiquetas y sensores, pequeños y baratos, para poder rastrear la localización y estado de los diferentes elementos y entornos.
Toda esta información es enviada a plataformas en la nube (como Onesait Platform) para su almacenamiento, análisis y consumo posterior. Este tipo de tecnologías podrán ser integradas en objetos cotidianos de manera transparente para el usuario.

Por tanto, las empresas se enfrentan a riesgos significativos si no saben dónde están sus productos o cómo se almacenan. La tecnología invisible está cambiando esto al proporcionar información sobre partes ocultas de la cadena de valor.
La tecnología invisible impulsa la inteligencia ambiental
Los avances en redes y electrónica han hecho posible monitorear entornos antes inaccesibles. Tres tecnologías clave impulsan esta transformación:
- Redes inalámbricas de muy bajo consumo: con Bluetooth como el estándar dominante, pero también el Wi-Fi, 5G y tecnologías emergentes como el backscatter wireless también podrían jugar un papel en el futuro.
- Recolección de energía: dispositivos que aprovechan fuentes de energía ambiental para permitir etiquetas sin batería con una vida útil prácticamente infinita.
- Electrónica de bajo costo y consumo: chips ultraligeros que pueden operar con energía recolectada, ejecutar sensores y enviar mensajes básicos.
Aunque estas tecnologías actualmente solo pueden transmitir información mínima, en el futuro se esperan dispositivos más sofisticados que podrán ejecutar algoritmos simples y comunicarse entre sí.
El futuro de la inteligencia ambiental
A medida que estas tecnologías evolucionen, pasarán de solo rastrear productos a tomar decisiones automatizadas dentro de las cadenas de suministro. Con la infraestructura adecuada, la inteligencia ambiental se convertirá en un pilar clave para la eficiencia operativa y la optimización logística.
6.- Computación energéticamente eficiente
Hablando del consumo energético, la computación energéticamente eficiente se refiere al diseño y funcionamiento de ordenadores, centros de datos (CPDs) y otros sistemas digitales con el fin de disminuir al máximo el consumo energético y, por tanto, de la producción de su huella de carbono.

Los líderes de las tecnologías de la información pueden tratar de reducir la huella de carbono de sus operaciones adoptando fuentes de energía más ecológicas, hardware moderno y mejores prácticas de programación. Sin embargo, estos esfuerzos aislados no son suficientes para lograr un impacto significativo.
Para maximizar la eficiencia energética, se recomienda adoptar cuatro estrategias progresivas:
1.- Optimización del uso de hardware y software
- Ajustar el uso del hardware existente para mejorar su eficiencia.
- Optimizar algoritmos y estructuras de datos para reducir el consumo energético.
- Usar fuentes de energía más sostenibles en centros de datos y servidores.
2.- Sustitución de hardware ineficiente
Reemplazar equipos antiguos por hardware más eficiente solo cuando el ahorro de carbono generado compense el costo ambiental de su fabricación.
3.- Re-arquitectura de aplicaciones
Modificar el código y las plataformas de software para mejorar la eficiencia. Se propone el uso de GPUs o FPGAs en lugar de procesadores de propósito general para tareas intensivas en cómputo.
4.- Revolución en la infraestructura de TI
Se propone adoptar nuevas arquitecturas computacionales emergentes, tales como:
- Sistemas neuromórficos, inspirados en el cerebro humano.
- Computación óptica, cuando madure lo suficiente para su implementación.
El futuro de la sostenibilidad en TI
Adoptar estas estrategias permitirá a las organizaciones reducir costos, mejorar la eficiencia y avanzar hacia una infraestructura más sostenible. La computación verde no solo es una ventaja competitiva, sino un paso esencial para mitigar el impacto ambiental del sector tecnológico.
7.- Computación híbrida
La computación híbrida está al orden del día, combinando diversas tecnologías y hardware, como CPU, GPU, dispositivos de borde, ASIC, sistemas neuromórficos, cuánticos, fotónicos, etc. Todo, con la finalidad de resolver problemas computacionales complejos.

Se propone el uso de una capa de orquestación que divida los flujos de trabajo en distintas tecnologías de cómputo y unifique los datos en una arquitectura universal que permita alcanzar niveles extremos de eficiencia. Esto habilita aplicaciones en simulaciones científicas, análisis de datos, machine learning e inteligencia artificial.
Optimización del entorno de computación
La orquestación de múltiples tecnologías de cómputo resuelve problemas que hoy son difíciles de manejar, tales como:
- Alta complejidad: los nuevos modelos podrán resolver problemas de optimización multidimensional con mayor escalabilidad, reduciendo el uso de memoria y energía.
- Interoperabilidad: el futuro de la computación requiere múltiples mecanismos interconectados. Una capa de orquestación facilitará la integración entre humanos y agentes de inteligencia artificial, así como la comunicación entre diferentes sistemas autónomos.
- Nuevos casos de uso: la convergencia de computación clásica, cuántica, neuromórfica y fotónica revolucionará sectores como manufactura, logística, servicios financieros, ciencias de la vida, descubrimiento de materiales y desarrollo de fármacos.
Adoptar los habilitadores culturales de la computación moderna
La evolución tecnológica no implica reemplazar la computación clásica, sino crear un ecosistema donde los modelos tradicionales coexistan con nuevas arquitecturas.
Las organizaciones que adopten esta visión podrán optimizar sus recursos, aumentar la eficiencia y desarrollar capacidades innovadoras para abordar problemas complejos en un mundo cada vez más interconectado.
8.- Computación espacial
Con este tipo de computación, se enriquece el mundo físico, anclando el contenido digital del mismo y permitiendo que los usuarios puedan interactuar de manera inmersiva, disfrutando de una experiencia realista e intuitiva.

La computación espacial integra múltiples tecnologías para crear experiencias digitales inmersivas en el mundo real, desbloqueando casos de uso tanto comerciales como para consumidores.
Cómo funciona
La tecnología mapea espacios físicos (interiores y exteriores), junto con los objetos y personas dentro de ellos. Luego, ancla contenido digital en el mundo real, permitiendo interacciones fluidas y realistas.
Tecnologías clave que la hacen posible
- Realidad aumentada: que superpone elementos virtuales sobre el mundo real, alineando objetos digitales con físicos para experiencias interactivas.
- Realidad mixta: que fusiona lo real y lo virtual, permitiendo que los objetos gráficos y físicos interactúen de manera natural.
- Metaverso: conectando espacios digitales donde los usuarios pueden socializar y crear, sincronizando sus movimientos y acciones en entornos virtuales.
Además, la computación espacial se apoya en tecnologías incrustadas como:
- Seguimiento ocular: para monitorear la mirada del usuario.
- Reconocimiento de voz: para comandos hablados.
- Sensores de movimiento y controladores hápticos: para manipular objetos virtuales.
- Conexiones 5G y 6G: para garantizar interacciones en tiempo real con velocidad y ancho de banda adecuados.
El futuro de la computación espacial
A medida que estas tecnologías evolucionan, la computación espacial revolucionará sectores como el entretenimiento, la educación, el comercio y la industria, permitiendo experiencias digitales sin precedentes en el mundo físico.
9.- Robots polifuncionales
El uso de robots multifunción para la realización de múltiples tareas, siguiendo instrucciones o ejemplos proporcionados por los humanos. Dichos robots serán flexibles tanto en su diseño como en su funcionamiento.

Actualmente, las empresas industriales cuentan con casi cuatro millones de robots de una sola función para abordar la escasez de mano de obra, reducir costos y aumentar la eficiencia. Sin embargo, la evolución hacia robots polifuncionales promete un mayor retorno de inversión (ROI) y un uso más eficiente de estas máquinas.
Beneficios de los robots polifuncionales
- Fuerza laboral más flexible: estos robots pueden realizar diversas tareas, lo que permite a las empresas adaptarse mejor a sus necesidades operativas.
- Mayor utilidad de los robots: al ejecutar múltiples funciones, los robots polifuncionales se utilizan con mayor frecuencia y en tareas de mayor valor estratégico.
- Mejor colaboración humano-máquina: a diferencia de los robots de función única, que suelen operar en espacios delimitados, los robots polifuncionales están diseñados para trabajar en entornos humanos, interactuando con herramientas y espacios diseñados para personas.
El futuro de la robótica industrial
A medida que estos robots se integren en fábricas y entornos de trabajo, su capacidad para navegar espacios humanos y realizar tareas más complejas impulsará la innovación en diseño, formas y tamaños, transformando la manufactura y la automatización industrial.
10.- Mejora neurológica
Aunque suene a ciencia ficción, esto se refiere a aumentar las capacidades cognitivas de las personas mediante tecnologías que leen y descodifican la actividad cerebral y, opcionalmente, escriben al cerebro.

Las neurotecnologías están evolucionando rápidamente, permitiendo a las organizaciones monitorear y mejorar el rendimiento de los empleados y la interacción con los clientes.
Interfaces cerebro-máquina
Las BBMI (Brain-Based Machine Interfaces) están en el centro de esta transformación. Estas interfaces neuronales permiten la comunicación bidireccional entre el cerebro humano y una máquina a través de electroestimulación, posibilitando:
- Mejorar habilidades cognitivas: como procesamiento de información, memoria y aprendizaje.
- Extraer datos cerebrales: sobre pensamientos y emociones para personalizar experiencias.
Desde dispositivos portátiles hasta implantes cerebrales
Las aplicaciones de esta tecnología varían en función de su nivel de invasividad:
- Dispositivos portátiles (diademas, pulseras): de baja invasividad, menor funcionalidad, pero gran potencial de adopción masiva.
- Implantes neuronales: implican una alta invasividad, pero con mayor capacidad de mejora cognitiva.
El futuro del mejoramiento neurológico
A medida que esta tecnología avanza, su adopción traerá desafíos éticos y regulatorios, pero también nuevas oportunidades para potenciar el rendimiento humano, revolucionando la productividad y la interacción con la tecnología.
Más información: Gartner Press Release
Imagen de cabecera: Gartner