ALICANTE. En un entorno económico en constante evolución, la tecnología se ha convertido en un elemento clave para la competitividad empresarial. Con esa premisa, Integra Tecnología ha celebrado en Alicante el evento 'Piensa en grande con la nube de AWS', una sesión práctica dirigida a mostrar cómo el ecosistema cloud de Amazon Web Services (AWS) y la inteligencia artificial aplicada están transformando la operativa y la toma de decisiones en las organizaciones.
El encuentro se se ha dado en el Centro de Negocio de Empresas Ibercaja, en la capital alicantina. La agenda ha incluido intervenciones de Pablo García, director del área de Sistemas en Integra; Jorge Sanz, director de IA y Data Services; y Javier Arbiol, Cloud Alliance Business Development Manager de la compañía.
El contexto tecnológico
La jornada comenzaba con una bienvenida y una introducción al área de Sistemas, a cargo de Pablo García, quien ha presentado los principales servicios que Integra ofrece en ciberseguridad, cloud, infraestructuras y licencias, junto con el papel del Centro de Atención a Usuarios como soporte técnico para empresas que están en procesos de transformación digital. Después, Javier Arbiol presentaba la sesión 'Descubre el valor de AWS con Integra', donde ha expuesto cómo el ecosistema de Amazon Web Services permite una propuesta de valor definida y escalable para cada proyecto, con la importancia de integrar soluciones cloud que permitan optimizar recursos sin perder control sobre los datos ni los costes operativos.
El poder de la IA en AWS Cloud
La intervención central del evento estuvo a cargo de Jorge Sanz, bajo el título 'El poder de la IA en AWS Cloud + demo'. Durante casi una hora, Sanz explicaba cómo la inteligencia artificial generativa, integrada en plataformas cloud, transforma la gestión de datos y la toma de decisiones empresariales.
El ponente introdujo el concepto de inteligencia artificial estadística, explicando que los modelos generativos "no tienen una base de datos con respuestas", sino que generan respuestas probabilísticas. Ha diferenciado los modelos deterministas del machine learning tradicional, en los que una misma pregunta produce siempre la misma respuesta, de los modelos fundacionales o LLM (Large Language Models), capaces de generar resultados distintos a partir de una misma consulta debido a su naturaleza estadística.
Sanz asegura que estos modelos se entrenan para "predecir la siguiente mejor palabra" y que no solo entienden lenguaje escrito, sino también código, música o imagen, lo que amplía sus aplicaciones. "Generar una imagen es un lenguaje, escribir líneas de código es un lenguaje", ha apuntado.
Durante la demostración práctica, detalló cómo AWS facilita la implementación de proyectos de IA generativa mediante servicios como Amazon Bedrock y SageMaker, que permiten utilizar modelos fundacionales de manera flexible, segura y sin necesidad de gestionar infraestructuras propias. Ha puesto el foco la importancia de la personalización segura, indicando que los datos utilizados en los modelos dentro de AWS "no se emplean para entrenar modelos de terceros ni son visibles fuera de la suscripción del cliente".
El director de IA y Data Services presentó también el concepto de arquitectura RAG (Retrieval-Augmented Generation), un sistema que combina bases de datos vectoriales con modelos de lenguaje para mejorar la precisión de las respuestas. A través de esta técnica, explicaba que "las empresas pueden crear bases de conocimiento internas que permiten a los modelos responder con información procedente de documentos propios, garantizando así trazabilidad y control". Además, Sanz ha mostrado ejemplos prácticos en los que un modelo alojado en AWS era capaz de analizar documentos, generar resúmenes y responder preguntas basadas en información corporativa, optimizando costes y recursos. "Estos buscadores semánticos permiten a las compañías saber en qué documentos se basa cada respuesta", ha afirmado, destacando la ventaja de transparencia frente a los modelos tradicionales.
De la IA a la optimización de costes
A continuación, Javier Arbiol retomaba la palabra para abordar dos bloques complementarios: AWS Marketplace y Control de costes en AWS. En su intervención ha expuesto que Marketplace funciona como "un e-commerce embebido en el ecosistema de AWS", donde las empresas pueden acceder a soluciones de software de terceros -como Fortinet, Checkpoint, Sophos o Veeam- desde una única consola de gestión. El responsable de desarrollo cloud destacaba que este sistema permite centralizar la contratación de servicios tecnológicos, reducir costes y mejorar la agilidad operativa. A través de Marketplace, explica, los clientes pueden gestionar de forma unificada tanto la adquisición como la facturación de servicios cloud, evitando múltiples consolas y contratos.
En la parte dedicada al control de costes, Arbiol aborda los programas de optimización y financiación disponibles para clientes de AWS, manteniendo que "se trata de un modelo de pago por uso que requiere planificación para ajustar recursos y evitar sobrecostes". En este punto, se mencionaron las herramientas FinOps como método para alinear gasto tecnológico y consumo real.
La jornada ha concluido con un espacio de aperitivo y networking para intercambiar experiencias y debatir sobre la integración de la inteligencia artificial y la nube en los entornos empresariales. El evento se enmarca en la línea de contenidos y análisis que Integra desarrolla en publicaciones como 'Tendencias IT que definirán el futuro', donde se abordan temas como la IA aplicada a procesos de negocio, la infraestructura híbrida, la seguridad adaptativa, la observabilidad y FinOps, el gobierno del dato y la sostenibilidad tecnológica.