label_hover_video label_hover_read
category_text_interview

share.page_on

Innovacion 18.03.2026
SEGULA Technologies participa en IA Ética, un proyecto que protege la soberanía de datos

SEGULA Technologies participa en IA Ética, un proyecto que permite consultar grandes volúmenes de documentación de forma rápida y fiable.

SEGULA Technologies acaba de comenzar el proyecto IA Ética, también denominado Investigación Industrial en Inteligencia Artificial Ética, Explicable y Robusta para Sectores Estratégicos. El objetivo es aplicar la IA para conseguir sistemas precisos, transparentes y cuyos datos sensibles permanezcan siempre bajo el control de las empresas.

 

La iniciativa se centra en resolver un problema muy habitual en entornos industriales: cómo gestionar miles de documentos técnicos, normativas y manuales y poder consultar esa información de forma rápida y fiable.

 

“Se basa en poder utilizar inteligencia artificial para poder navegar documentación de gran volumen”, explica Jorge Martínez Santiago, Manager de IA & Industry 4.0 de SEGULA en Vitoria-Gasteiz. “El proyecto se enfoca en poder gestionar toda esa documentación, entenderla y sacar información, para un posterior answering, un sistema de preguntas y respuestas”.

Evitar errores y respuestas inventadas

Uno de los principales riesgos de los modelos generativos actuales es que, cuando no conocen la respuesta, pueden inventarla. “Estos sistemas se llaman generativos porque crean desde cero. Pero al mismo tiempo, a veces, cuando no saben la respuesta de algo, se la inventan. A eso le llamamos alucinación”, señala Martínez. “Los LLM (Large Language Model) son muy buenos contestando, pero incluso pueden llegar a generar direcciones de páginas web que no existen”.

 

Por eso, el sistema que se está desarrollando no solo debe responder, sino también demostrar de dónde obtiene la información. “No solamente me tiene que decir la información, sino las fuentes, su trazabilidad y razonamiento”.

Más seguridad

Otro aspecto clave del proyecto es la seguridad. Muchas soluciones de inteligencia artificial actuales funcionan en la nube, lo que implica que los datos viajan constantemente a servidores externos y que los modelos se actualizan y modifican de forma continua. Esto reduce el control de las organizaciones sobre su propia información.

“Por lo general, cuando utilizas una IA, tu información está a la vista de terceros y los modelos están siendo modificados en movimiento. El sistema es inestable”, explica Martínez. “Aquí buscamos lo que llamamos soberanía de datos y soberanía de IA: que todo se quede dentro de la empresa y tener el control total”.

En concreto, la soberanía de datos busca evitar que la información viaje del punto A al punto B fuera de la organización. La empresa mantiene la custodia absoluta: es, por así decirlo, “la dueña del dato”. Por otro lado, hablamos de soberanía de IA, lo que significa tener también el dominio total sobre los modelos: cómo se entrenan, cómo se ajustan y cómo evolucionan, sin depender de proveedores externos.

Para lograrlo, los modelos se ejecutarán en local, dentro de la propia infraestructura de la empresa, sin recurrir a servicios en la nube. Todo el procesamiento se realizará internamente, lo que refuerza la privacidad, la estabilidad y el cumplimiento normativo.

Además, en lugar de utilizar los conocidos grandes modelos de lenguaje (LLM), el proyecto apuesta por versiones más compactas, los Small Language Models (SML). Estos modelos, aunque más pequeños, permiten realizar las mismas operaciones manteniendo el control de los datos dentro de la organización.

El reto: miles de documentos

El desafío técnico, sin embargo, es considerable. El sistema debe ser capaz de analizar decenas de miles de documentos y encontrar, entre todos ellos, la respuesta más relevante.

Los modelos de lenguaje tienen una memoria limitada, lo que dificulta manejar grandes volúmenes de información a la vez. El reto no es solo revisar los primeros miles de archivos, sino examinar todo el conjunto y determinar cuál es el que mejor responde a la consulta del usuario. Es una cuestión de precisión y exhaustividad.

A esto se suma la complejidad del uso de SML. Al ser modelos más pequeños, requieren un mayor trabajo de ajuste y optimización. “Tienen mucha potencia, pero pierdes algo de calidad frente a los modelos más grandes. Sacarles el máximo rendimiento exige una mayor complejidad técnica”, señala.

El proyecto comenzó en enero y se extenderá hasta diciembre de 2028, con el objetivo de ofrecer a la industria herramientas de inteligencia artificial más fiables, seguras y adaptadas a entornos donde la precisión y el control de los datos son críticos.

logo
Mobile PARA MEJORAR LA NAVEGACIÒN

INVIERTA SU TABLETA