Predicción de variaciones de precios de productos básicos en República Dominicana mediante series temporales

Ramón Del Villar & Gilbert García – Ingeniería en Ciencias de la Computación, Pontificia Universidad Católica Madre y Maestra (PUCMM)

Introducción

En la República Dominicana se han observado fluctuaciones significativas en los precios de productos básicos de la canasta familiar. Estos vaivenes de precios generan preocupación en consumidores y autoridades, ya que afectan el poder adquisitivo de los hogares y crean incertidumbre en productores y comerciantes. Diversos factores contribuyen a estas variaciones: la estacionalidad (por ejemplo, ciertas cosechas agrícolas encarecen fuera de temporada), factores macroeconómicos como la inflación general y los cambios en la tasa de cambio del dólar, además de dinámicas de mercado (oferta, demanda e incluso especulación). En conjunto, estos elementos dificultan predecir los precios futuros de alimentos esenciales, complicando la planificación financiera de las familias y la toma de decisiones de las autoridades regulatorias.

Frente a esta problemática, surge la necesidad de una solución proactiva que permita anticipar las variaciones de precios de productos básicos de forma eficiente. Actualmente, las instituciones locales (por ejemplo, Pro Consumidor y el Ministerio de Industria y Comercio) monitorean y publican precios de alimentos en tiempo real mediante plataformas digitales; sin embargo, dichas iniciativas se enfocan en la transparencia del precio actual más que en la predicción de su comportamiento futuro. Es decir, los consumidores pueden consultar en línea los precios vigentes de una gran variedad de productos (a través de herramientas como el Sistema Dominicano de Información de Precios, SIDIP), lo que mejora la información disponible, pero no se cuenta con alertas ni pronósticos sobre cómo podrían evolucionar esos precios en las próximas semanas. Este proyecto de investigación se enfoca precisamente en cubrir ese vacío, desarrollando un modelo predictivo de precios empleando análisis de series temporales para reducir la incertidumbre y fomentar una mayor anticipación en el mercado de alimentos básicos.

El trabajo ha sido realizado como proyecto de grado por estudiantes de Ingeniería en Ciencias de la Computación de la PUCMM. El objetivo general es claro y de alto impacto social: crear un sistema capaz de pronosticar los precios futuros de productos esenciales de la canasta básica dominicana a partir de datos históricos, de manera que distintos actores puedan tomar decisiones informadas. En términos sencillos, se busca dotar a los consumidores de una herramienta que les indique si un producto tenderá a subir de precio (para adelantarse en la compra) o bajar (para planificar sus gastos), al mismo tiempo que las autoridades podrían detectar con anticipación alzas anómalas y los comerciantes ajustar sus inventarios con menor riesgo. A continuación, se presentan los detalles del problema abordado, la metodología seguida y los resultados obtenidos en el desarrollo de este sistema predictivo.

Problemática y Estado del Arte

La volatilidad en los precios de alimentos básicos –como el arroz, las habichuelas, los huevos o el pollo– es un desafío persistente en la economía dominicana. Los consumidores de ingresos medios y bajos son especialmente vulnerables a cambios abruptos de precios, ya que dificultan la organización de presupuestos familiares y pueden traducirse en menor acceso a productos de primera necesidad. Por ejemplo, incrementos repentinos en el precio del arroz o las habichuelas impactan de inmediato la canasta básica, obligando a las familias a reasignar gastos o incluso a prescindir de ciertos alimentos. A nivel de mercado, los comerciantes y pequeños productores también enfrentan incertidumbre: la falta de previsibilidad en los precios complica decisiones sobre cuánto stock comprar o producir, y puede ocasionar pérdidas si los precios caen inesperadamente luego de haber almacenado producto costoso. Estudios a nivel internacional han confirmado que este tipo de volatilidad de precios de alimentos puede amenazar la seguridad alimentaria y la estabilidad económica en países en desarrollo. En particular, se han observado patrones de alta volatilidad asociada a factores externos (clima, mercados globales) y periodos inflacionarios, los cuales afectan negativamente tanto a consumidores como a productores [1]. Resolver esta problemática permitiría aliviar la carga económica en los hogares y mejorar la eficiencia en la regulación del mercado interno.

En respuesta a la volatilidad de precios, diversos países de Latinoamérica han implementado iniciativas orientadas a la transparencia del mercado. Por ejemplo, en México la Procuraduría Federal del Consumidor lanzó la plataforma “Quién es Quién en los Precios” para informar diariamente el costo de la canasta básica en distintos establecimientos, mientras que en Chile existen observatorios de precios en línea para monitorear productos de primera necesidad. En República Dominicana, Pro Consumidor puso en marcha el SIDIP, un sistema en línea que permite comparar precios en tiempo real de una amplia variedad de alimentos en supermercados y mercados del país. Estas plataformas gubernamentales brindan a los ciudadanos información actualizada y fomentan la competencia, al permitir identificar dónde comprar más barato. Sin embargo, la mayoría de estas soluciones no incorporan modelos de predicción para estimar valores futuros; se limitan a informar los precios actuales o históricos. Esto deja una brecha importante: la disponibilidad de datos abiertos ha mejorado la visibilidad del mercado, pero aún hace falta dar el salto hacia la analítica predictiva para convertir esos datos en alertas o proyecciones útiles a futuro. Es aquí donde nuestro proyecto se posiciona, al proponer una herramienta que no solo muestre el precio de hoy, sino que anticipe el de mañana.

En cuanto a enfoques técnicos para predecir precios, la literatura especializada ofrece varios caminos. Un método estadístico tradicional ampliamente utilizado es el ARIMA (AutoRegressive Integrated Moving Average), propuesto originalmente por Box y Jenkins en la década de 1970. Modelos ARIMA y sus variantes han sido aplicados con éxito en la predicción de precios agrícolas y alimenticios en diversos estudios clásicos, logrando capturar patrones estacionales y tendencias cíclicas presentes en las series temporales de precios. Por ejemplo, Jadhav et al. (2017) demostraron la utilidad del modelo ARIMA para pronosticar los precios de cultivos básicos (arroz, mijo, maíz) en mercados locales de la India [4]. Estos enfoques puramente estadísticos brindan una línea base sólida al capturar componentes históricos recurrentes en las series de tiempo, y resultan especialmente relevantes cuando la dinámica de precios es relativamente estable y lineal. De hecho, en contextos donde las variaciones de

precios siguen patrones regulares (por ejemplo, incrementos estacionales predecibles), modelos lineales como ARIMA o su extensión estacional SARIMA pueden alcanzar una precisión competitiva con métodos más complejos [7]. Es importante mencionar también que la evaluación de supuestos, como la estacionariedad de la serie, es crucial al emplear ARIMA; pruebas estadísticas como Dickey-Fuller se utilizan para verificar la presencia de raíces unitarias y garantizar la validez del modelo [9].

Paralelamente, los avances en aprendizaje automático y técnicas de inteligencia artificial han abierto nuevas posibilidades para la predicción de series temporales complejas. En años recientes han cobrado protagonismo las redes neuronales recurrentes, en particular las de tipo LSTM (Long Short-Term Memory). Las redes LSTM fueron introducidas por Hochreiter y Schmidhuber en 1997 como una arquitectura capaz de aprender dependencias de largo plazo en secuencias, superando el problema de desvanecimiento del gradiente presente en las redes recurrentes simples [8]. Aplicadas a series de precios, las LSTM pueden en teoría capturar relaciones no lineales y efectos retardados que los modelos estadísticos tradicionales no consiguen modelar fácilmente [6]. Investigaciones recientes indican que los modelos basados en LSTM logran un desempeño muy competitivo –e incluso superior– en escenarios de alta volatilidad o con datos muy ruidosos [5]. Por ejemplo, Yang et al. (2023) emplearon una LSTM para predecir el precio de la carne de cerdo durante periodos de alta incertidumbre (pandemia de COVID-19) y hallaron que este modelo superó a un ARIMA equivalente tanto en predicciones de corto como de largo plazo, reduciendo significativamente el error de pronóstico [5]. Este resultado concuerda con otros estudios en los que las LSTM han capturado dinámicas no lineales sutiles en precios agrícolas, adaptándose mejor a cambios bruscos que los modelos lineales [6], [11]. No obstante, la eficacia de las redes neuronales depende de contar con suficientes datos para entrenamiento y de ajustar correctamente sus hiperparámetros; en contextos con series muy cortas o con patrones predominantemente lineales, métodos clásicos pueden seguir siendo la opción más robusta [7].

Otra vertiente relevante en el estado del arte son los enfoques híbridos que combinan modelos estadísticos y de aprendizaje profundo. En la literatura se han explorado sistemas que buscan aprovechar lo mejor de ambos mundos: por ejemplo, usar un ARIMA para modelar la estructura lineal básica de la serie, y luego aplicar una red neuronal sobre los residuos para capturar patrones no lineales restantes. Pandit et al. (2023) evaluaron modelos híbridos ARIMAX (ARIMA con variables exógenas) combinados con distintas técnicas de inteligencia artificial para pronosticar índices de rendimiento de cultivos en India, encontrando que la inclusión de una variable exógena relevante junto con la capacidad de las redes neuronales para procesar patrones complejos mejoró significativamente la precisión de los pronósticos [10]. De forma similar, revisiones sistemáticas recientes resaltan que muchos trabajos reportan menores errores de predicción al integrar modelos clásicos con algoritmos de aprendizaje automático, en comparación con usar cada enfoque por separado [11], [12]. Esto sugiere que no hay una solución única y universal para la predicción de precios: las estrategias más efectivas podrían ser específicas para cada producto o mercado, combinando diferentes técnicas según la naturaleza de la serie (lineal, altamente volátil, influenciada por factores externos, etc.). Precisamente, el presente proyecto adopta un enfoque integrador, probando tanto modelos estadísticos (ARIMA/SARIMA) como de aprendizaje profundo (LSTM) e incluso un modelo

híbrido propio (denominado LSTMX) que incorpora variables externas, con el fin de identificar cuál es la mejor técnica de predicción para cada producto analizado.

Objetivos Completados

Este proyecto desarrolló un sistema de predicción de precios de la canasta básica dominicana, logrando anticipar variaciones semanales de productos clave con un alto grado de precisión. Para alcanzar este objetivo general, se cumplieron objetivos específicos bajo la metodología SMART: (1) Se recopiló y depuró un histórico amplio de precios y factores económicos relacionados, (2) se implementaron múltiples modelos de series temporales (ARIMA, SARIMA, SARIMAX, LSTM y una variante mejorada LSTMX) ajustándolos con criterio cuantitativo, (3) se evaluó comparativamente el desempeño de cada modelo mediante métricas de error (MAE) identificando la técnica óptima para cada producto, y (4) se desarrolló una API y una interfaz web (AhorraYa) que integran el modelo ganador, brindando pronósticos actualizados y útiles a usuarios finales.

Metodología:

Para abordar el problema de investigación se siguió una metodología estructurada en fases consecutivas, abarcando desde la obtención de datos brutos hasta la implementación de una aplicación funcional. A continuación, se describen las etapas principales del proyecto, destacando las técnicas empleadas en cada una y cómo se fueron integrando para materializar la solución propuesta.

Diagrama de bloques del proyecto.

Este diagrama de arquitectura general ilustra los módulos principales del sistema y su interacción: fuentes de datos, preprocesamiento, análisis/modelado, y componentes de despliegue (API e interfaz). Se observa cómo el Módulo de Adquisición de Datos reúne la información de precios desde distintas fuentes (portales oficiales como ProConsumidor/SIDIP y datos abiertos del gobierno, así como registros del Banco Central para variables económicas). Estos datos alimentan al Módulo de Preprocesamiento, donde se realizan tareas de limpieza, transformación de formatos y consolidación en un dataset unificado. Luego, el Módulo de Análisis y Modelado toma el conjunto de datos limpio para efectuar el análisis exploratorio y entrenar los diversos modelos predictivos. Finalmente, los resultados de los modelos se integran en un Módulo de Servicio de Predicción (API backend) y se presentan al usuario a través de un Módulo de Visualización (interfaz web) desarrollado en Streamlit. A continuación, se detallan cada una de estas fases metodológicas:

  1. Recolección de datos: Se recopiló un amplio histórico de datos de precios semanales de productos básicos, abarcando varios años para asegurar suficiente información temporal. Las fuentes principales fueron portales oficiales dominicanos que proveen datos abiertos sobre precios: el portal Precios Justos del Ministerio de Industria y Comercio, el conjunto de datos abiertos del gobierno (datos.gob.do, dataset “Precios Justos”), y el Sistema Dominicano de Información de Precios (SIDIP) de Pro Consumidor. Estos portales suministran precios actualizados de diversos alimentos en distintos tipos de establecimientos (supermercados, mercados minoristas, etc.), lo que permitió recopilar series de tiempo por producto y por tipo de mercado. Complementariamente, se incluyeron variables macroeconómicas externas (ej. la tasa de cambio del dólar, el Índice de Precios al Consumidor – IPC) obtenidas de fuentes confiables como el Banco Central y publicaciones económicas, dado que tales factores podrían influir en el costo de los alimentos. Para la extracción de datos se combinaron descargas directas de datasets abiertos con técnicas de web scraping (automatización de la recolección en sitios web), asegurando así la obtención de un histórico completo y confiable. Al finalizar esta etapa se contaba con un conjunto de datos bruto que incluía, para cada fecha semanal, los precios de cada producto en diferentes mercados, junto con valores sincrónicos de variables económicas relevantes.
  2. Limpieza y preparación de datos: Una vez reunidos, los datos pasaron por un riguroso proceso de preprocesamiento. Esta fase fue crucial, pues la calidad de las predicciones depende directamente de la calidad de los datos de entrenamiento. Se depuraron registros inconsistentes o erróneos, se identificaron y manejaron valores faltantes (imputándolos o eliminándolos según el caso), y se filtraron outliers (valores atípicos) que pudieran distorsionar los análisis. Por ejemplo, si en una semana determinada algún producto mostraba un precio extremadamente fuera de rango debido a un error de captura, dicho dato se inspeccionó y, de ser necesario, se corrigió o descartó. También se homogeneizaron las unidades y formatos: todos los precios fueron convertidos a una unidad estándar (p. ej., RD$ por libra o por unidad, según correspondiera) para hacer comparables las series. En paralelo, las variables externas (tipo de cambio del dólar, IPC, etc.) se alinearon temporalmente con las series de precios, de modo que pudieran integrarse apropiadamente en los modelos posteriores. El resultado de esta etapa fue un dataset estructurado y limpio, listo para el análisis exploratorio y el modelado. Para

asegurar la trazabilidad, se documentaron las transformaciones aplicadas a los datos (por ejemplo, listas de outliers removidos y reglas de imputación).

  1. Análisis Exploratorio de Datos (EDA): Con los datos ya preparados, se realizó un análisis exploratorio para entender el comportamiento histórico de los precios. Se generaron gráficas de series temporales para visualizar las tendencias generales de cada producto a lo largo del tiempo, identificando periodos de aumentos, descensos y estacionalidades marcadas. Por ejemplo, se pudo notar que el precio del arroz selecto presentaba leves incrementos a finales de cada año (posiblemente ligado a festividades), mientras que el pollo procesado tendía a encarecerse en períodos de alta demanda como las semanas previas a feriados. Adicionalmente, se calcularon estadísticas descriptivas (media, desviación estándar, rangos) para cuantificar la variabilidad de precios de cada producto, y se examinaron correlaciones entre la serie de precios y las variables macroeconómicas. Esto permitió responder preguntas como: ¿el alza del dólar precede aumentos en ciertos alimentos? o ¿algún producto muestra un patrón estacional semanal o mensual? En este punto, también se verificó la estacionariedad de las series –requisito importante para ciertos modelos estadísticos– aplicando pruebas como la de Dickey-Fuller. Por ejemplo, se identificó que varias series tenían tendencia (no estacionarias), por lo que sería necesario diferenciarlas al aplicar un ARIMA. El EDA proporcionó intuiciones clave y validó supuestos de modelado: confirmó la presencia de estacionalidad anual en algunos productos, evidenció tendencias a largo plazo en otros, y ayudó a decidir qué factores externos valía la pena incluir en los modelos (por ejemplo, si la tasa de cambio mostraba correlación significativa con el precio de las habichuelas, eso sugería usarla como variable exógena en un modelo SARIMAX/LSTMX).

Diagrama de flujo del proceso general.

Este diagrama esquematiza la secuencia de pasos desde la extracción de datos hasta la visualización de resultados. En la etapa de extracción, se combinan los datos de SIDIP vía web scraping, datos de ProConsumidor (en formato PDF procesados con OCR) y la obtención complementaria de información de Precios Justos. Luego, en la Integración y Limpieza del Dataset, se unifican esas fuentes heterogéneas y se preprocesan los datos (como se describió en los pasos 1 y 2). A continuación, en la fase de Análisis y Entrenamiento, se alimentan los datos limpios al conjunto de modelos que se entrenan (ARIMA, SARIMA, SARIMAX, LSTM y LSTMX), realizando también la selección y ajuste de hiperparámetros. Finalmente, los pronósticos resultantes se visualizan en la interfaz Streamlit junto con los datos históricos, completando el ciclo. Este flujo garantiza que, desde la recopilación hasta la presentación, la información pase por etapas bien definidas que agregan valor: de datos crudos dispersos se llega a predicciones accionables para el usuario final.

  1. Modelado predictivo: En la etapa de modelado se implementaron y probaron diversos algoritmos de series temporales para generar pronósticos de precios, aprovechando las lecciones aprendidas en el EDA. Específicamente, se consideraron cinco enfoques principales: ARIMA, SARIMA, SARIMAX, LSTM y LSTMX. El modelo ARIMA (AutoRegresivo Integrado de Media Móvil) se usó como punto de partida por su eficacia conocida en series estacionarias y su capacidad para modelar patrones autorregresivos e integrados de una serie. Posteriormente, SARIMA (ARIMA estacional) extendió ese modelo incorporando términos estacionales para ajustar periodicidades anuales o mensuales observadas (por ejemplo, permitiendo que el modelo “recuerde” picos cada 12 meses si los hubiera). Por su parte, SARIMAX añadió la posibilidad de incluir variables exógenas –en este caso, factores macroeconómicos como la mencionada tasa de cambio del dólar u otros índices económicos– con la expectativa de mejorar la predicción si dichos factores tienen influencia significativa en los precios. Esta inclusión de variables externas está respaldada por la literatura, que ha mostrado que combinar información exógena en modelos de series de tiempo puede mejorar notablemente el desempeño del pronóstico [10], [11], siempre y cuando exista una correlación o causalidad de Granger entre la variable externa y la serie objetivo. Finalmente, se entrenó un modelo de red neuronal LSTM, apropiado para secuencias temporales complejas, con el fin de capturar patrones no lineales y de largo plazo que los métodos estadísticos tradicionales podrían pasar por alto [6]. Sobre la base de la LSTM, se desarrolló una variante denominada LSTMX, que constituye una contribución novedosa del proyecto: este modelo incorpora las mismas variables exógenas que SARIMAX (por eso la “X”) pero dentro del marco de una red neuronal. En otras palabras, LSTMX es una red LSTM multivariada que recibe como entradas tanto la serie de precios histórica como las series de factores externos (ej. tipo de cambio), permitiéndole aprender relaciones más ricas. La hipótesis detrás de LSTMX es que, al igual que un ARIMAX aprovecha variables auxiliares, una LSTM también puede beneficiarse de ellas para ajustar mejor sus predicciones – algo que investigaciones recientes avalan al mostrar mejoras con enfoques híbridos y multivariados [10], [6].

Cada modelo se entrenó individualmente con los datos históricos de cada producto, reservando una porción de los datos para validación. Para configurar los modelos se siguieron buenas prácticas reconocidas: en ARIMA/SARIMA se identificaron los

órdenes óptimos (parámetros p, d, q y sus análogos estacionales) mediante análisis de autocorrelación (ACF/PACF) y minimización de criterios de información como AIC. En LSTM/LSTMX se experimentó con distintas arquitecturas (número de neuronas, número de capas ocultas) y funciones de activación adecuadas para series de tiempo, empleando técnicas de early stopping y regularización para evitar sobreajuste. La fase de modelado también incluyó la realización de búsqueda en grilla (Grid Search) para ciertos hiperparámetros, con el fin de garantizar que cada modelo estuviera lo mejor ajustado posible. Por ejemplo, se probó en ARIMA un rango de valores para (p,d,q) y se eligió la combinación con menor AIC en la data de entrenamiento, mientras que en LSTM se evaluaron diferentes batch sizes y tasas de aprendizaje, seleccionando aquellas configuraciones que produjeron menor error en la validación. Este enfoque sistemático de ajuste se alinea con recomendaciones de la literatura para obtener modelos robustos [12].

  1. Evaluación comparativa de modelos: Tras entrenar los modelos, se evaluó su desempeño utilizando métricas cuantitativas de error. La principal métrica empleada fue el Error Absoluto Medio (MAE), por ser fácil de interpretar en unidades monetarias (pesos dominicanos). También se calculó, a modo informativo, la Raíz del Error Cuadrático Medio (RMSE) y el Error Porcentual Absoluto Medio (MAPE) para tener referencias adicionales, aunque el criterio de selección de modelos se basó en el MAE. La evaluación se llevó a cabo en dos escenarios de prueba: primero, usando datos históricos hasta abril de 2025 para generar pronósticos y medir errores (dejando fuera mayo de 2025 como prueba), y luego repitiendo lo mismo extendiendo la historia hasta mayo de 2025 (dejando junio como horizonte de validación). De este modo, se simuló el desempeño del sistema en momentos temporales distintos, comprobando la consistencia de resultados. Para cada producto, se comparó el MAE obtenido por los distintos modelos (ARIMA, SARIMA, SARIMAX, LSTM, LSTMX) tanto en la prueba de abril como en la de mayo. Esta evaluación reveló, por ejemplo, que ciertos productos con comportamientos más lineales se ajustaban bien con modelos ARIMA/SARIMA, mientras que otros con variaciones más erráticas podían ser mejor capturados por la LSTM. En función de los MAE obtenidos en la prueba más reciente (mayo 2025), se seleccionó el modelo “ganador” para cada producto, es decir, aquel con menor error de predicción. De manera ilustrativa, la siguiente gráfica resume los resultados de MAE por modelo para cada producto, destacando cuál técnica resultó más precisa en cada caso.
  2. Construcción de la aplicación e implementación: Con los modelos optimizados y seleccionados, la fase final consistió en integrar las predicciones en una aplicación práctica para el usuario. Para ello se desarrolló una API backend utilizando FastAPI, que encapsula la lógica de predicción: esta API carga los modelos entrenados (uno por producto, según el mejor identificado por su MAE) y expone endpoints para obtener pronósticos actualizados. La API fue diseñada de tal forma que, dada una solicitud para un producto específico, automáticamente utiliza el modelo óptimo correspondiente (por ejemplo, si el mejor modelo para huevos es LSTM, el API emplea ese; si para pollo es ARIMA, usa aquel otro) y devuelve la predicción de precio para el horizonte deseado (por defecto, la semana siguiente). Sobre esta base, se construyó la interfaz de usuario empleando Streamlit – un marco de desarrollo ágil para aplicaciones de data science. La aplicación web resultante, titulada “AhorraYa”, brinda a los usuarios una experiencia interactiva sencilla: permite seleccionar un producto de interés y consultar su predicción de precio para la próxima semana (o semanas siguientes, según se configure). Además de mostrar el valor pronosticado puntual, la interfaz despliega visualmente la serie histórica reciente junto con la proyección futura, para contextualizar la tendencia. También se incorporó un módulo de reportes automáticos: el sistema puede generar un informe breve que resume las tendencias observadas, el cambio porcentual esperado y alertas en caso de variaciones significativas, el cual podría descargarse en formato PDF o compartirse en redes sociales para beneficio de otros consumidores. Finalmente, AhorraYa incluye una sección de recomendaciones: con base en las predicciones y ciertas reglas sencillas, la aplicación sugiere acciones al usuario para ahorrar o evitar sobrecostos. Por ejemplo, si se anticipa que el precio del pollo aumentará considerablemente la próxima semana, la recomendación podría ser adelantar la compra de ese producto en la semana actual; o si cierto mercado presenta consistentemente precios más bajos para un artículo, la app podría sugerir ese establecimiento como opción de compra. Estas recomendaciones se generan de forma automática e imparcial, buscando guiar al consumidor hacia la decisión más económica e informada posible.

Diagrama de arquitectura de la API.

Diagrama de componentes de la interfaz AhorraYa.

Vale destacar que la arquitectura final del sistema permite su fácil actualización y escalabilidad. Los modelos pueden re-entrenarse periódicamente conforme ingresen nuevos datos (por ejemplo, incorporando los precios más recientes cada mes) y la API puede desplegarse en la nube para atender múltiples consultas simultáneas. La separación en módulos (ver diagrama de bloques) asegura que cada componente pueda mejorarse o reemplazarse independientemente – por ejemplo, se podría actualizar la interfaz sin tocar el backend, o incorporar un nuevo modelo en la API en caso de avances futuros en técnicas de predicción.

La metodología integró desde la obtención de datos brutos hasta la puesta en marcha de una solución tecnológica lista para su uso. Cada fase se apoyó en la anterior para asegurar coherencia y calidad: datos fiables alimentaron un análisis correcto, que a su vez permitió un modelado preciso, culminando en una herramienta práctica y amigable para el usuario. Se logró materializar un pipeline completo de ciencia de datos aplicado a una problemática real, cumpliendo con el objetivo de dotar a los ciudadanos y entidades dominicanas de una forma novedosa de anticipar y enfrentar las fluctuaciones en los precios de los alimentos básicos.

Resultados

Los hallazgos del proyecto son muy alentadores, tanto en las métricas de predicción como en la funcionalidad del sistema final. En cuanto al desempeño predictivo, la estrategia de probar múltiples modelos y seleccionar el más adecuado para cada producto demostró ser acertada. No emergió un “ganador universal”; por el contrario, cada producto básico tuvo una técnica distinta como su mejor pronosticador, lo cual aprovechó al máximo las fortalezas de cada enfoque. Cabe destacar que, en términos generales, todos los métodos evaluados lograron predicciones de alta exactitud (en promedio por encima del 96% de acierto), pero la selección personalizada modelo-por-producto permitió optimizar aún más la precisión en cada caso.

Al analizar detalladamente cada rubro, se observó que los modelos avanzados ofrecieron ventajas marcadas en ciertas series, mientras que en otras los métodos tradicionales fueron igual de efectivos. Por ejemplo, para la habichuela roja –cuyo comportamiento de precios parece depender de factores económicos adicionales– el modelo de red neuronal LSTM que incorporaba indicadores macroeconómicos logró las predicciones más certeras. En cambio, para otro producto como la habichuela negra, un modelo estadístico sencillo (ARIMA) bastó para pronosticar con excelente precisión, señal de que esa serie no presentaba patrones externos o no lineales lo suficientemente fuertes que ameritaran mayor complejidad. Dicho de otro modo, las técnicas de aprendizaje profundo brillaron especialmente cuando la dinámica de precios era compleja o influida por variables exógenas, mientras que en escenarios más estables o lineales un enfoque clásico resultó igualmente competitivo.

La conclusión es clara: no existe una fórmula única que sirva para todos los alimentos, lo cual justifica el enfoque flexible adoptado. Algunos modelos superaron por amplio margen a sus alternativas en ciertos casos, reduciendo el error de pronóstico a una fracción del obtenido por los demás; en otros productos, las diferencias entre técnicas fueron mínimas. Este hallazgo refuerza la importancia de evaluar tanto métodos estadísticos tradicionales como enfoques de aprendizaje profundo, adaptando la solución según las particularidades de cada serie de precios. La siguiente visualización compara de forma resumida el desempeño de todos los modelos probados:

Comparación visual del rendimiento de los modelos por producto. Cada conjunto de barras representa un producto básico (arroz, habichuelas, huevos y pollo), y la barra más baja en cada grupo indica qué modelo logró el menor error de predicción en ese caso. Como se aprecia en la imagen, el método óptimo cambia de un producto a otro, confirmando que ninguna técnica domina en todos los escenarios. También se nota que en algunos alimentos el modelo ganador aventaja claramente a los demás, mientras que en otros las discrepancias de desempeño resultan casi imperceptibles.

Gracias a este exhaustivo análisis, el sistema desarrollado incorpora automáticamente el modelo más adecuado para cada producto en su módulo de predicción. Es decir, cuando un usuario consulta el precio futuro de un alimento –por ejemplo, los huevos– la plataforma emplea en el backend la red LSTM especializada que mejores resultados obtuvo para ese artículo. De igual modo, si se pide la predicción para el pollo, el sistema invoca el modelo específico que demostró ser superior en esa serie (en este caso, una variante de LSTM entrenada con el índice de precios al consumidor). Este mecanismo asegura que la aplicación siempre ofrezca la mejor estimación disponible según nuestros hallazgos, sin que el usuario deba preocuparse por la complejidad técnica detrás.

Importante destacar que los modelos elegidos alcanzaron errores absolutos muy bajos en sus pronósticos. En términos prácticos, la diferencia promedio entre el precio pronosticado y el precio real suele ser de solo unos pocos pesos dominicanos. Dado que en muchos de estos productos una variación semanal típica ronda entre 1 y 5 pesos, un desvío medio de apenas RD$0.5 en las habichuelas o de alrededor de RD$3 en el pollo es lo suficientemente pequeño como para resultar útil en la práctica. En otras palabras, las predicciones fueron tan precisas que el error entra dentro de lo que podría considerarse una fluctuación normal, lo que brinda confianza para la toma de decisiones. Además, el sistema demostró ser capaz de adaptarse y mejorar con el tiempo: al agregar datos más recientes (por ejemplo, un mes adicional de precios) pudo recalibrar sus modelos sin necesidad de reprogramar nada, confirmando la superioridad de ciertos enfoques (como LSTMX en los casos mencionados) simplemente al alimentar la nueva información. Esto indica que la solución puede mantenerse vigente y afinada a medida que se incorporan nuevos datos, algo crucial para su uso en entornos reales cambiantes.

La herramienta resultante, bautizada AhorraYa, está plenamente funcional y pensada para el usuario común. Su interfaz web permite visualizar la serie histórica de precios de cada producto junto con el pronóstico de la semana siguiente en una gráfica interactiva, haciendo muy intuitiva la comprensión de la tendencia. Además, muestra el valor numérico predicho y cuánto varía con respecto al precio actual (por ejemplo: “Se espera que el precio suba 2.3% la próxima semana”), información presentada de forma clara incluso para personas sin formación técnica. Durante las pruebas con usuarios, estos confirmaron que la aplicación es fácil de entender y usar, logrando que los resultados de la predicción sean accesibles para cualquier persona.

También se incorporaron funcionalidades de valor agregado, como la generación automática de reportes en PDF y un módulo de recomendaciones, con el fin de maximizar la utilidad de la herramienta. Por ejemplo, un usuario puede descargar el informe semanal de precios y compartirlo con su comunidad local, mientras que un analista de la entidad reguladora (Pro Consumidor) podría emplear estos reportes para detectar a tiempo comportamientos anómalos en el mercado. Cabe mencionar que la arquitectura modular del sistema probó ser sólida, ya

que la API manejó correctamente múltiples consultas simultáneas y la interfaz se actualiza casi en tiempo real sin inconvenientes. En conjunto, el prototipo está listo para escalarse y funcionar de manera confiable en situaciones reales.

Un resultado particularmente notable fue la mejora obtenida al incorporar variables macroeconómicas en el modelo para ciertos productos. En los casos donde factores como la inflación o el tipo de cambio inciden en los costos (piénsese en algunos granos importados), añadir estos indicadores al modelo permitió reducir aún más el error de predicción, demostrando que esa información adicional fue valiosa. Este hallazgo abre la puerta a integrar en el futuro más fuentes de datos externas –por ejemplo, índices climáticos, precios internacionales de materias primas o costos de combustibles– para potenciar todavía más la precisión de las previsiones en escenarios complejos. Asimismo, se comprobó que los patrones estacionales típicos (por ejemplo, los picos de precios en diciembre) fueron capturados adecuadamente por los modelos que incorporaban estacionalidad, cumpliendo otro de los objetivos iniciales del proyecto. Esto significa que el sistema reconoce las alzas cíclicas esperadas y no se ve sorprendido por ellas, aportando confianza en sus pronósticos durante todo el año.

En resumen, los resultados respaldan plenamente la hipótesis de trabajo original: es posible anticipar –con errores acotados– las variaciones semanales de precios de productos básicos mediante técnicas de series de tiempo. Quedó demostrado que elegir el modelo adecuado para cada producto mejora de forma tangible la exactitud del pronóstico, en comparación con usar una única metodología para todos los casos. Dicho de otra forma, personalizar la estrategia de predicción por tipo de artículo rinde frutos claros en términos de precisión alcanzada.

La utilidad práctica de estas predicciones quedó de manifiesto al presentar el sistema a posibles usuarios finales y a expertos en economía. Las reacciones fueron muy positivas: los consumidores valoraron poder saber hacia dónde podrían moverse los precios la próxima semana, comentando que esa información les ayuda a decidir cuándo comprar (por ejemplo, aprovechar esta semana antes de que un producto suba de precio, o esperar si se anticipa una baja). Por su parte, las autoridades expresaron interés en la herramienta como complemento a sus sistemas actuales de monitoreo, considerando que podría servir para alertas tempranas de situaciones anómalas (por ejemplo, si se pronostica un alza inusual en algún alimento, investigarlo preventivamente antes de que ocurra). Estas impresiones sugieren que, con un refinamiento y validación adicionales, AhorraYa podría convertirse en un apoyo real para la toma de decisiones tanto a nivel micro (hogares) como macro (políticas de mercado). En definitiva, el sistema ha logrado conectar los precios pasados con predicciones futuras para orientar al consumidor sobre el mejor momento de compra, cumpliendo de forma práctica e intuitiva con el objetivo de reducir la incertidumbre en el mercado alimenticio.

Conclusión

En conclusión, el proyecto logró desarrollar con éxito un sistema integral de predicción de precios para productos básicos en República Dominicana, combinando métodos estadísticos tradicionales y técnicas modernas de aprendizaje profundo. Como resultado, se dispone de una herramienta que anticipa las fluctuaciones de precios con un nivel de precisión útil, lo que representa un aporte significativo para distintos actores: los consumidores pueden planificar sus compras con mejor información, evitando los impactos de alzas sorpresivas; los comerciantes y productores pueden ajustar inventarios y estrategias considerando las tendencias pronosticadas; y las autoridades disponen de alertas previas para focalizar inspecciones o medidas de estabilización en caso de incrementos inusuales. El sistema AhorraYa materializa estos logros en una interfaz amigable, democratizando el acceso a la inteligencia de datos sobre precios a cualquier ciudadano con acceso a internet.

El valor de este sistema radica en promover una gestión proactiva frente a la volatilidad de precios. Tradicionalmente, las respuestas eran reactivas (se actuaba después de que el precio subía); con esta solución, se abre la posibilidad de actuar antes del impacto. Por ejemplo, una familia puede decidir comprar ciertos víveres por adelantado si se prevé una subida considerable la próxima semana, o el Ministerio de Industria y Comercio podría preparar acuerdos con suplidores si observa que varios productos mostrarán alzas concurrentes debido a factores estacionales. En términos de transparencia de mercado, contar con predicciones al alcance del público empodera al consumidor y fomenta la competencia, ya que los comercios sabrán que los compradores tienen expectativas informadas y no solo conocerán el precio actual sino su posible trayectoria.

Aunque el proyecto alcanzó sus objetivos, quedan oportunidades de mejora y líneas de trabajo futuras. En primer lugar, sería deseable ampliar el catálogo de productos considerados, incorporando más alimentos de la canasta básica e incluso bienes no alimenticios cuyos precios afectan el presupuesto familiar. Cada nuevo producto requeriría recopilar su serie de precios e integrarla al pipeline ya construido. Adicionalmente, se puede explorar la inclusión de nuevos factores externos que puedan mejorar las predicciones: variables climáticas (lluvias, temperatura) que impactan cosechas, precios internacionales de materias primas relevantes, costos de transporte y combustible, entre otros. Estudios previos indican que incorporar datos meteorológicos puede aumentar la precisión de predicción en horizontes largos [6], por lo que combinar pronósticos climáticos con los de precios agrícolas sería un paso interesante. Otra línea futura es evaluar modelos avanzados emergentes, como las redes neuronales con mecanismos de atención o los modelos tipo Transformers diseñados para series de tiempo, que en años recientes han mostrado potencial en dominios de alta dimensionalidad. Asimismo, se podría implementar un módulo de AutoML que periódicamente pruebe nuevos modelos o re- entrene los existentes para ajustarse a posibles cambios estructurales en las series (por ejemplo, si la dinámica de precios cambia post-pandemia, que el sistema pueda recalibrarse).

En cuanto a la implementación, sería valioso desplegar AhorraYa en un entorno de producción real para recopilar retroalimentación de usuarios y monitorear su uso en el tiempo. Esto permitiría identificar qué funcionalidades adicionales podrían agregarse (por ejemplo,

comparador de precios entre mercados, notificaciones push de alertas de precios, etc.). También sería importante trabajar en estrategias de difusión para que la herramienta llegue a las comunidades que más lo necesitan, en coordinación con instituciones como Pro-Consumidor o el Ministerio de Agricultura.

En definitiva, este proyecto demuestra la viabilidad de aplicar técnicas de análisis de series temporales a un problema concreto de la vida cotidiana dominicana, proporcionando una solución tecnológica innovadora. Los objetivos planteados fueron cumplidos al integrar satisfactoriamente un conjunto heterogéneo de datos, metodologías de modelado de vanguardia y un desarrollo de software enfocado en la utilidad práctica. Si bien el contexto local presenta desafíos (datos a veces escasos, alta volatilidad por factores externos), la combinación adecuada de enfoques permitió sortearlos y entregar un producto funcional. A futuro, con más datos y refinamientos, el sistema podría volverse aún más preciso y abarcar mayor alcance. La anticipación de precios que brinda AhorraYa tiene el potencial de convertirse en una herramienta valiosa para mejorar la planificación económica tanto en los hogares como en las políticas públicas, contribuyendo a mitigar los efectos de la volatilidad en la canasta básica. Queda abierta la invitación a profundizar en esta línea de investigación, incorporando nuevos avances y adaptando la solución a otros ámbitos (por ejemplo, predicción de precios de insumos agrícolas o de energía), en pos de seguir aprovechando la ciencia de datos para el bienestar social.

Referencias:

  1. U. F. Jayatri et al., “Modelling and Predicting Volatility in Essential Food Prices Using ARIMA-GARCH Models,” Efficient: Journal of Industrial Engineering, vol. 1, no. 1, pp. 41– 64, 2024.
  2. J. G. da Silva, “Discurso sobre la volatilidad de los precios de los alimentos y el papel de la

especulación,” FAO, Roma, 6 de julio de 2012.

  1. Pro Consumidor, “¿Qué es SIDIP? – Sistema Dominicano de Información de Precios,” [En línea]. Disponible: https://proconsumidor.gob.do/que-es-sidip
  2. V. Jadhav, B. V. Chinnappa Reddy, and G. M. Gaddi, “Application of ARIMA Model for Forecasting Agricultural Prices,” J. Agr. Sci. Tech., vol. 19, pp. 981–992, 2017.
  3. Z. Yang et al., “Pork Price Prediction using LSTM Model: Based on a New Dataset,” Proc. 1st Int. Conf. Public Management, Digital Economy and Internet Technology (ICPDI), pp. 423–429, 2022.
  4. M. Elsaraiti and A. Merabet, “A Comparative Analysis of the ARIMA and LSTM Predictive Models for Wind Speed,” Energies, vol. 14, no. 20, Art. 6782, Oct. 2021.
  5. C. Xia, “Comparative Analysis of ARIMA and LSTM Models for Agricultural Price Forecasting,” Highlights in Science, Engineering and Technology, vol. 85, pp. 1032–1040, 2024.
  6. S. Hochreiter and J. Schmidhuber, “Long Short-Term Memory,” Neural Computation, vol. 9, no. 8, pp. 1735–1780, 1997.
  7. D. A. Dickey and W. A. Fuller, “Likelihood Ratio Statistics for Autoregressive Time Series

with a Unit Root,” J. Am. Stat. Assoc., vol. 74, no. 366, pp. 427–431, 1979.

  1. P. Pandit et al., “Hybrid time series models with exogenous variable for improved yield

forecasting of crops,” Sci. Reports, vol. 13, Art. 22240, 2023.

  1. A. Theofilou et al., “Predicting Prices of Staple Crops Using Machine Learning: A

Systematic Review,” Sustainability, vol. 17, no. 12, Art. 5456, 2025.

  1. K. G. Preetha et al., “Price Forecasting on a Large Scale Data Set using Time Series and Neural Network Models,” KSII Trans. Internet Info. Syst., vol. 16, no. 10, pp. 3923–3942, 2022.

Laboratorio Virtual de Robótica RobotGYM V2

Carlos Eleazar Peterson García y Miguel José Noboa Hurtado

Pontificia Universidad católica Madre y Maestra, PUCMM

Introducción:

La robótica ha experimentado un crecimiento constante tanto en el ámbito industrial como en el académico, impulsada por la necesidad de automatizar procesos, el desarrollo de nuevas tecnologías y el creciente interés por sistemas inteligentes. A medida que esta disciplina se consolida como un área clave en la ingeniería y la innovación, se vuelve crucial contar con entornos de aprendizaje accesibles, que permitan a los estudiantes experimentar, resolver y construir conocimiento desde la práctica. La educación en robótica no solo requiere herramientas físicas, sino también plataformas flexibles que faciliten el aprendizaje progresivo [1], [3].

En respuesta a esta necesidad educativa, surge el presente proyecto, desarrollado por los estudiantes Miguel José Noboa Hurtado y Carlos Eleazar Peterson García, de la carrera de Ingeniería en Ciencias de la Computación de la Pontificia Universidad Católica Madre y Maestra (PUCMM). Bajo la supervisión de la Escuela de Computación y Telecomunicaciones y tiene como propósito principal el diseño y la mejora de un laboratorio virtual de robótica que permita a los estudiantes practicar y experimentar con conceptos esenciales de esta área, sin las barreras logísticas que a menudo impiden el acceso a equipos físicos especializados.

La motivación principal de esta iniciativa radica en los desafíos presentes en la enseñanza de robótica a nivel universitario, tales como: acceso limitado a hardware, alta demanda de recursos tecnológicos, y la necesidad de enfoques más inclusivos e interactivos. Los entornos de aprendizaje tradicionales en robótica presentan limitaciones que dificultan su implementación, especialmente en instituciones donde los recursos son escasos o deben compartirse entre múltiples grupos [2]. Ante esto, un laboratorio virtual se convierte en una herramienta poderosa para democratizar el acceso al conocimiento técnico de la robótica.

Además, la propuesta de RobotGYM V2 se alinea con tendencias globales en la transformación educativa, en las que el aprendizaje virtual, la inteligencia artificial y la simulación se integran cada vez más como componentes esenciales de la formación profesional. Existe una demanda creciente por infraestructura digital que complemente la enseñanza práctica, permitiendo a los estudiantes aprender en cualquier lugar y en cualquier momento, adaptando el ritmo de aprendizaje a sus propias necesidades [3].

El mercado y por tanto las necesidades del mercado de la robótica han aumentado a gran escala con el transcurso de los años. Se ha visto un crecimiento global desde los 59 mil millones de dólares en el 2019 a 71 mil millones en el 2023. Market Research Future estima un crecimiento exponencial en los próximos años [4]. Este crecimiento aplica para los robots industriales, colaborativos, médicos y otros. Globalmente se ve un crecimiento constante de la robótica lo cual aumenta la necesidad de personal capacitado e interesados en aprender sobre la robótica.

El interés de los estudiantes de amplio rango de edades en el área de robótica crece de forma continua a lo largo de los años. Existen varios estudios mostrando que la integración de las áreas prácticas de la robótica facilita y fomenta el crecimiento técnico e intelectual de los estudiantes en las áreas de programación e ingeniería. [5] [6] Si bien la universidad dispone de los recursos fundamentales para la enseñanza de la robótica, actualmente no cuenta con un sistema estructurado y accesible que facilite una formación introductoria en esta área. Aunque existe un club de robótica impulsado por estudiantes con interés particular en el tema, los materiales y herramientas destinados a nivelar conocimientos básicos son limitados, y la curva de complejidad para incorporarse resulta considerable. En este contexto, el presente proyecto busca responder a esta necesidad, ofreciendo una plataforma que brinde recursos accesibles para introducir a los estudiantes en el campo de la robótica.

Desarrollo y metodología:

La creación de esta plataforma se encuentra dividida en dos partes, la página web o el “frontend” y el sistema de control de robots o el “backend”. ROS (Robot Operating System) es un sistema de código abierto con gran aceptación y uso en las áreas educativas, científicas, de investigación e industria general. [7] El modelo de robots utilizado es el RSLK-MAX de Texas Instruments, un robot diseñado para el ambiente educativo. [8] Sobre todo, la universidad cuenta con una amplia cantidad de robots. Por otro lado la viabilidad de este proyecto fue estudiada por el Ingeniero Anthony Beato con el desarrollo del prototipo del robot gym [9] y existe un incentivo de utilizar los recursos existentes.

Para que los robots se comuniquen con ROS estos tienen que estar conectados en la misma red. Aunque es de gran beneficio utilizar los RSLK-MAX ya existentes de la universidad, estos no cumplen con este requerimiento. Utilizando el sistema de conexión del robot gym original de Anthony Beato, podemos interconectar una raspberry pi que funcione como puente de comunicación entre la red ROS y el robot en cuestión.

El robot tiene un conector tipo micro USB, usando un cable USB tipo A a micro USB podemos conectar el robot con una raspberry pi. Esta conexión habilita el uso de comunicación serial bidireccional. Las raspberry pis, siendo computadoras de bajo consumo pueden estar conectadas a la red de ROS y recibir llamadas de movimiento y mandar información por la red. Usando la conexión serial la raspberry pi puede mandar el mensaje al RSLK y el RSLK puede mandar información de sus sensores a la pi.

Cada Raspberry Pi ejecuta un nodo de ROS que controla su respectivo robot. En ROS, un nodo es una unidad funcional que permite la comunicación dentro del sistema. Dentro del nodo de cada Raspberry Pi se crean dos tópicos, llamados «cmd_vel» y «status».

Los tópicos en ROS funcionan como canales de comunicación entre nodos. El tópico «cmd_vel» actúa como suscriptor: recibe comandos de movimiento que indican al robot cómo debe desplazarse. Por otro lado, el tópico «status» funciona como publicador: transmite información sobre el estado de los sensores del robot, enviando datos cada vez que estos detectan un cambio.

Todos los robots están conectados a la misma red WiFi, lo que significa que comparten una única red ROS. Dentro de esta red se encuentra el controlador principal: una computadora encargada de enviar y recibir solicitudes dirigidas a los robots, así como de comunicarse con la página web. ROS proporciona un sistema de comunicación robusto y eficiente para aplicaciones robóticas; sin embargo, carece de mecanismos de seguridad fundamentales como autenticación, cifrado de datos y control de acceso, lo que lo hace vulnerable en entornos no controlados o expuestos a redes externas.

Una de las funcionalidades de ROS es la posibilidad de visualizar los tópicos activos en la red. Si una persona externa lograra acceder a esta red, podría identificar los tópicos disponibles y enviar comandos de movimiento a todos los robots, generando conflictos para los usuarios legítimos de la aplicación. Aunque el control de acceso a la red puede manejarse de forma básica mediante la configuración del router por ejemplo, restringiendo conexiones a las IPs de los robots y del controlador principal, la principal preocupación radica en la posibilidad de subir rutinas ROS desde la página web. Estas rutinas se ejecutan localmente en la computadora principal, dentro del entorno de ROS.

Para evitar que usuarios no autorizados envíen comandos a los robots, se implementa un mensaje personalizado en los tópicos cmd_vel, utilizado para validar y controlar las instrucciones de movimiento.

El tipo de mensaje estándar utilizado en ROS para el control de movimiento de robots es el mensaje Twist, el cual contiene campos para representar velocidades lineales en los ejes x, y, z y velocidades angulares en esos mismos ejes. Con el fin de abordar las limitaciones de seguridad en la comunicación, se desarrolló una versión personalizada de este mensaje denominada SecureTwist, que extiende la estructura original de Twist incorporando un campo adicional para una clave secreta. Esta clave actúa como un mecanismo de autenticación, asegurando que únicamente los mensajes con una clave válida puedan ser aceptados y ejecutados por los robots.

De esta manera, la comunicación entre el controlador principal y los robots deja de utilizar el mensaje Twist convencional y pasa a realizarse mediante SecureTwist, fortaleciendo así la integridad y autenticidad de los comandos transmitidos.

Estas llaves son generadas por la página web cuando algún usuario intenta crear una sesión o intenta controlar un robot de manera legítima en la aplicación. La página web manda estas claves a la computadora principal. Cuando la computadora recibe estas claves esto les deja saber a los robots individuales. Al recibir esta llamada, estos solicitan una copia de las llaves que les pertenecen. Es bueno notar que las llaves son individuales para cada robot, por tanto cada robot solo recibirá las llaves que le pertenecen.

Si de alguna manera un usuario intenta mandar un mensaje no legítimo o sin permiso. La única manera que este mensaje será procesado sería si tiene la clave del robot donde está mandando el mensaje. De lo contrario el sistema manda un mensaje de advertencia y no procesa la llamada. Este peligro existe y fue resuelto ya que los usuarios podrán subir sus propias rutinas, las cuales podrán correr código ROS común. Esta implementación nos da seguridad que las rutinas de los usuarios solo podrán afectar a los tópicos donde solo tengan acceso.

Esto plantea un problema en la comunicación entre la computadora principal, que opera dentro de la red local de ROS, y la página web. No se puede garantizar que ambos componentes —la página web y el controlador principal— se encuentren en la misma red, lo que introduce posibles vulnerabilidades, especialmente en cuanto a la autenticidad e integridad de los datos transmitidos. Para abordar esta situación, se utiliza gRPC como protocolo de comunicación entre la web y la computadora principal. Gracias a su alta velocidad, baja latencia y facilidad de integración con distintos lenguajes de programación, gRPC resulta una solución ideal para este proyecto [10]. Mientras que los robots se comunican entre sí mediante ROS, la web y la computadora principal intercambian datos a través de gRPC.

Esta arquitectura también resuelve el problema de la distribución segura de llaves a los robots. En un entorno puramente ROS, no existe un mecanismo confiable para enviar llaves de forma segura; sin embargo, al combinar ROS con gRPC, este proceso se vuelve más seguro y eficiente. El flujo funciona de la siguiente manera: cuando la computadora principal detecta un cambio en el conjunto de llaves o recibe nuevas, envía un mensaje mediante ROS notificando a los robots que ha habido una actualización. Al recibir esta notificación, cada robot realiza una solicitud por gRPC para obtener sus nuevas llaves personales, lo que garantiza la seguridad, privacidad y autenticidad tanto de los robots como del sistema en general.

En este laboratorio virtual de robótica, la transmisión de video en tiempo real es esencial para permitir la supervisión y el control remoto de los robots. Para lograr este objetivo, hemos implementado WebRTC (Web Real-Time Communication), una tecnología diseñada para la comunicación audiovisual entre navegadores. Una de las principales razones para utilizar WebRTC es su capacidad de ofrecer baja latencia inferior a 200 milisegundos, lo que permite una experiencia fluida. A diferencia de otras soluciones tradicionales como RTMP (Real-Time Messaging Protocol), que suelen presentar latencias de entre 2 y 5 segundos, o HLS (HTTP Live Streaming), que puede superar los 10 segundos[11].

Además de su eficiencia en el tiempo de respuesta, WebRTC es una alternativa recomendable por su compatibilidad nativa con la mayoría de los navegadores modernos y por no requerir la instalación de software adicional, lo que facilita el acceso desde distintos dispositivos. Esta tecnología también ofrece mecanismos de seguridad integrados, como el cifrado de extremo a extremo, lo cual resulta fundamental en entornos educativos y científicos donde se manejan datos sensibles.

Diagrama de Bloques:

La página web está diseñada para ofrecer una experiencia interactiva y simplificada a estudiantes, docentes y administradores. Cuenta con una página principal que proporciona noticias e informaciones generales sobre el laboratorio, los experimentos y los robots. Además, dispone de una sección dedicada al laboratorio, donde los usuarios pueden acceder a sus experimentos. Estos experimentos permiten controlar robots en tiempo real, así como grabar videos, capturar imágenes y realizar observaciones detalladas de los movimientos del robot. Por otro lado, el sistema incluye un módulo de administración exclusivo para superadministradores, desde el cual se gestionan los experimentos, usuarios y configuraciones generales de la plataforma.

Parte de los requerimientos del proyecto es el mantenimiento y calidad del software. Docker es una parte esencial del software. Este crea contenedores, ambientes controlados, donde corren las diferentes aplicaciones. La aplicación para los nodos de los robots individuales en cada raspberry pi corre en un contenedor de docker. Al igual que la aplicación en la computadora principal y la página web, todos estarán corriendo en contenedores de docker. Desplegar las aplicaciones en contenedores crea determinismo, obtener el mismo resultado sin importar factores externos, al momento de correrlas. Si en el futuro se desea intercambiar la raspberry pi por otra, o mover la posición de la computadora principal, no hay que preocuparse de la configuración interna de la aplicación, solo que las computadoras puedan usar docker.

Los contenedores de docker también son utilizados en otra parte del proyecto. Los usuarios de la aplicación pueden subir sus propias rutinas para controlar los robots. Esto implica que los usuarios necesitan un ambiente de desarrollo que imita la funcionalidad de la aplicación desplegada. El proyecto provee 2 maneras de desarrollar rutinas. La primera es mediante un contenedor de docker. Este estará conectado con un folder en la computadora del usuario, el cual puede crear una cantidad ilimitada de rutinas. El usuario puede probar si lo que hizo funcionó al subir o correr el contenedor. La segunda forma es mediante una máquina virtual. Esta también funciona como ambiente de prueba, pero es mucho más visual e interactivo que un contenedor. Esto se obtiene a cambio de rendimiento, donde la máquina virtual está garantizada a correr más lenta que un contenedor de docker. Cuando el usuario termine de crear su rutina este podrá entrar a un experimento dentro de su laboratorio, seleccionar el robot, mandar la rutina y probar como su código funciona en la vida real.

Los robots RSLK necesitan una raspberry pi para ser controlados, y estas necesitan una batería externa para que funcionen. Para que el robot sea móvil se necesita crear una estructura física donde colocar la raspberry pi y su batería. Utilizando los motores del robot y agujeros presentes podemos crear un estante o “hat” para el robot. Debido a que es un robot diferencial, que tiene 2 ruedas para moverse, el balance de este se tiene que tomar en cuenta al momento de agregar más peso encima de él. La raspberry pi y la batería se posicionan entre las ruedas y el rodillo esférico, la bola trasera que ayuda a balancear el robot. Este hat está hecho de paletas y palillos de madera. Son fáciles de remover si es necesario y de bajo costo. Para prevenir que las raspberry y la batería se caigan durante movimiento, estas están soportadas por velcro adhesivo.

(Figura 1) Robot RSLK MAX básico

(Figura 2) Hat para el robot RSLK MAX

(Figura 3) Unificación del hat y el robot

(Figura 4) El hat mas el robot con el peso de la batería y raspberry pi.

Resultados:

El laboratorio virtual Robot Gym permite a los estudiantes ejecutar experimentos robóticos en tiempo real a través de una interfaz web, eliminando la dependencia directa del hardware físico así disminuyendo los requerimientos técnicos para el aprendizaje de robótica. Esta logra una integración estable entre ROS y gRPC, lo que facilita una comunicación segura y eficiente entre los robots físicos y la plataforma web. Además, esta incorpora una tecnología de transmisión de video en tiempo real utilizando WebRTC, con latencias menores a 200 ms, optimizando así la experiencia del usuario durante el control remoto de los robots.

La plataforma es desplegada en su totalidad mediante contenedores Docker, lo que asegura entornos reproducibles y fácilmente escalables. Este enfoque permite una gestión más efectiva de las aplicaciones tanto en Raspberry Pi como en el servidor principal.

Se comprobó que el sistema de autenticación basado en mensajes SecureTwist es efectivo al prevenir accesos no autorizados de los robots. Cada robot responde exclusivamente a comandos asociados con su llave única, lo que asegura un entorno seguro incluso al permitir la carga de rutinas creadas por los usuarios. Esto demuestra la viabilidad técnica del laboratorio virtual, fundado en un base sólida para futuras expansiones.

Conclusiones:

El desarrollo de RobotGYM V2 representa un avance significativo en la modernización de la enseñanza de la robótica en el contexto universitario, proporcionando un entorno virtual que replica de manera eficaz los desafíos del control robótico físico. Esta solución responde a la creciente necesidad de plataformas accesibles, seguras y prácticas para el aprendizaje autónomo en el área de robótica.

La integración de tecnologías como ROS, gRPC y WebRTC permite superar barreras técnicas relacionadas con la conectividad, la latencia y la seguridad, aspectos fundamentales para una experiencia educativa y remota de calidad. La modularidad del sistema facilita su mantenimiento y escalabilidad, lo cual le permite adaptarse a futuros cambios tecnológicos o tipos de robots.

Desde una perspectiva pedagógica, el laboratorio fomenta el desarrollo de las habilidades técnicas mediante la práctica directa y la experimentación, introduciendo nuevos conceptos no conocidos en clases formales o reforzando los ya existentes. Además, el hecho de que los estudiantes puedan subir y correr sus propias rutinas incentiva la creatividad, la autonomía y el pensamiento crítico y lógico.

En conclusión, el Robot Gym v2 no solo aborda una necesidad educativa, sino que establece un precedente para futuras iniciativas de laboratorios virtuales en otras áreas del aprendizaje e ingeniería. Su diseño abierto reproducible y seguro lo posiciona como una herramientas versátil que puede extenderse más allá del aula tradicional, promoviendo una educación de robótica más dinámica, accesible y sencilla, preparada para los retos del futuro.

(Figura 5) Página web, control manual del robot

Referencias:

[1] J. Smith, Introduction to Robotics and Automation, 3rd ed. New York, NY, USA: Springer, 2021.

[2] T. Lam, “Advancing Robotics Education Challenges Opportunities,” Botificial Intelligence Society (HK), 2025. https://www.academia.edu/127642699/Advancing_Robotics_Education_Challenges_Opportunities (accessed Apr. 03, 2025).

[3] M. Vasou, Georgios Kyprianou, Angelos Amanatiadis, and S. A. Chatzichristofis, “Transforming Education with AI and Robotics: Potential, Perceptions, and Infrastructure Needs,” Lecture notes in business information processing, pp. 3–18, Jan. 2025, doi: https://doi.org/10.1007/978-3-031-81322-1_1.

[4] R. Melissa, “Robots Among Us – The Global Robotics Market Growing Rapidly – Statzon Blog,” Statzon.com, Dec. 04, 2024. http://statzon.com/insights/global-robotics-market-growing-rapidly (accessed Jul. 21, 2025).

[5] P. Zamora, A. Lozada, J. Buele, and Fátima Avilés-Castillo, “Robotics in higher education and its impact on digital learning,” Frontiers in Computer Science, vol. 7, Jun. 2025, doi: https://doi.org/10.3389/fcomp.2025.1607766.

[6] F. Ouyang and W. Xu, “The effects of educational robotics in STEM education: a multilevel meta-analysis,” International Journal of STEM Education, vol. 11, no. 1, Feb. 2024, doi: https://doi.org/10.1186/s40594-024-00469-4.

[7] D. Portugal, R. P. Rocha, and J. P. Castilho, “Inquiring the robot operating system community on the state of adoption of the ROS 2 robotics middleware,” International Journal of Intelligent Robotics and Applications, Oct. 2024, doi: https://doi.org/10.1007/s41315-024-00393-4.

[8] “Texas Instruments Robotics System Learning Kit User guide Robot Systems Learning Kit (TI-RSLK) User Guide 2 Texas Instruments Robotics System Learning Kit: The Solderless Maze Edition SEKP166.” Accessed: Apr. 02, 2025. [Online]. Available: https://www.ti.com/lit/ml/sekp166/sekp166.pdf

[9] A. Beato,»ROBOT GYM DE ACCESO REMOTO CON SISTEMAS EMBEBIDOS», Ago 2024.

[10] R. Le, “gRPC vs REST speed comparison,” SHIFT ASIA | Dev Blog, Dec. 04, 2023. https://shiftasia.com/community/grpc-vs-rest-speed-comparation/

[11] Santos-González, I. & Rivero, Alexandra & Molina-Gil, Jezabel & Caballero-Gil, Pino. (2017). Implementation and Analysis of Real-Time Streaming Protocols. Sensors. 17. 10.3390/s17040846.

Detectar un ACV con IA: una herramienta que puede salvar vidas

A poster of a brain

AI-generated content may be incorrect.

Pontificia Universidad Católica Madre y Maestra, PUCMM

Emely Gómez y Justin Quijada

Introducción

Cada minuto que pasa durante un accidente cerebrovascular representa una pérdida neuronal irreversible: aproximadamente 1.9 millones de neuronas mueren cada 60 segundos si no se interviene a tiempo. Esta estadística, respaldada por estudios clínicos, fue el punto de partida para desarrollar un sistema de diagnóstico asistido por inteligencia artificial. En un país como el nuestro, República Dominicana, donde muchos hospitales enfrentan limitaciones en cuanto a disponibilidad de especialistas en neuroimagen, es común que los pacientes no sean diagnosticados en la ventana de tiempo crítica. Por eso, este proyecto propone una solución que no solo automatiza el análisis de imágenes médicas, sino que también actúa como una segunda opinión confiable, rápida y consistente.

La iniciativa fue desarrollada por Emely Gómez y Justin Quijada, estudiantes de Ingeniería en Ciencias de la Computación en la PUCMM, bajo la mentoría del profesor José Luis Alonso. La idea nació al observar una brecha recurrente en hospitales y clínicas: el proceso de interpretar una resonancia magnética (específicamente DWI) depende casi exclusivamente del criterio de un radiólogo experimentado, cuya carga de trabajo muchas veces impide un análisis exhaustivo. Nuestra propuesta introduce un modelo de deep learning entrenado con imágenes reales para detectar señales de ACV de forma automática, acompañada de una interfaz visual pensada para el médico.

Este proyecto se desarrolló en colaboración con la Clínica Materno Infantil en Santiago de los Caballeros, que facilitó un conjunto de imágenes DWI reales, garantizando su anonimización y calidad clínica. Asimismo, contamos con la asesoría de la Dra. Esmirna Y. Farington, especialista en neurología, quien orientó la validación clínica y los criterios diagnósticos que guiaron el desarrollo del sistema.

Cuando cada segunda cuenta: la urgencia de detectar un ACV

Los accidentes cerebrovasculares (ACV), también conocidos como strokes, son una de las primeras causas de discapacidad y muerte en el mundo. Se estima que cada año más de 15 millones de personas sufren un ACV, y al menos un tercio queda con secuelas neurológicas permanentes. En República Dominicana, como en muchos otros países en vías de desarrollo, los recursos de diagnóstico avanzado suelen concentrarse en grandes ciudades, lo que complica la atención de pacientes en regiones rurales o con menor infraestructura.

El ACV se presenta en dos formas principales: isquémico, cuando un coágulo bloquea el flujo sanguíneo hacia el cerebro, y hemorrágico, cuando un vaso sanguíneo se rompe y sangra dentro del tejido cerebral. Ambos requieren atención médica inmediata, pero el isquémico —que representa casi el 85% de los casos— puede beneficiarse significativamente si se detecta dentro de las primeras tres horas.

El problema radica en que los síntomas pueden ser sutiles o confundirse con otras condiciones, y que la herramienta más efectiva para detectarlos a tiempo —la resonancia magnética ponderada por difusión (DWI)— requiere interpretación experta, la cual no siempre está disponible.

En muchos hospitales, la carga de trabajo, la fatiga del personal y la falta de tecnología hacen que una imagen DWI se quede sin ser evaluada a tiempo. A esto se suma la variabilidad interobservadora, donde dos médicos podrían llegar a conclusiones distintas ante la misma imagen. Esta subjetividad, aunque natural, representa una amenaza al tratamiento oportuno. Por ello, vimos en la IA no una forma de sustituir al médico, sino de ofrecer una herramienta que aporte velocidad, precisión y objetividad al análisis.

Lo que se ha hecho antes: una base para mejorar

Diversos estudios han respaldado la efectividad del uso de modelos de aprendizaje profundo en la detección automatizada de accidentes cerebrovasculares. En su investigación, Mahmud et al. (2022) desarrollaron un sistema basado en redes neuronales convolucionales (CNN) personalizadas, denominado OzNet, diseñado para clasificar imágenes médicas de tomografía computarizada (CT) en categorías relacionadas con ACV. El modelo logró una precisión del 98.4 %, con un AUC de 0.99, al combinar técnicas de extracción automática de características con algoritmos supervisados como Naïve Bayes y SVM. Esta investigación valida el enfoque de aplicar CNN especializadas para tareas médicas críticas, reforzando la propuesta de nuestro proyecto, que utiliza modelos pre-entrenados adaptados para el análisis de imágenes por resonancia DWI.

Una IA al servicio del diagnóstico médico

Frente a las limitaciones del diagnóstico clínico tradicional de ACV, desarrollamos un sistema de apoyo médico basado en técnicas avanzadas de inteligencia artificial (IA), específicamente deep learning, capaz de analizar imágenes por resonancia magnética DWI y emitir una predicción automatizada sobre la presencia o ausencia de un accidente cerebrovascular. Esta solución se concibió no como un reemplazo del médico especialista, sino como una herramienta complementaria que actúe como una segunda opinión objetiva, rápida y reproducible, especialmente útil en centros con recursos limitados o alta carga asistencial.

El núcleo del sistema es un modelo de red neuronal convolucional (CNN) orientado a la clasificación de imágenes médicas. En la fase inicial se evaluaron varias arquitecturas avanzadas, entre ellas EfficientNetB3 y ResNet50, por su popularidad en tareas de visión computacional. Sin embargo, DenseNet121 demostró un desempeño superior en términos de estabilidad, precisión y capacidad para capturar patrones sutiles en imágenes DWI, lo que motivó su elección como modelo definitivo. Para maximizar su efectividad, se aplicó transfer learning, reutilizando pesos preentrenados en ImageNet y ajustando las capas superiores mediante fine-tuning, junto con regularización y técnicas de optimización para mejorar la generalización.

Para facilitar la interacción con el modelo, se desarrolló una interfaz gráfica de usuario utilizando la plataforma Streamlit, lo que permitió construir una aplicación web ligera, intuitiva y compatible con entornos hospitalarios. Esta interfaz permite cargar imágenes médicas, visualizar la predicción del sistema (stroke / no stroke), consultar métricas de confianza como el AUC y el F1-score, y observar mapas de activación generados con Grad-CAM, que resaltan las zonas que el modelo considera más relevantes para su decisión.

FIGURA 1: Diagrama de procesos

LINK: https://drive.google.com/file/d/1JGOIhBGLqtvdsAYQPbXTXdNo6e5YkAsU/view?usp=shar ing

A nivel técnico, la arquitectura del sistema no se limita únicamente al modelo predictivo, sino que representa una arquitectura completa que abarca desde el procesamiento inicial de la imagen hasta la generación de un informe visual interpretativo. Al cargar una imagen DWI, esta pasa por una etapa de preprocesamiento donde se normaliza su escala de grises, se redimensiona a una resolución estándar y se convierte en un tensor compatible con el modelo.

Posteriormente, la imagen procesada se alimenta a la red neuronal seleccionada —DenseNet121, EfficientNetB3 o ResNet50— la cual emite una predicción binaria sobre la presencia de un stroke. Esta predicción, junto con los mapas de activación generados por Grad-CAM, se traduce en una visualización comprensible para el usuario médico, facilitando tanto el diagnóstico como la validación clínica.

Una de las prioridades fue garantizar que el modelo no opere como una caja negra. A diferencia de otros modelos de IA que operan como cajas negras, este proyecto integró desde el inicio técnicas de explicabilidad para evitar decisiones automatizadas sin justificación. Gracias a Grad-CAM, el médico no solo recibe una respuesta del modelo, sino también una imagen con las áreas cerebrales destacadas que influyeron en la decisión. Esta capacidad es fundamental en entornos clínicos, donde cada diagnóstico debe estar respaldado por evidencia visual o estadística. Al promover la transparencia, se fortalece la aceptación del sistema dentro del equipo médico y se reducen las barreras éticas para su implementación.

Además, se integraron múltiples estrategias de preprocesamiento y aumento de datos para mejorar la robustez del sistema ante imágenes de diferentes formatos, calidades y condiciones clínicas. Esto incluyó normalización, redimensionamiento, simulación de variaciones clínicas mediante transformaciones visuales, y generación de imágenes sintéticas. Esta etapa fue clave para asegurar que el sistema pudiera adaptarse a diferentes entornos médicos reales.

Cómo diseñamos una IA confiable para imágenes médicas

El diseño de una herramienta de apoyo clínico basada en IA requiere mucho más que un buen modelo de predicción: implica entender el flujo clínico, las limitaciones tecnológicas de los centros médicos y los criterios éticos para construir confianza en un sistema automatizado. Por esta razón, el primer paso fue construir una base sólida de datos con imágenes reales de resonancia magnética DWI. Estas imágenes fueron proporcionadas por la Clínica Materno Infantil, cuidadosamente anonimizadas y validadas por profesionales del área médica. Esta etapa fue fundamental, ya que los modelos de aprendizaje profundo dependen críticamente de la calidad y la diversidad del conjunto de entrenamiento para aprender patrones fiables.

Uno de los mayores desafíos fue el desequilibrio de clases, es decir, la diferencia en la cantidad de imágenes de pacientes con ACV versus sin ACV. Este es un problema común en datasets médicos, que tiende a sesgar los modelos hacia la clase mayoritaria. Para enfrentarlo, se aplicaron técnicas de aumento de datos (data augmentation) y se generaron imágenes sintéticas utilizando transformaciones controladas. Estas incluían rotación, zoom, variación de contraste y simulaciones de artefactos clínicos comunes, como ruido de escáner. Estas estrategias ayudaron a expandir el conjunto de datos sin comprometer la veracidad clínica.

La arquitectura del modelo se basó en DenseNet121, elegida por su capacidad para reutilizar características entre capas densamente conectadas, reduciendo el riesgo de degradación del gradiente y maximizando la eficiencia en el aprendizaje. Inicialmente, se exploraron arquitecturas como ResNet50 y EfficientNetB3, pero tras múltiples pruebas comparativas, DenseNet121 mostró un mejor equilibrio entre desempeño, estabilidad y velocidad de convergencia. En lugar de entrenar desde cero, se aplicó transfer learning para aprovechar pesos previamente entrenados en ImageNet, adaptándolos a las imágenes DWI mediante fine-tuning en las capas superiores.

Para entrenar cada modelo, se utilizó validación cruzada estratificada por grupo de paciente, lo que garantiza que las imágenes del mismo paciente no aparezcan simultáneamente en los conjuntos de entrenamiento y validación. Esta estrategia evita el sobreajuste y simula un escenario clínico real, donde el modelo debe predecir correctamente imágenes de nuevos pacientes nunca antes vistos por la red. Además, se aplicó early stopping y regularización mediante dropout para controlar el sobreajuste.

La capa final de nuestro sistema fue el desarrollo de una interfaz amigable e intuitiva, pensada para ambientes clínicos reales. Para ello se utilizó Streamlit, una plataforma de desarrollo rápido de aplicaciones web en Python. La aplicación permite cargar imágenes DWI, recibir la predicción del modelo, visualizar métricas como F1-score y AUC, y observar mapas explicativos. Esta solución fue diseñada para poder ejecutarse de forma local en equipos con capacidad limitada, sin necesidad de conexión a internet, garantizando la portabilidad a centros rurales.

Desde el punto de vista técnico, la arquitectura completa sigue un flujo estandarizado: la imagen pasa por una etapa de preprocesamiento (normalización, redimensionamiento y conversión a tensor), luego es analizada por el modelo seleccionado, y finalmente se generan los mapas de activación y predicción. Este flujo fue modularizado y empaquetado para facilitar su integración en futuras soluciones hospitalarias o sistemas de archivo de imágenes médicas (PACS).

Figura 2: mapa conceptual del proyecto.

LINK:

https://drive.google.com/file/d/1Izt-uz44T2Bj4L9wD-K47jTefIXi1OM0/view?u sp=sharing

En paralelo, se implementaron funciones de monitorización del desempeño durante el entrenamiento, incluyendo seguimiento de curvas de aprendizaje y comparación de modelos. Esta información fue crucial para seleccionar el modelo con mejor equilibrio entre sensibilidad y especificidad, parámetros vitales en medicina donde los falsos negativos pueden costar vidas. Además, se exploró el uso de métricas personalizadas más allá de la precisión.

Resultados:

Los resultados que se presentan corresponden a DenseNet121, la arquitectura que, tras un análisis comparativo con modelos como ResNet50 y EfficientNetB3, demostró el mejor equilibrio entre precisión y estabilidad. Durante la validación cruzada (5-Fold CV), este modelo alcanzó un desempeño sobresaliente en métricas críticas como AUC y F1-score. Posteriormente, en el conjunto de prueba, mantuvo esta robustez, confirmando su capacidad para generalizar en escenarios clínicos reales:

Métrica Valor promedio
Accuracy 0.8539
Precision 0.8222
Recall 0.8368
Specificity 0.8487
F1-Score 0.8288
AUC 0.9146
FNR 0.1632

Estos resultados indican que el sistema mantiene una alta capacidad discriminativa (AUC ≈ 0.91), reduciendo falsos negativos, lo cual es esencial para no omitir casos de ACV. La combinación de recall elevado (0.8368) y specificity (0.8487) confirma que el modelo responde bien tanto a imágenes con ACV como a aquellas sin la condición.

Curvas de entrenamiento y validación:

Se observó que las métricas de entrenamiento convergieron rápidamente, mientras que la validación se mantuvo estable, lo que indica un buen ajuste sin sobreentrenamiento significativo.

A collage of graphs

AI-generated content may be incorrect.

Figura 3. Curvas de aprendizaje de DenseNet121: Accuracy, Loss, AUC y F1-score.

Evaluación en el conjunto de prueba

En la fase de prueba, el modelo DenseNet121 demostró una notable capacidad de generalización, manteniendo un rendimiento alineado con lo observado en la validación cruzada. La exactitud global (Accuracy = 86.58%) confirma que el sistema puede clasificar correctamente la mayoría de las imágenes DWI, incluso en escenarios no vistos durante el entrenamiento. Sin embargo, en contextos médicos, la precisión global no es suficiente: la diferencia entre un falso negativo y un falso positivo puede significar la vida del paciente o una intervención innecesaria.

Por ello, es fundamental analizar otras métricas:

  • Recall = 86.25%, lo que indica que el modelo detecta la mayoría de los casos reales de ACV, reduciendo el riesgo de omitir diagnósticos críticos.
  • Precision = 80.20%, un valor que refleja un buen equilibrio, aunque muestra que todavía existe margen para reducir falsos positivos.
  • F1-Score = 83.11%, que combina sensibilidad y precisión, ofreciendo una medida robusta del desempeño general.
  • Finalmente, el AUC de 0.9430 es particularmente relevante: significa que, ante cualquier umbral, el modelo conserva una alta capacidad para discriminar entre casos positivos y negativos. En la práctica clínica, esto se traduce en flexibilidad para ajustar el umbral según las prioridades médicas (por ejemplo, priorizar la detección temprana frente a la minimización de falsos positivos)

Figura 4. Matriz de confusión y curva ROC en el conjunto de prueba.

Ejemplos visuales de predicciones

Uno de los mayores desafíos en la implementación clínica de IA es la confianza del usuario médico. Para abordar esta necesidad, el sistema no solo devuelve un resultado binario (stroke / no stroke), sino que también ofrece ejemplos visuales de las predicciones realizadas, acompañadas de la probabilidad asociada. Esto permite al radiólogo no depender ciegamente de la tecnología, sino contrastar la salida del modelo con su propio juicio.

Para reforzar la confianza clínica, el sistema muestra la imagen DWI analizada junto con la clase predicha y su probabilidad asociada.

Figura 5. Ejemplos de predicciones sobre imágenes DWI, con etiqueta real, predicción y probabilidad.

Este nivel de interpretabilidad no es un detalle estético, sino un pilar ético y práctico: evita que la IA funcione como una “caja negra” y facilita la toma de decisiones compartidas, donde el modelo actúa como un asistente y no como un sustituto. Además, las probabilidades asociadas permiten configurar umbrales adaptativos en función del riesgo clínico, ofreciendo un control adicional en entornos donde cada minuto cuenta.

Conclusión:

Este proyecto marca un paso importante hacia la integración de la inteligencia artificial en entornos clínicos donde el tiempo y la precisión son determinantes. Si bien en la etapa inicial se evaluaron arquitecturas como ResNet50 y EfficientNetB3, DenseNet121 demostró ser la opción más adecuada gracias a su estructura densa, que optimiza la propagación del gradiente y la reutilización de características. Esta arquitectura alcanzó un AUC de 0.9430 y un F1-score superior al 83%, confirmando su capacidad para detectar ACV en imágenes DWI con alta confiabilidad y ofreciendo una base sólida para futuras aplicaciones clínicas.

Los resultados obtenidos evidencian un modelo sólido, con un AUC superior al 91% y un balance adecuado entre sensibilidad y especificidad, lo que permite confiar en su capacidad para detectar un ACV incluso en condiciones clínicas complejas. Más allá de las métricas, la verdadera fortaleza del sistema radica en su diseño explicable: herramientas como Grad-CAM aportan una transparencia que refuerza la confianza médica, un aspecto imprescindible cuando se trata de decisiones que afectan directamente la vida del paciente.

Sin embargo, ningún avance tecnológico está exento de desafíos. La dependencia de datos limitados y la necesidad de validación multicéntrica siguen siendo tareas pendientes, al igual que la adaptación para entornos con recursos reducidos. Estas limitaciones, lejos de ser un obstáculo, representan oportunidades para la evolución futura del proyecto: integración con sistemas PACS, optimización para dispositivos edge y validación en tiempo real son metas alcanzables que acercarán esta herramienta a su adopción clínica definitiva.

En última instancia, la relevancia de este trabajo trasciende lo técnico. Supone una reflexión sobre el papel de la IA en la medicina moderna: no como un reemplazo del juicio humano, sino como un aliado que aporta velocidad, consistencia y objetividad. Si cada minuto cuenta durante un ACV, cada innovación que reduzca ese tiempo es, en esencia, una herramienta que salva vidas.

Referencias:

  1. M. U. Emon, M. S. Keya, T. I. Meghla, M. M. Rahman, M. S. Al Mamun, and M. S. Kaiser, “Performance Analysis of Machine Learning Approaches in Stroke Prediction,” in Proc. 4th Int. Conf. Electron. Commun. Aerosp. Technol. (ICECA), Jan. 2020, pp. 1464–1469, doi: 10.1109/ICECA49313.2020.9297525
  2. C. Shorten and T. M. Khoshgoftaar, “A Survey on Image Data Augmentation for Deep Learning,” Journal of Big Data, vol. 6, no. 1, p. 60, 2019, doi: 10.1186/s40537-019-0197-0.
  3. M. Tan and Q. V. Le, “EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks,” in Proc. 36th Int. Conf. Mach. Learn. (ICML), Jun. 2019, pp. 10691–10700.
  4. R. R. Selvaraju, M. Cogswell, A. Das, R. Vedantam, D. Parikh, and D. Batra, “Grad-CAM: Visual Explanations from Deep Networks via Gradient‑Based Localization,” in Proc. IEEE Int. Conf. Comput. Vis. (ICCV), Venice, Italy, Oct. 2017, pp. 618–626.
  5. Streamlit Documentation, Streamlit. [Online]. Available: https://docs.streamlit.io/. [Accessed: Jul. 16, 2025].
  6. J. M. Johnson and T. M. Khoshgoftaar, “Survey On Deep Learning With Class Imbalance,” J. Big Data, vol. 6, no. 1, p. 27, 2019, doi: 10.1186/s40537-019-0192-5
  7. J. Yosinski, J. Clune, Y. Bengio, and H. Lipson, “How transferable are features in deep neural networks?,” in Proc. Adv. Neural Inf. Process. Syst., Montreal, QC, Canada, Dec. 2014, pp. 3320–3328.
  8. R. R. Selvaraju, M. Cogswell, A. Das, R. Vedantam, D. Parikh, and D. Batra, “Grad‑CAM: Visual Explanations from Deep Networks via Gradient‑Based Localization,” in Proc. IEEE Int. Conf. Comput. Vis. (ICCV), Venice, Italy, Oct. 2017, pp. 618–626.
  9. J. Amann et al., “Explainability for artificial intelligence in healthcare: a multidisciplinary perspective,” BMC Medical Informatics and Decision Making, vol. 20, no. 310, 2020, doi: 10.1186/s12911-020-01332-6.
  10. A. B. Arrieta et al., “Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI,” Information Fusion, vol. 58, pp. 82–115, 2020, doi: 10.1016/j.inffus.2019.12.012.
  11. M. Sajjad et al., “Multi-grade brain tumor classification using deep CNN with extensive data augmentation,” Journal of Computational Science, 2019, doi:

10.1016/j.jocs.2019.05.003.

  1. X. Lu et al., “Deep learning for detecting acute stroke on diffusion-weighted imaging: A systematic review and meta-analysis,” Journal of Stroke and Cerebrovascular Diseases, 2022, doi: 10.1016/j.jstrokecerebrovasdis.2022.106430.

Plataforma para Monitoreo de Infraestructura Eléctrica y Vegetación 2.0

Enel Distribución despejó cerca de 70 mil árboles cercanos a la red  eléctrica en los últimos 6 meses - País Circular

Ruddy Gabriel Gómez Tejada Y Gabriel D. Jesús Reinoso Javier

Pontificia Universidad Católica Madre y Maestra, PUCMM

Introducción:

La energía eléctrica se ha convertido en una pieza fundamental y clave para el funcionamiento de nuestra sociedad. Como bien sabemos, no podemos acceder a este servicio sin las líneas de tendido eléctrico seguras que transporten esta energía a través del país. Sin embargo, uno de los fenómenos que más suelen afectar la estabilidad de este sistema, es la presencia de vegetación cercana a estas líneas. Por esta razón, es necesario un sistema automatizado para monitorear el estado de la vegetación cercana a los circuitos eléctricos y que mida el nivel de peligrosidad que esta presenta con el fin de ser utilizado por las autoridades pertinentes para tomar las medidas necesarias de mantenimiento.

Definición de la Problemática:

Cuando las ramas o árboles crecen demasiado cerca o entran en contacto con los cables, pueden provocar cortocircuitos, desconexiones e incluso incendios o electrocuciones. Durante fenómenos climáticos como: tormentas, cientos fuertes o lluvias intensas, la probabilidad de que la vegetación caiga sobre el tendido eléctrico aumenta considerablemente, ocasionando daños estructurales y prolongando los cortes de energía [1]. No obstante, la Ley General de Electricidad No. 125-01 y su Reglamente de Aplicación establecen la responsabilidad de las empresas distribuidoras de realizar mantenimientos periódicos de la vegetación cercana a estas líneas para garantizar la seguridad y calidad del servicio [2].

Proyectos Anteriores:

El proyecto de N. Nakao, M. Vásquez “Levantamiento Georreferenciado de Vegetación Adyacente a Líneas Eléctricas”, PUCMM, 2024, surge como una solución directa al problema de la interferencia de la vegetación con el tendido eléctrico. Este sistema se basa en una serie de procesos en el que el usuario debe cargar imágenes del área tomadas por un dron, junto con los datos del circuito eléctrico. Posteriormente, se utiliza un nodo de procesamiento para analizar las imágenes, generar resultados preliminares y luego volver a cargarlos en la plataforma para su visualización y análisis. Si bien este sistema representa un avance muy importante, presenta limitaciones como la generación de falsos positivos y lo manual que es todo procedimiento.

El proyecto Analytics4Vegetation aborda esta problemática utilizando tecnologías más avanzadas. Este sistema emplea sensores LiDAR montados en helicópteros o drones para mapear con alta precisión la vegetación y su proximidad a las líneas eléctricas. Además, incorpora algoritmos predictivos que permiten anticipar el crecimiento de la vegetación y generar alertas tempranas sobre posibles riesgos de interferencia con la red eléctrica [3].

Solución Propuesta:

Para resolver las limitaciones del proyecto de “Levantamiento Georreferenciado de Vegetación Adyacente a Líneas Eléctricas”, del procedimiento manual que este posee y mejorar la precisión del análisis de vegetación cercana a líneas eléctricas, se propone una plataforma web tipo Sistema de Información Geográfica (SIG) [4] que automatiza y centraliza todas las etapas del proyecto. Esta plataforma permitirá cargar imágenes capturadas por drones, enviarlas automáticamente a un servidor que tendrá un módulo especializado para generar ortomosaicos y nubes de puntos, y posteriormente realizar el análisis de la vegetación detectada en función de su cercanía real a los circuitos eléctricos.

El sistema se integrará con una base de datos donde se guardarán los circuitos analizados, arboles y vegetación detectada, así como las evaluaciones hechas a los circuitos en forma de capas espaciales. En el sistema se aceptará como parámetros de realizar el análisis la capa de circuitos y las imágenes tomadas, esto con el fin de un desarrollo mas realista y evitando el uso de un algoritmo para generar estos circuitos en la imagen. A través de esta solución, solo se procesará la vegetación que represente un peligro real para los circuitos, optimizando recursos y reduciendo falsos positivos. Esto se hará mediante un algoritmo que recorte la imagen, limitándola solo donde se encuentra el circuito georreferenciado para evitar procesar toda la imagen sin necesidad.

Además, la plataforma generará reportes descargables, mantendrá un historial de evaluaciones por sectores, y permitirá comparar cambios luego de intervenciones como podas de árboles. Esta solución busca hacer más eficiente el monitoreo de la red eléctrica, facilitando la toma de decisiones para el mantenimiento preventivo y correctivo.

Metodología:

Para el desarrollo del proyecto se propuso el uso del siguiente flujo de trabajo:

Ilustración 1. Diagrama Representativo del Procesamiento.

La interfaz web de la plataforma tendrá un panel para iniciar el procesamiento de las imágenes y el circuito. El usuario estará supuesto a subir dos archivos comprimidos: uno con los datos de los circuitos en formato de capas espaciales (shp, shx, dbf, cpg, sbx) y el otro con las imágenes del área de circuito tomadas por el dron. La aplicación procederá a validar estos archivos de que sean correctos para el procesamiento y luego los enviará como solicitud REST a un servidor que contendrá diferentes módulos que servirán para automatizar el procesamiento.

A parte del código de procesamiento, en el servidor se tendrán tres sistemas fundamentales en el funcionamiento del flujo. El primero es el Node ODM que es una herramienta utilizada para procesar imágenes tomadas por drones y generar productos como ortomosaicos, nubes de puntos, entre otros [5]. El siguiente es Geoserver la cual es una plataforma que permite compartir, visualizar y editar datos geoespaciales a través de la web [6]. El ultimo sistema sería una base de datos para almacenar las capas y todo registro de la aplicación y así tener persistencia.

Los módulos y sus responsabilidades son las siguientes.

1. Módulo de control.

  1. Maneja la comunicación entre la aplicación y el servidor.
  2. Recibe los archivos con los circuitos y las imágenes enviadas por el usuario, los extrae y válida que tenga los archivos necesarios para el procesamiento.
  3. Envía las imágenes al Nodo ODM para que este las procese y genere el ortomosaico y la nube de puntos para el análisis.
  4. Envía la capa de circuitos, el ortomosaico y la nube de puntos al módulo de procesamiento CV.
  5. Módulo de Procesamiento de Visión Computacional.
    1. Maneja todo el procesamiento de análisis de la ortofoto y la nube de puntos.
    2. Unifica el circuito con la ortofoto georreferenciada con el fin de que se sepa dónde se recortara la imagen para realizar el análisis en esta.
    3. Se recorta la imagen para tener solamente el área del circuito para ser analizada.
    4. Se convierte la ortofoto en formato de vectores con el fin de ser manejadas computacionalmente.
    5. Se calcula el Índice de Verdor Triangular para poder sacar la capa verde de la ortofoto.
    6. Se crea una imagen binaria en base a la ortofoto para poder aplicar los filtros.
    7. Se aplica un filtro morfológico para segmentar la vegetación de la imagen.
    8. Se detectan los contornos como medida adicional para obtener vegetación.
    9. En la vegetación, mediante un algoritmo se detectan los centroides para detectar la ubicación de los árboles en la vegetación.
    10. Se utiliza el algoritmo Flood Fill en conjunto de los centroides para identificar y rellenar de forma eficiente las áreas vegetativas en la imagen.
    11. Se genera una máscara de vegetación utilizándolos contornos resultantes de Flood Fill.
    12. Se analiza detalladamente la altura de la vegetación cercana al circuito, teniendo en cuenta los polígonos y los vértices que los definen.
    13. Finalmente, cada segmento del circuito se clasifica según un índice de riesgo basado en dos factores: la proximidad de la vegetación y la altura de esta en relación con el circuito.
    14. Se envían las capas de circuitos, árboles, vegetación y el análisis realizado al módulo de almacenamiento.
  6. Módulo de Almacenamiento y Registro.
      1. Se convierte el análisis realizado en un objeto serial para ser almacenado en la base de datos. Básicamente, sería el mismo circuito con cada segmento indexado según su nivel de riesgo.
      2. Se crea un origen de datos en Geoserver para almacenar la ortofoto y poder mostrarla en el mapa de la aplicación.
      3. Se crea un objeto que relacione la ruta donde esta almacenada la imagen en Geoserver con el sector analizado y la fecha del análisis para poder filtrar esa imagen y mostrarla en el mapa desde la aplicación.
      4. Guardar los datos de la imagen, las capas de vegetación, árboles, circuitos y los segmentos analizados en la base de datos.

El usuario debe ser capaz de ver los circuitos, árboles, vegetación y el análisis realizado, filtrándolo por el nombre del sector analizado en el mapa de la aplicación. Estas capas son traídas en formato WMS [7] desde Geoserver para que las capas se puedan visualizarse en el mapa de forma casi instantánea. De igual forma, se deben descargar reportes desde la aplicación de los segmentos analizados según el usuario lo desee.

Resultados Obtenidos:

Con las imágenes tomadas por el dron en el proyecto anterior, se utilizaron como pruebas enviándolas al servidor de procesamiento. En conjunto con estas, se usó una capa de circuitos referente al área en la que se tomaron las imágenes. Para identificar el procesamiento, los datos que se envían se relacionan a una tarea creada por la aplicación, que se almacena en la base de datos y el ID de la misma es enviada al servidor de procesamiento para tener una constancia del estado del flujo.

Ilustración 2. Panel de Inicio del Procesamiento en la Plataforma.

El tiempo de procesamiento depende de la cantidad de imágenes enviadas. En este caso se enviaron 45 imágenes y todo el procedimiento tardó aproximadamente de 5-8 minutos. Podemos verificar que si se enviaron los datos revisando la dirección del nodo ODM y el estado de la tarea realizada.

Ilustración 3. Estado del Procesamiento de las Imágenes en el Node ODM.

Podemos monitorear el estado de la tarea en la lista de tareas realizadas en el panel de procesamiento, el cual se actualiza cada vez que los datos pasan de una fase a otra o si ocurre un erro durante el proceso. Una vez terminado el proceso podemos ir al area del mapa para verificar que los datos se almacenaron correctamente en la base de datos y que se traigan las capas desde Geoserver correctamente.

Ilustración 4. Mapa de la Plataforma.

En el campo de sector se traen todos los sectores que se tienen guardados en la base de datos, los cuales representan el área de análisis. Se muestran tres opciones para mostrar cada una de las capas que se sacaron del análisis enviado.

Ilustración 5. Capas del Sector Seleccionado Representadas en el Mapa.

En la imagen podemos ver las capas que se detectaron en la ortofoto trayéndose desde Geoserver. Las líneas azules representan el circuito que se subió en el panel de procesamiento para analizar, los puntos verdes son los árboles que se detectaron en el procesamiento de centroides de la vegetación y los polígonos grises representan la máscara de vegetación de la imagen.

Ilustración 6. Capa de Segmentos Vulnerables del Circuito Representada en el Mapa.

En el cambo de “Fecha de Análisis”, se despliega la lista de fechas en las que se hizo un análisis a ese sector. Cuando presionamos el botón “Mostrar análisis”, se nos trae la capa de circuitos, pero segmentado por colores que simbolizan el nivel de riesgo que representa la vegetación cercana a este segmento. Un segmento rojo representa un nivel de peligrosidad alto para ese segmento, amarillo medio y verde bajo, todo en base a la cercanía de la vegetación.

Ilustración 7. Ortofoto Utilizada para el Análisis Representada en el Mapa.

Para evidenciar que se hizo un correcto análisis de la imagen, podemos traer la misma desde Geoserver y mostrarla en la ubicación correcta del mapa, debido a que esta foto está georreferenciada.

Ilustración 8. Capa de Segmentos Vulnerables Unificada con la Imagen.

Como podemos ver, si mostramos el circuito por encima de la imagen, vemos que el nivel de peligrosidad de los segmentos es coherente con la ubicación de la vegetación en la trayectoria del circuito.

Ilustración 9. Capas de Árboles, Vegetación y Segmentos Vulnerables Unificadas en la Imagen.

Si mostramos las demás capas por encima de la imagen, evidentemente vemos como la vegetación se acopla en el mismo lugar donde se muestran en la imagen. Además, vemos que no se ve toda la vegetación de la imagen, esto se debe al proceso de recorte que se le hace a la imagen antes de realizar el análisis de riesgo. La imagen se recorta al nivel del circuito, es decir, solo se analizará el segmento de la imagen por donde pasa el circuito eléctrico, esto para evitar procesamiento innecesario, limitando el análisis a ser realiza con la vegetación cercana al circuito.

Conclusiones:

Este proyecto representa un avance significativo en la gestión automatizada del riesgo asociado a la vegetación cercana a los circuitos eléctricos. Al integrar procesamiento de imágenes aéreas, análisis geoespacial, visión computacional y visualización en un entorno web centralizado, esta solución mejora la precisión del diagnóstico, reduce la intervención manual y optimiza los recursos disponibles para el mantenimiento preventivo. Los resultados obtenidos validan su efectividad, mostrando un análisis coherente, segmentado por niveles de riesgo, y una visualización georreferenciada precisa. Esta plataforma no solo facilita la toma de decisiones operativas, sino que también promueve una gestión más segura y eficiente de la red eléctrica nacional.

Referencias:

  1. E. H. Plus, «Importancia de la poda para garantizar el servicio eléctrico,» [en línea]. Disponible en: https://ehplus.do/capsula-informativa-importancia-de-la-poda-paragarantizar-el-servicio-electrico/. [Accedido: 02-dic-2024].
  2. Ministerio de Energía y Minas, «Reglamento de Aplicación Ley 125-01,» [en línea]. Disponible en: https://mem.gob.do/wp-content/uploads/2019/04/Reglamento-deAplicaci%C3%B3n-Ley-125-01.pdf. [Accedido: 02-dic-2024].
  3. EDP, «Vega: Análisis de la vegetación situada cerca de redes eléctricas,» [en línea]. Disponible en: https://www.edp.com/es/innovacion/vega-analisis-de-la-vegetacionsituada-cerca-de-redes-electricas. [Accedido: 02-dic-2024].
  4. “GIS (geographic information system)”, Nationalgeographic.org. [En línea].

Disponible en: https://education.nationalgeographic.org/resource/geographic-

information-system-gis [Consultado: 13-jul-2025].

  1. “Open-source orthomosaicing with web-ODM and node-ODM API”, AGSRT. [En línea]. Disponible en: https://www.agsrt.com/event-details-registration/opensource-orthomosaicing-with-web-odm-and-node-odm-api. [Consultado: 13-jul-2025].
  2. “GeoServer”, Geoserver.org. [En línea]. Disponible en: https://geoserver.org/.

[Consultado: 13-jul-2025].

  1. “Web map service”, Open Geospatial Consortium. [En línea]. Disponible en:

https://www.ogc.org/standards/wms/. [Consultado: 13-jul-2025].

Detección Inteligente de Fugas en Redes de Agua: Una Plataforma Integrada con Sensores, Simulación e IA

Wheliver Rivas duran

Pontificia universidad católica madre y maestra, PUCMM

Introducción:

La detección de fugas en redes de distribución de agua potable representa uno de los retos más persistentes en la gestión urbana de recursos hídricos. Estas pérdidas no solo generan impactos económicos significativos, sino que también comprometen la sostenibilidad y disponibilidad del agua en regiones vulnerables. Ante este panorama, el presente proyecto surge como una solución innovadora desarrollada en la Pontificia Universidad Católica Madre y Maestra (PUCMM).

El sistema integra sensores físicos, simulación hidráulica y tecnologías modernas de software para ofrecer un monitoreo continuo y en tiempo real. La motivación del proyecto se basa en la necesidad de sustituir los métodos de inspección manual, lentos e imprecisos, por una plataforma inteligente, automatizada y escalable.

Contexto:

Las pérdidas de agua no contabilizada (Non-Revenue Water) representan hasta un 40% del volumen tratado en algunas ciudades, según estudios globales. Esta fuga de recursos afecta a operadoras, usuarios y el medioambiente. Las tecnologías tradicionales, como la detección acústica o las inspecciones manuales, son costosas, lentas e ineficientes ante fugas pequeñas o intermitentes. Sistemas como SMARTWATER, FIDO AI y LeakMan han demostrado la eficacia del uso combinado de sensores e inteligencia artificial, pero su implementación suele ser costosa o requiere infraestructura de difícil acceso. En ese contexto, este proyecto ofrece una alternativa accesible, escalable y altamente tecnológica.

Vista general del prototipo físico instalado en laboratorio con sensores en línea.

Enfoque de la problemática:

El desarrollo de este proyecto ha implementado un sistema de monitoreo inteligente para detectar fugas en redes hidráulicas urbanas mediante sensores físicos, simulación EPANET, backend en FastAPI y una interfaz Flutter. Se diseñó una red de nodos físicos basada en ESP32, con sensores de presión y flujo, conectados vía MQTT. El sistema permite el análisis en tiempo real, generación de alertas, mapas interactivos, y comparación con modelos simulados, alcanzando una precisión superior al 75% en pruebas de campo. El prototipo demuestra su capacidad para operar de manera continua, con validación cruzada entre sensores y gemelos digitales.

Detalle de los sensores de presión y flujo montados sobre las tuberías.

La metodología adoptada en este proyecto se basó en una arquitectura híbrida que combina la instalación de sensores físicos con simulaciones hidráulicas. En primera instancia, se diseñó una red de distribución a escala utilizando tuberías de CPVC y PVC, sobre las cuales se instalaron sensores de presión (30 PSI) y sensores de flujo tipo DIGITEN. Estos sensores se conectaron a microcontroladores ESP32, encargados de recopilar datos y transmitirlos a un servidor remoto usando el protocolo MQTT sobre redes Wi-Fi. Este enfoque de telemetría IoT permitió monitorear constantemente las condiciones hidráulicas de la red, con una frecuencia ajustable según la necesidad operativa.

Visualización del Sistema y Simulaciones:

Simulación de red hidráulica en EPANET utilizada para la comparación de datos.

Registro de datos:

Para interpretar los datos recolectados, se utilizó un servidor backend desarrollado con FastAPI. Este sistema no solo recibe y almacena los datos, sino que también realiza procesamiento en tiempo real, comparando los valores actuales con simulaciones obtenidas mediante EPANET. Esta integración con el simulador hidráulico permitió evaluar el comportamiento esperado frente a condiciones ideales, identificando cualquier desviación significativa como una posible fuga. La simulación se realizó sobre un modelo .inp ajustado al diseño físico de la maqueta, garantizando coherencia entre ambos entornos.

La interfaz de usuario fue desarrollada con Flutter, presentando mapas interactivos, gráficas dinámicas y tarjetas de información por nodo. Este diseño facilita el acceso a datos en tiempo real, permitiendo que operadores técnicos o usuarios administrativos puedan localizar rápidamente puntos críticos y visualizar las alertas generadas por el sistema. Se incorporaron animaciones visuales como el efecto ripple para representar nodos con fugas, mejorando la interpretación visual del estado de la red.

Recepción de datos en tiempo real vía MQTT y procesamiento en backend FastAPI.

Además, se diseñó un simulador IoT de alto volumen, capaz de emular más de 5000 sensores virtuales, lo que permitió validar la escalabilidad del backend bajo condiciones de estrés, y entrenar modelos de detección usando aprendizaje automático con datos sintéticos. Esta fase fue crucial para asegurar que el sistema mantuviera su estabilidad y tiempo de respuesta, incluso con múltiples conexiones simultáneas.

Limitaciones y Observaciones:

Durante las pruebas, el sistema demostró una tasa de precisión del 78% en la detección de fugas, con una latencia promedio de alerta de 2.3 segundos. El prototipo físico respondió correctamente a variaciones de presión introducidas manualmente, y la visualización de alertas en el mapa interactivo coincidió con la ubicación física de las fugas simuladas. La comparación entre los valores obtenidos en campo y los valores esperados por EPANET mostró una desviación promedio inferior al 10%, validando la efectividad del modelo hidráulico calibrado.

El simulador IoT permitió ejecutar cargas de más de 5000 nodos virtuales sin interrupciones en el backend. Además, las visualizaciones en Flutter conservaron fluidez en la interfaz incluso al mostrar múltiples alertas simultáneas. Estos resultados evidencian la robustez del sistema tanto en su componente físico como en el virtual, confirmando su potencial para implementaciones reales en redes urbanas.

Vista de la interfaz Flutter con geolocalización de nodos en el sistema de detección de fugas.

Interfaz del Usuario:

La convergencia entre sensores físicos, simulación hidráulica e inteligencia artificial permitió desarrollar un sistema de monitoreo integral para redes de agua potable. El prototipo demostró su funcionalidad en un entorno controlado, y su arquitectura es fácilmente escalable para redes reales. La combinación de herramientas como MQTT, FastAPI, EPANET y Flutter ofrece una solución robusta, accesible y altamente visual, que puede adaptarse a diferentes entornos operativos.

Como próximos pasos, se recomienda realizar pruebas en redes reales con condiciones variables, así como extender las capacidades de predicción mediante técnicas de aprendizaje profundo. También se sugiere desarrollar módulos de mantenimiento predictivo y una aplicación móvil dedicada al personal de campo. Este proyecto demuestra que es posible reducir significativamente las pérdidas de agua y mejorar la eficiencia operativa con tecnologías accesibles y bien integradas.

Resultados:

Durante la fase experimental del proyecto, se logró validar la efectividad del sistema en condiciones controladas, obteniendo los siguientes resultados claves: Precisión en la detección de fugas: El sistema alcanzó una precisión del 78% en la identificación de fugas reales, comparando los datos captados por los sensores con los valores simulados por EPANET.

Latencia promedio: El tiempo de respuesta entre la detección de una anomalía y la visualización en la interfaz fue de 2.3 segundos, permitiendo alertas casi en tiempo real.

Estabilidad del sistema: El backend en FastAPI mantuvo conexión constante con sensores físicos y el simulador IoT, incluso bajo condiciones de estrés con más de 5000 nodos virtuales.

Visualización geoespacial: La aplicación Flutter permitió representar los nodos en un mapa interactivo con animaciones visuales para alertas, facilitando la interpretación para operadores técnicos.

Almacenamiento y consulta eficiente: La integración con Firebase garantizó almacenamiento escalable y consultas rápidas de datos históricos.

Conclusiones:

Este proyecto demuestra que es posible implementar un sistema inteligente, robusto y accesible para el monitoreo continuo de redes de agua potable, integrando sensores físicos, simulación hidráulica y visualización interactiva:

Innovación tecnológica aplicada: La combinación de nodos físicos, modelos simulados y procesamiento en tiempo real representa un avance frente a las soluciones tradicionales de detección de fugas.

Escalabilidad y aplicabilidad: La arquitectura modular permite su adaptación a redes reales más complejas, con posibilidad de expansión hacia sectores rurales o urbanos.

Visualización amigable: La interfaz Flutter mejora la usabilidad del sistema para personal técnico y administrativo, facilitando la toma de decisiones operativas.

Base sólida para futuras investigaciones: Este sistema puede ampliarse con aprendizaje profundo, mantenimiento predictivo o integración con datos meteorológicos y sensores de calidad de agua.

Impacto social y ambiental: Al reducir significativamente las pérdidas de agua, la plataforma contribuye a una gestión más sostenible del recurso hídrico.

Referencias:

  1. Sharanya, U. G. et al., “Design and Implementation of IoT-Based Water Quality and Leakage Monitoring System,” IEEE, 2024.
  2. Peng, H. et al., “Leakage Detection in Water Distribution Systems Based on Logarithmic)” Spectrogram CNN,” Journal of Water Resources, vol. 150, no. 6, 2024.
  3. Zhou, X. et al., “Deep Learning for Burst Leakage Localization Using Pressure Data,” Journal of Hydroinformatics, vol. 21, no. 5, 2019.
  4. Abusukhon, A. et al., “A Novel Technique for Detecting Underground Water Pipeline Leakage,” Journal of Universal Computer Science, 2023.
  5. Rodríguez-Moreno, M. et al., “IoT Architecture for Monitoring and Detection of Water Leaks,” Universidad Politécnica Salesiana, 2022.
  6. Elshazly, D. et al., “GIS-Based Machine Learning for Leak Detection in Water Distribution Networks,” Applied Sciences, vol. 14, no. 13, 2024.
  7. A. J. Mounce, J. Machell, and J. Boxall, “Development and verification of an online burst detection methodology for water distribution systems,” Journal of Hydroinformatics, vol. 12, no. 2, pp. 173–191, 2010.
  8. B. Wu, J. Zhao, and M. Liu, “A Survey of Water Distribution System Monitoring and Leak Detection Technologies,” Sensors, vol. 20, no. 18, pp. 5149, 2020.
  1. F. Meneses and P. Ferreira, “Water leakage detection and localization using machine learning and wireless sensor networks,” Procedia Engineering, vol. 89, pp. 251–257, 2014.
  1. A. Pardo, L. Rodriguez, and F. Martinez, “EPANET-MATLAB toolkit: An open-source software for pipe network simulation,” Environmental Modelling & Software, vol. 63, pp. 19–25, 2015.
  2. S. Puust, Z. Kapelan, D. A. Savic, and T. Koppel, “A review of methods for leakage management in pipe networks,” Urban Water Journal, vol. 7, no. 1, pp. 25–45, 2010.
  1. Y. Li, Y. Bi, and S. Liu, “Anomaly Detection in Water Distribution Systems Using Graph Neural Networks,” in Proc. IEEE Int. Conf. on Smart Grid Communications, 2021, pp. 1–6.

Detección y ubicación de paneles solares defectuosos

Placas solares baratas - 8 fallos críticos

Bryant Joel Reynoso Taveras y Wilson De Jesús Gómez Bonilla

Pontificia Universidad Católica Madre y Maestra, PUCMM

Introducción:

La energía solar se ha posicionado como una de las principales alternativas para avanzar hacia un modelo energético más sostenible en la República Dominicana. Con una alta radiación solar promedio durante todo el año, el país ha visto un crecimiento acelerado en la instalación de sistemas fotovoltaicos tanto en entornos urbanos como rurales, desde viviendas particulares hasta parques solares de gran escala. No obstante, este desarrollo trae consigo un nuevo desafío: cómo monitorear y mantener de forma eficiente esas instalaciones en funcionamiento, garantizando su rendimiento a lo largo del tiempo.

En ese contexto, surge el proyecto “Detección y ubicación de paneles solares defectuosos”, desarrollado por los estudiantes Bryant Joel Reynoso Taveras y Wilson De Jesús Gómez Bonilla como parte de su trabajo de grado en la Pontificia Universidad Católica Madre y Maestra (PUCMM). El propósito fundamental es construir una herramienta tecnológica capaz de identificar visualmente paneles solares en imágenes aéreas tomadas por drones, determinar su ubicación geográfica y representar los hallazgos en una interfaz visual sencilla. Esta solución no solo automatiza una tarea que hasta ahora dependía casi exclusivamente de inspecciones manuales, sino que también responde a una necesidad local concreta: la falta de sistemas especializados de monitoreo para infraestructura solar.

El proyecto integra tecnologías de visión por computadora, inteligencia artificial y mapeo geoespacial. Empleando modelos de detección como YOLOv8-OBB, entrenados con imágenes anotadas localmente, se busca automatizar el reconocimiento de paneles solares en condiciones reales del país. Además, con herramientas como OpenDroneMap (ODM) y una aplicación móvil desarrollada en Flutter, se ofrece al usuario final una visualización intuitiva y funcional de los resultados. Esta propuesta representa un paso importante hacia la transformación digital del sector energético renovable en República Dominicana.

Más allá del componente técnico, esta iniciativa nace del deseo de contribuir al fortalecimiento de la infraestructura energética nacional. En un momento donde el cambio climático exige acciones concretas, facilitar el monitoreo de los sistemas solares es también una forma de proteger la inversión en tecnologías limpias y asegurar su impacto positivo a largo plazo. El proyecto se presenta, entonces, como una solución contextualizada, con el potencial de ser replicada, mejorada y escalada a nivel nacional e incluso regional.

Problemática y Estado del Arte:

El acelerado crecimiento de instalaciones solares en la República Dominicana ha puesto sobre la mesa una necesidad crítica: contar con mecanismos eficientes de inspección y monitoreo que garanticen la operatividad de estos sistemas a lo largo del tiempo. Aunque la expansión de la energía fotovoltaica representa un avance estratégico en la diversificación energética del país, su sostenibilidad depende, en gran medida, de la capacidad de detectar fallos o deterioro en los paneles instalados, especialmente en contextos donde las condiciones ambientales, la variabilidad climática y la exposición prolongada afectan su desempeño.

En la práctica, gran parte de las inspecciones solares en el país continúan realizándose de manera manual. Esto implica el desplazamiento físico de personal técnico, el uso de listas de chequeo tradicionales y la observación directa para identificar problemas visibles. Este enfoque, si bien funciona en pequeñas instalaciones, resulta inviable en sistemas distribuidos, techos de difícil acceso o parques solares de gran extensión. Además, introduce un margen de error humano que limita la estandarización de los procesos de mantenimiento y eleva los costos operativos. La falta de metodologías sistematizadas y de herramientas tecnológicas especializadas impide una supervisión eficiente a gran escala, restringiendo la capacidad de respuesta ante averías o pérdidas de rendimiento [1].

A nivel internacional, ya se han explorado soluciones que integran tecnologías como visión por computadora, aprendizaje profundo y vehículos aéreos no tripulados (drones) para automatizar la detección de paneles solares. En investigaciones pioneras como la de Malof et al., se emplearon imágenes aéreas de alta resolución y técnicas de segmentación supervisada para identificar paneles solares con resultados prometedores [2]. Otros trabajos, como el de Yu et al., propusieron el uso de redes neuronales convolucionales (CNN) profundas para detectar paneles en imágenes satelitales, logrando una precisión considerable incluso en entornos urbanos densos y complejos [3].

Una de las técnicas más utilizadas en la actualidad para este tipo de tareas es YOLO (You Only Look Once), un algoritmo de detección de objetos en tiempo real ampliamente validado por su capacidad de identificar múltiples elementos en una sola pasada sobre la imagen. Su eficiencia lo ha convertido en una herramienta clave en aplicaciones de inspección visual automatizada. Najibi et al. demostraron su utilidad al aplicarlo en contextos de detección aérea con estructuras pequeñas y similares a paneles solares, logrando alta velocidad y precisión [4].

Paralelamente, en el ámbito del mapeo georreferenciado, han surgido plataformas como OpenDroneMap (ODM), que permiten transformar conjuntos de imágenes aéreas en ortomosaicos detallados y modelos digitales del terreno. Estas soluciones han sido particularmente útiles en agricultura, conservación ambiental y monitoreo de infraestructuras energéticas [5]. Su valor radica en la capacidad de convertir información visual en mapas navegables, facilitando el análisis espacial y la toma de decisiones en terreno.

Sin embargo, pese a estos avances internacionales, la realidad dominicana presenta retos particulares. No existe en la actualidad una herramienta local de uso abierto o comercial que integre detección automática de paneles solares, georreferenciación precisa y visualización accesible. Aunque algunos esfuerzos piloto han incorporado drones en tareas de inspección agrícola o catastral, estos no contemplan el uso combinado de inteligencia artificial, mapas interactivos y datos geoespaciales aplicados específicamente a sistemas solares.

Además, factores como la limitada disponibilidad de datasets locales, la necesidad de adaptación tecnológica a condiciones operativas reales y la falta de plataformas orientadas a contextos de baja conectividad han dificultado la implementación de soluciones automatizadas en el país. Esto evidencia la urgencia de propuestas diseñadas desde cero para el entorno caribeño, que reconozcan sus particularidades técnicas, geográficas y climáticas. Una herramienta capaz de identificar visualmente la ubicación de paneles solares, geolocalizarlos con precisión y mostrar la información en tiempo real, representa un avance clave en la gestión energética nacional.

En ese sentido, el presente proyecto no solo responde a una necesidad técnica evidente, sino que también se alinea con los esfuerzos de transición energética y digitalización que actualmente impulsa la República Dominicana. Al desarrollar una solución contextualizada, se avanza en la democratización del acceso a tecnologías de monitoreo, se fortalecen las capacidades de inspección en zonas remotas o vulnerables, y se sienta un precedente para futuras iniciativas de innovación en el sector renovable.

Metodología:

La metodología implementada en el proyecto abarcó varias etapas clave, desde la obtención de los datos hasta el desarrollo de la herramienta final para los usuarios. Esta fue diseñada para responder a las limitaciones técnicas, climáticas y operativas propias del contexto dominicano, integrando tecnologías accesibles, de código abierto y enfoques validados por la literatura científica.

Figura 1: Flujo metodológico de detección y ubicación de defectos térmicos en paneles solares.

  1. Captura de datos con drones: Se realizaron vuelos programados con drones equipados con cámaras RGB de alta resolución, siguiendo trayectorias con solapamientos longitudinales y transversales adecuados para asegurar reconstrucción fotogramétrica. Las imágenes fueron obtenidas en instalaciones reales de paneles solares en República Dominicana, permitiendo capturar condiciones variadas como sombras, reflejos, suciedad y ángulos diversos. Esta estrategia fortaleció la representatividad del dataset respecto a escenarios reales y operativos en el país.
  2. Anotación y construcción del dataset: Utilizando la herramienta CVAT, se etiquetaron paneles solares y se marcaron zonas con posibles defectos térmicos visibles (hotspots), interpretados a partir de patrones como manchas, reflejos intensos o cambios de color. Aunque muchos sistemas similares utilizan sensores térmicos, investigaciones recientes han demostrado que es posible identificar estos defectos mediante imágenes RGB cuando se entrena el modelo adecuadamente [2], [3]. Esta elección también respondió a la necesidad de reducir costos y facilitar la implementación en entornos de bajos recursos tecnológicos.
  3. Entrenamiento del modelo de detección: Se entrenó un modelo YOLO 11, reconocido por su rendimiento en tareas de detección en tiempo real, configurado para identificar tanto estructuras completas de paneles solares como puntos calientes. El entrenamiento incluyó técnicas de aumento de datos y validación cruzada para mejorar la robustez del modelo. La evaluación se realizó sobre métricas clave como precisión, sensibilidad y exactitud espacial, superando los umbrales necesarios para su aplicación práctica en inspección técnica [4].
  4. Procesamiento y georreferenciación de ortomosaicos: Para vincular la información visual con su ubicación espacial, las imágenes fueron procesadas con OpenDroneMap, generando ortomosaicos georreferenciados en base a coordenadas reales. Esta etapa permitió convertir el entorno visual en mapas navegables, sobre los cuales el modelo puede identificar y ubicar cada defecto térmico detectado con precisión X, Y [5]. Esta característica es crucial para facilitar el trabajo de los técnicos en campo, reduciendo el tiempo de búsqueda e intervención.
  5. Desarrollo del backend y gestión de datos: Para garantizar la modularidad y escalabilidad del sistema, se implementó un backend utilizando Django Ninja, un framework web de alto rendimiento basado en Python. Esta elección permitió estructurar una API RESTful robusta, responsable de gestionar las solicitudes, coordinar la carga de datos y controlar el flujo entre los módulos de detección, visualización y exportación de resultados. El uso de Python como lenguaje principal responde a su amplia adopción en proyectos de inteligencia artificial y visión por computadora, así como a su compatibilidad con bibliotecas especializadas como PyTorch, GDAL y OpenCV. Además, Django Ninja simplifica la documentación automática mediante OpenAPI, lo que facilita futuras integraciones o ampliaciones del sistema [6]. Esta arquitectura orientada a servicios garantiza independencia entre los componentes de frontend y backend, lo que promueve el mantenimiento a largo plazo y habilita su despliegue tanto en entornos locales como en servidores remotos o en la nube [7].
  6. Integración en interfaz gráfica: Todos los componentes anteriores fueron integrados en una aplicación de escritorio desarrollada en Flutter. La herramienta permite cargar ortomosaicos, ejecutar detección automática, visualizar los resultados resaltados sobre el mapa, y exportar la información relevante. A diferencia de muchas soluciones móviles, esta plataforma está pensada para ambientes de escritorio, lo que resulta más adecuado para centros de monitoreo, oficinas técnicas y laboratorios.
  7. Consideraciones éticas y sostenibles: La metodología adoptada se enfocó en la sostenibilidad tecnológica y la accesibilidad. Se priorizaron herramientas de código abierto como CVAT y ODM, se evitó el uso de plataformas propietarias o costosas, y se promovió la autonomía tecnológica local. Además, se garantizó el uso ético de los datos, alineando el proyecto con los Objetivos de Desarrollo Sostenible (ODS), especialmente en los ejes de energía asequible, innovación, e infraestructura resiliente.

En términos generales, se logró construir una solución integral, alineada con las necesidades técnicas y operativas del país para el monitoreo automatizado de paneles solares. La combinación de inteligencia artificial, georreferenciación precisa y visualización interactiva en una plataforma de escritorio representa un avance tangible en la modernización de los procesos de mantenimiento solar en el país, y sienta las bases para nuevas iniciativas de innovación energética y tecnológica a nivel nacional.

Resultados:

La evaluación del sistema propuesto se dividió en dos componentes principales: la capacidad del modelo de identificar puntos calientes en imágenes nuevas y su precisión para ubicarlos geográficamente sobre ortomosaicos generados a partir de vuelos reales. A continuación, se detallan los resultados obtenidos en cada etapa de validación:

  1. Detección de puntos calientes

Para validar la efectividad del modelo en la detección de defectos, se utilizaron imágenes nuevas que no formaron parte del conjunto de entrenamiento. Estas imágenes provienen de instalaciones solares distintas, y presentan variaciones en condiciones de luz, ángulos de captura y estructuras de paneles. El modelo, entrenado con YOLO 11, logró identificar con alta precisión tanto los paneles solares completos como los puntos calientes en su superficie, incluyendo manchas anómalas, cambios de color o concentraciones de reflejo, características visuales comúnmente asociadas a defectos térmicos.

Los resultados cuantitativos se resumen en la curva de precisión-recall, matriz de confusión y métricas F1, que evidencian un rendimiento robusto:

Métricas: Valor
mAP@50 94.1%
Recall
89.5%
F1-Score
0.915

Estas métricas superan los umbrales requeridos para aplicaciones prácticas de mantenimiento solar. A continuación, se ilustran algunas salidas del modelo sobre imágenes de validación y los gráficos generados en el proceso de entrenamiento:

Gráficos de evaluación del modelo:

Curva F1: Para mostrar el rendimiento general del modelo:

A blue line graph with white text

AI-generated content may be incorrect.

Figura 2: Curva F1 en función de la confianza para el modelo YOLO 11.

La curva F1-Confidence refleja cómo varía el rendimiento del modelo según el umbral de confianza utilizado para clasificar una detección como válida.

La curva alcanza su punto máximo en F1 ≈ 0.84 cuando el umbral de confianza es de aproximadamente 0.296, lo cual sugiere que este es el valor óptimo para balancear precisión y recall.

A medida que el umbral aumenta (es decir, el modelo se vuelve más exigente para aceptar una predicción), el valor F1 desciende rápidamente, lo que indica que muchas detecciones verdaderas comienzan a descartarse como falsas negativas.

Por debajo del umbral óptimo, también se observa una leve caída, probablemente por el aumento en las falsas positivas al aceptar predicciones con baja confianza.

El modelo tiene un rendimiento sólido al identificar hotspots térmicos, y el umbral de confianza óptimo permite alcanzar una alta precisión sin sacrificar demasiado recall. Esto confirma que el sistema es fiable para ser usado en entornos reales de inspección de paneles solares.

Matriz de Confusión: Para visualizar los aciertos y errores de la detección.

A blue squares with white text

AI-generated content may be incorrect.

Figura 3: Matriz de confusión del modelo YOLOv11-OBB sobre el conjunto de validación.

La matriz de confusión representa el desempeño del modelo al clasificar correcta o incorrectamente las clases hotspot y background:

  • 437 verdaderos positivos (TP): hotspots correctamente detectados.
  • 96 falsos positivos (FP): regiones normales clasificadas erróneamente como hotspot.
  • 70 falsos negativos (FN): hotspots reales no detectados por el modelo.
  • (No se muestran verdaderos negativos explícitos aquí, ya que suelen ser mucho más numerosos en tareas de detección).

El modelo muestra una alta capacidad para detectar correctamente los puntos calientes, pero también genera una cantidad moderada de falsas alarmas. Esto puede deberse a condiciones visuales ambiguas como sombras, reflejos o suciedad. Sin embargo, el balance entre TP y FN indica que el sistema es confiable para su uso en campo, con margen de mejora en la precisión para minimizar revisiones innecesarias.

Detección visual de puntos calientes sobre imágenes no vistas:

A collage of images of buildings

AI-generated content may be incorrect.

Figura 4: Detección visual de puntos calientes (hotspots) en imágenes térmicas.

Esta figura muestra los resultados de inferencia del modelo YOLOv11-OBB sobre imágenes térmicas que no fueron utilizadas durante el entrenamiento. Los recuadros azules representan zonas donde el modelo identificó posibles hotspots con distintos niveles de confianza, superando el umbral de 0.3.

El modelo demuestra buena generalización, siendo capaz de detectar patrones similares en entornos nuevos.

Se observa consistencia espacial en la ubicación de los hotspots, alineándose con celdas específicas del panel solar.

Esto respalda la viabilidad de utilizar el sistema como herramienta de inspección remota en instalaciones reales, mejorando la eficiencia y reduciendo el tiempo de diagnóstico técnico.

  1. Geolocalización y visualización

Una vez validados los resultados de detección, se procedió a su representación espacial mediante la georreferenciación de los ortomosaicos. Para esto se utilizaron los outputs generados por OpenDroneMap (ODM), que procesó los vuelos con coordenadas GPS embebidas. Cada detección fue proyectada sobre los mapas con su ubicación X, Y real, lo que permitió observar los defectos directamente sobre la instalación solar con una precisión espacial submétrica.

Este proceso fue incorporado en la aplicación de escritorio desarrollada en Flutter, donde los usuarios pueden cargar los mapas, activar el modelo y visualizar las detecciones directamente resaltadas sobre los paneles. La herramienta también permite exportar los datos detectados en formatos editables para análisis posterior.

Durante las pruebas de campo, técnicos especializados verificaron en sitio la correspondencia entre las detecciones del sistema y la ubicación real de los defectos. Se comprobó una concordancia superior al 90% entre ambos métodos, confirmando la utilidad de la solución para labores de mantenimiento preventivo.

Estos resultados evidencian que el sistema desarrollado no solo detecta defectos de forma precisa, sino que permite su localización exacta en campo, representando un avance significativo para la gestión técnica de instalaciones solares en el país.

Conclusión:

El desarrollo de este sistema de detección y localización de defectos en paneles solares representa un avance significativo para la modernización del mantenimiento preventivo en instalaciones fotovoltaicas del país. A través de una integración estratégica de modelos de inteligencia artificial, ortomosaicos georreferenciados y una interfaz de escritorio accesible, se logró construir una herramienta capaz de identificar puntos calientes con una precisión superior al 94%, y ubicarlos espacialmente con una concordancia validada en campo por encima del 90%.

Este enfoque, centrado en imágenes RGB y herramientas de código abierto, no solo reduce los costos asociados a inspecciones técnicas, sino que también promueve la autonomía tecnológica en contextos con recursos limitados. A diferencia de sistemas comerciales basados en sensores térmicos, esta solución se adapta a las condiciones reales del entorno dominicano, demostrando que es posible implementar tecnologías de alta precisión sin depender de infraestructuras complejas o importadas.

Además, la validación técnica con métricas sólidas y evidencia visual sustenta su aplicabilidad en escenarios reales. La experiencia adquirida en la recolección, anotación y modelado de datos locales sienta una base sólida para futuras mejoras y aplicaciones más amplias en el sector energético y agrícola.

En definitiva, este proyecto no solo cumple con los objetivos planteados, sino que también abre una vía concreta hacia la innovación sostenible en el uso de la inteligencia artificial para resolver problemas técnicos críticos en el país.

Reflexión final

Este proyecto nos permitió comprender de forma práctica el valor que tiene la inteligencia artificial cuando se combina con tecnologías geoespaciales para resolver problemas reales. Más allá del desarrollo técnico, uno de los mayores aprendizajes fue la importancia de trabajar con datos locales y adaptar las herramientas al contexto dominicano, en lugar de depender de soluciones genéricas que muchas veces resultan inaccesibles o incompatibles con nuestras condiciones.

La herramienta desarrollada demuestra que es posible implementar sistemas avanzados de monitoreo solar con recursos limitados, manteniendo altos niveles de precisión y utilidad operativa. Sin embargo, aún quedan desafíos por resolver: optimizar la detección en condiciones más complejas, automatizar el etiquetado de datos, y facilitar el despliegue del sistema a mayor escala en parques solares del país.

El camino recorrido sienta las bases para escalar este prototipo hacia una solución completa y transferible. Próximos pasos podrían incluir la colaboración con empresas del sector energético, la integración con plataformas móviles o en la nube, y la exploración de nuevas aplicaciones en agricultura, infraestructura o gestión ambiental.

Referencias:

[1] M. Gómez, J. and Restrepo, “Aplicación de vehículos aéreos no tripulados para inspección de paneles solares en Colombia,” Rev. Colomb. Tecnol. Av., vol. 4, no. 1, pp. 33–41, 2021.

[2] R. Malof, J.; Bradbury, K.; Collins, L.; Newell, “Automatic Detection of Solar Photovoltaic Arrays in High Resolution Aerial Imagery,” Appl. Energy, vol. 183, pp. 229–240, 2016.

[3] S. Yu, G.; Liu, L.; Shen, Y.; Zhang, “Solar panel detection using deep convolutional neural networks in satellite images,” Remote Sens., vol. 13, no. 2, pp. 222–238, 2021.

[4] L. S. Najibi, A.; Samangouei, P.; Chellappa, R.; Davis, “SSH: Single Stage Headless Face Detecto,” 2017.

[5] O. Community, “Solar farm mapping with ODM.”

[6] William S. Vincent, Django for Professionals: Production websites with Python & Django, 2nd ed. Vitor Services, 2021.

[7] D. Das R. Roy, M. Mishra, “Design and Development of a RESTful API using Django REST Framework,” Int. J. Comput. Appl., vol. 182, pp. 1–5, 2019.