Predicción de variaciones de precios de productos básicos en República Dominicana mediante series temporales

Ramón Del Villar & Gilbert García – Ingeniería en Ciencias de la Computación, Pontificia Universidad Católica Madre y Maestra (PUCMM)

Introducción

En la República Dominicana se han observado fluctuaciones significativas en los precios de productos básicos de la canasta familiar. Estos vaivenes de precios generan preocupación en consumidores y autoridades, ya que afectan el poder adquisitivo de los hogares y crean incertidumbre en productores y comerciantes. Diversos factores contribuyen a estas variaciones: la estacionalidad (por ejemplo, ciertas cosechas agrícolas encarecen fuera de temporada), factores macroeconómicos como la inflación general y los cambios en la tasa de cambio del dólar, además de dinámicas de mercado (oferta, demanda e incluso especulación). En conjunto, estos elementos dificultan predecir los precios futuros de alimentos esenciales, complicando la planificación financiera de las familias y la toma de decisiones de las autoridades regulatorias.

Frente a esta problemática, surge la necesidad de una solución proactiva que permita anticipar las variaciones de precios de productos básicos de forma eficiente. Actualmente, las instituciones locales (por ejemplo, Pro Consumidor y el Ministerio de Industria y Comercio) monitorean y publican precios de alimentos en tiempo real mediante plataformas digitales; sin embargo, dichas iniciativas se enfocan en la transparencia del precio actual más que en la predicción de su comportamiento futuro. Es decir, los consumidores pueden consultar en línea los precios vigentes de una gran variedad de productos (a través de herramientas como el Sistema Dominicano de Información de Precios, SIDIP), lo que mejora la información disponible, pero no se cuenta con alertas ni pronósticos sobre cómo podrían evolucionar esos precios en las próximas semanas. Este proyecto de investigación se enfoca precisamente en cubrir ese vacío, desarrollando un modelo predictivo de precios empleando análisis de series temporales para reducir la incertidumbre y fomentar una mayor anticipación en el mercado de alimentos básicos.

El trabajo ha sido realizado como proyecto de grado por estudiantes de Ingeniería en Ciencias de la Computación de la PUCMM. El objetivo general es claro y de alto impacto social: crear un sistema capaz de pronosticar los precios futuros de productos esenciales de la canasta básica dominicana a partir de datos históricos, de manera que distintos actores puedan tomar decisiones informadas. En términos sencillos, se busca dotar a los consumidores de una herramienta que les indique si un producto tenderá a subir de precio (para adelantarse en la compra) o bajar (para planificar sus gastos), al mismo tiempo que las autoridades podrían detectar con anticipación alzas anómalas y los comerciantes ajustar sus inventarios con menor riesgo. A continuación, se presentan los detalles del problema abordado, la metodología seguida y los resultados obtenidos en el desarrollo de este sistema predictivo.

Problemática y Estado del Arte

La volatilidad en los precios de alimentos básicos –como el arroz, las habichuelas, los huevos o el pollo– es un desafío persistente en la economía dominicana. Los consumidores de ingresos medios y bajos son especialmente vulnerables a cambios abruptos de precios, ya que dificultan la organización de presupuestos familiares y pueden traducirse en menor acceso a productos de primera necesidad. Por ejemplo, incrementos repentinos en el precio del arroz o las habichuelas impactan de inmediato la canasta básica, obligando a las familias a reasignar gastos o incluso a prescindir de ciertos alimentos. A nivel de mercado, los comerciantes y pequeños productores también enfrentan incertidumbre: la falta de previsibilidad en los precios complica decisiones sobre cuánto stock comprar o producir, y puede ocasionar pérdidas si los precios caen inesperadamente luego de haber almacenado producto costoso. Estudios a nivel internacional han confirmado que este tipo de volatilidad de precios de alimentos puede amenazar la seguridad alimentaria y la estabilidad económica en países en desarrollo. En particular, se han observado patrones de alta volatilidad asociada a factores externos (clima, mercados globales) y periodos inflacionarios, los cuales afectan negativamente tanto a consumidores como a productores [1]. Resolver esta problemática permitiría aliviar la carga económica en los hogares y mejorar la eficiencia en la regulación del mercado interno.

En respuesta a la volatilidad de precios, diversos países de Latinoamérica han implementado iniciativas orientadas a la transparencia del mercado. Por ejemplo, en México la Procuraduría Federal del Consumidor lanzó la plataforma “Quién es Quién en los Precios” para informar diariamente el costo de la canasta básica en distintos establecimientos, mientras que en Chile existen observatorios de precios en línea para monitorear productos de primera necesidad. En República Dominicana, Pro Consumidor puso en marcha el SIDIP, un sistema en línea que permite comparar precios en tiempo real de una amplia variedad de alimentos en supermercados y mercados del país. Estas plataformas gubernamentales brindan a los ciudadanos información actualizada y fomentan la competencia, al permitir identificar dónde comprar más barato. Sin embargo, la mayoría de estas soluciones no incorporan modelos de predicción para estimar valores futuros; se limitan a informar los precios actuales o históricos. Esto deja una brecha importante: la disponibilidad de datos abiertos ha mejorado la visibilidad del mercado, pero aún hace falta dar el salto hacia la analítica predictiva para convertir esos datos en alertas o proyecciones útiles a futuro. Es aquí donde nuestro proyecto se posiciona, al proponer una herramienta que no solo muestre el precio de hoy, sino que anticipe el de mañana.

En cuanto a enfoques técnicos para predecir precios, la literatura especializada ofrece varios caminos. Un método estadístico tradicional ampliamente utilizado es el ARIMA (AutoRegressive Integrated Moving Average), propuesto originalmente por Box y Jenkins en la década de 1970. Modelos ARIMA y sus variantes han sido aplicados con éxito en la predicción de precios agrícolas y alimenticios en diversos estudios clásicos, logrando capturar patrones estacionales y tendencias cíclicas presentes en las series temporales de precios. Por ejemplo, Jadhav et al. (2017) demostraron la utilidad del modelo ARIMA para pronosticar los precios de cultivos básicos (arroz, mijo, maíz) en mercados locales de la India [4]. Estos enfoques puramente estadísticos brindan una línea base sólida al capturar componentes históricos recurrentes en las series de tiempo, y resultan especialmente relevantes cuando la dinámica de precios es relativamente estable y lineal. De hecho, en contextos donde las variaciones de

precios siguen patrones regulares (por ejemplo, incrementos estacionales predecibles), modelos lineales como ARIMA o su extensión estacional SARIMA pueden alcanzar una precisión competitiva con métodos más complejos [7]. Es importante mencionar también que la evaluación de supuestos, como la estacionariedad de la serie, es crucial al emplear ARIMA; pruebas estadísticas como Dickey-Fuller se utilizan para verificar la presencia de raíces unitarias y garantizar la validez del modelo [9].

Paralelamente, los avances en aprendizaje automático y técnicas de inteligencia artificial han abierto nuevas posibilidades para la predicción de series temporales complejas. En años recientes han cobrado protagonismo las redes neuronales recurrentes, en particular las de tipo LSTM (Long Short-Term Memory). Las redes LSTM fueron introducidas por Hochreiter y Schmidhuber en 1997 como una arquitectura capaz de aprender dependencias de largo plazo en secuencias, superando el problema de desvanecimiento del gradiente presente en las redes recurrentes simples [8]. Aplicadas a series de precios, las LSTM pueden en teoría capturar relaciones no lineales y efectos retardados que los modelos estadísticos tradicionales no consiguen modelar fácilmente [6]. Investigaciones recientes indican que los modelos basados en LSTM logran un desempeño muy competitivo –e incluso superior– en escenarios de alta volatilidad o con datos muy ruidosos [5]. Por ejemplo, Yang et al. (2023) emplearon una LSTM para predecir el precio de la carne de cerdo durante periodos de alta incertidumbre (pandemia de COVID-19) y hallaron que este modelo superó a un ARIMA equivalente tanto en predicciones de corto como de largo plazo, reduciendo significativamente el error de pronóstico [5]. Este resultado concuerda con otros estudios en los que las LSTM han capturado dinámicas no lineales sutiles en precios agrícolas, adaptándose mejor a cambios bruscos que los modelos lineales [6], [11]. No obstante, la eficacia de las redes neuronales depende de contar con suficientes datos para entrenamiento y de ajustar correctamente sus hiperparámetros; en contextos con series muy cortas o con patrones predominantemente lineales, métodos clásicos pueden seguir siendo la opción más robusta [7].

Otra vertiente relevante en el estado del arte son los enfoques híbridos que combinan modelos estadísticos y de aprendizaje profundo. En la literatura se han explorado sistemas que buscan aprovechar lo mejor de ambos mundos: por ejemplo, usar un ARIMA para modelar la estructura lineal básica de la serie, y luego aplicar una red neuronal sobre los residuos para capturar patrones no lineales restantes. Pandit et al. (2023) evaluaron modelos híbridos ARIMAX (ARIMA con variables exógenas) combinados con distintas técnicas de inteligencia artificial para pronosticar índices de rendimiento de cultivos en India, encontrando que la inclusión de una variable exógena relevante junto con la capacidad de las redes neuronales para procesar patrones complejos mejoró significativamente la precisión de los pronósticos [10]. De forma similar, revisiones sistemáticas recientes resaltan que muchos trabajos reportan menores errores de predicción al integrar modelos clásicos con algoritmos de aprendizaje automático, en comparación con usar cada enfoque por separado [11], [12]. Esto sugiere que no hay una solución única y universal para la predicción de precios: las estrategias más efectivas podrían ser específicas para cada producto o mercado, combinando diferentes técnicas según la naturaleza de la serie (lineal, altamente volátil, influenciada por factores externos, etc.). Precisamente, el presente proyecto adopta un enfoque integrador, probando tanto modelos estadísticos (ARIMA/SARIMA) como de aprendizaje profundo (LSTM) e incluso un modelo

híbrido propio (denominado LSTMX) que incorpora variables externas, con el fin de identificar cuál es la mejor técnica de predicción para cada producto analizado.

Objetivos Completados

Este proyecto desarrolló un sistema de predicción de precios de la canasta básica dominicana, logrando anticipar variaciones semanales de productos clave con un alto grado de precisión. Para alcanzar este objetivo general, se cumplieron objetivos específicos bajo la metodología SMART: (1) Se recopiló y depuró un histórico amplio de precios y factores económicos relacionados, (2) se implementaron múltiples modelos de series temporales (ARIMA, SARIMA, SARIMAX, LSTM y una variante mejorada LSTMX) ajustándolos con criterio cuantitativo, (3) se evaluó comparativamente el desempeño de cada modelo mediante métricas de error (MAE) identificando la técnica óptima para cada producto, y (4) se desarrolló una API y una interfaz web (AhorraYa) que integran el modelo ganador, brindando pronósticos actualizados y útiles a usuarios finales.

Metodología:

Para abordar el problema de investigación se siguió una metodología estructurada en fases consecutivas, abarcando desde la obtención de datos brutos hasta la implementación de una aplicación funcional. A continuación, se describen las etapas principales del proyecto, destacando las técnicas empleadas en cada una y cómo se fueron integrando para materializar la solución propuesta.

Diagrama de bloques del proyecto.

Este diagrama de arquitectura general ilustra los módulos principales del sistema y su interacción: fuentes de datos, preprocesamiento, análisis/modelado, y componentes de despliegue (API e interfaz). Se observa cómo el Módulo de Adquisición de Datos reúne la información de precios desde distintas fuentes (portales oficiales como ProConsumidor/SIDIP y datos abiertos del gobierno, así como registros del Banco Central para variables económicas). Estos datos alimentan al Módulo de Preprocesamiento, donde se realizan tareas de limpieza, transformación de formatos y consolidación en un dataset unificado. Luego, el Módulo de Análisis y Modelado toma el conjunto de datos limpio para efectuar el análisis exploratorio y entrenar los diversos modelos predictivos. Finalmente, los resultados de los modelos se integran en un Módulo de Servicio de Predicción (API backend) y se presentan al usuario a través de un Módulo de Visualización (interfaz web) desarrollado en Streamlit. A continuación, se detallan cada una de estas fases metodológicas:

  1. Recolección de datos: Se recopiló un amplio histórico de datos de precios semanales de productos básicos, abarcando varios años para asegurar suficiente información temporal. Las fuentes principales fueron portales oficiales dominicanos que proveen datos abiertos sobre precios: el portal Precios Justos del Ministerio de Industria y Comercio, el conjunto de datos abiertos del gobierno (datos.gob.do, dataset “Precios Justos”), y el Sistema Dominicano de Información de Precios (SIDIP) de Pro Consumidor. Estos portales suministran precios actualizados de diversos alimentos en distintos tipos de establecimientos (supermercados, mercados minoristas, etc.), lo que permitió recopilar series de tiempo por producto y por tipo de mercado. Complementariamente, se incluyeron variables macroeconómicas externas (ej. la tasa de cambio del dólar, el Índice de Precios al Consumidor – IPC) obtenidas de fuentes confiables como el Banco Central y publicaciones económicas, dado que tales factores podrían influir en el costo de los alimentos. Para la extracción de datos se combinaron descargas directas de datasets abiertos con técnicas de web scraping (automatización de la recolección en sitios web), asegurando así la obtención de un histórico completo y confiable. Al finalizar esta etapa se contaba con un conjunto de datos bruto que incluía, para cada fecha semanal, los precios de cada producto en diferentes mercados, junto con valores sincrónicos de variables económicas relevantes.
  2. Limpieza y preparación de datos: Una vez reunidos, los datos pasaron por un riguroso proceso de preprocesamiento. Esta fase fue crucial, pues la calidad de las predicciones depende directamente de la calidad de los datos de entrenamiento. Se depuraron registros inconsistentes o erróneos, se identificaron y manejaron valores faltantes (imputándolos o eliminándolos según el caso), y se filtraron outliers (valores atípicos) que pudieran distorsionar los análisis. Por ejemplo, si en una semana determinada algún producto mostraba un precio extremadamente fuera de rango debido a un error de captura, dicho dato se inspeccionó y, de ser necesario, se corrigió o descartó. También se homogeneizaron las unidades y formatos: todos los precios fueron convertidos a una unidad estándar (p. ej., RD$ por libra o por unidad, según correspondiera) para hacer comparables las series. En paralelo, las variables externas (tipo de cambio del dólar, IPC, etc.) se alinearon temporalmente con las series de precios, de modo que pudieran integrarse apropiadamente en los modelos posteriores. El resultado de esta etapa fue un dataset estructurado y limpio, listo para el análisis exploratorio y el modelado. Para

asegurar la trazabilidad, se documentaron las transformaciones aplicadas a los datos (por ejemplo, listas de outliers removidos y reglas de imputación).

  1. Análisis Exploratorio de Datos (EDA): Con los datos ya preparados, se realizó un análisis exploratorio para entender el comportamiento histórico de los precios. Se generaron gráficas de series temporales para visualizar las tendencias generales de cada producto a lo largo del tiempo, identificando periodos de aumentos, descensos y estacionalidades marcadas. Por ejemplo, se pudo notar que el precio del arroz selecto presentaba leves incrementos a finales de cada año (posiblemente ligado a festividades), mientras que el pollo procesado tendía a encarecerse en períodos de alta demanda como las semanas previas a feriados. Adicionalmente, se calcularon estadísticas descriptivas (media, desviación estándar, rangos) para cuantificar la variabilidad de precios de cada producto, y se examinaron correlaciones entre la serie de precios y las variables macroeconómicas. Esto permitió responder preguntas como: ¿el alza del dólar precede aumentos en ciertos alimentos? o ¿algún producto muestra un patrón estacional semanal o mensual? En este punto, también se verificó la estacionariedad de las series –requisito importante para ciertos modelos estadísticos– aplicando pruebas como la de Dickey-Fuller. Por ejemplo, se identificó que varias series tenían tendencia (no estacionarias), por lo que sería necesario diferenciarlas al aplicar un ARIMA. El EDA proporcionó intuiciones clave y validó supuestos de modelado: confirmó la presencia de estacionalidad anual en algunos productos, evidenció tendencias a largo plazo en otros, y ayudó a decidir qué factores externos valía la pena incluir en los modelos (por ejemplo, si la tasa de cambio mostraba correlación significativa con el precio de las habichuelas, eso sugería usarla como variable exógena en un modelo SARIMAX/LSTMX).

Diagrama de flujo del proceso general.

Este diagrama esquematiza la secuencia de pasos desde la extracción de datos hasta la visualización de resultados. En la etapa de extracción, se combinan los datos de SIDIP vía web scraping, datos de ProConsumidor (en formato PDF procesados con OCR) y la obtención complementaria de información de Precios Justos. Luego, en la Integración y Limpieza del Dataset, se unifican esas fuentes heterogéneas y se preprocesan los datos (como se describió en los pasos 1 y 2). A continuación, en la fase de Análisis y Entrenamiento, se alimentan los datos limpios al conjunto de modelos que se entrenan (ARIMA, SARIMA, SARIMAX, LSTM y LSTMX), realizando también la selección y ajuste de hiperparámetros. Finalmente, los pronósticos resultantes se visualizan en la interfaz Streamlit junto con los datos históricos, completando el ciclo. Este flujo garantiza que, desde la recopilación hasta la presentación, la información pase por etapas bien definidas que agregan valor: de datos crudos dispersos se llega a predicciones accionables para el usuario final.

  1. Modelado predictivo: En la etapa de modelado se implementaron y probaron diversos algoritmos de series temporales para generar pronósticos de precios, aprovechando las lecciones aprendidas en el EDA. Específicamente, se consideraron cinco enfoques principales: ARIMA, SARIMA, SARIMAX, LSTM y LSTMX. El modelo ARIMA (AutoRegresivo Integrado de Media Móvil) se usó como punto de partida por su eficacia conocida en series estacionarias y su capacidad para modelar patrones autorregresivos e integrados de una serie. Posteriormente, SARIMA (ARIMA estacional) extendió ese modelo incorporando términos estacionales para ajustar periodicidades anuales o mensuales observadas (por ejemplo, permitiendo que el modelo “recuerde” picos cada 12 meses si los hubiera). Por su parte, SARIMAX añadió la posibilidad de incluir variables exógenas –en este caso, factores macroeconómicos como la mencionada tasa de cambio del dólar u otros índices económicos– con la expectativa de mejorar la predicción si dichos factores tienen influencia significativa en los precios. Esta inclusión de variables externas está respaldada por la literatura, que ha mostrado que combinar información exógena en modelos de series de tiempo puede mejorar notablemente el desempeño del pronóstico [10], [11], siempre y cuando exista una correlación o causalidad de Granger entre la variable externa y la serie objetivo. Finalmente, se entrenó un modelo de red neuronal LSTM, apropiado para secuencias temporales complejas, con el fin de capturar patrones no lineales y de largo plazo que los métodos estadísticos tradicionales podrían pasar por alto [6]. Sobre la base de la LSTM, se desarrolló una variante denominada LSTMX, que constituye una contribución novedosa del proyecto: este modelo incorpora las mismas variables exógenas que SARIMAX (por eso la “X”) pero dentro del marco de una red neuronal. En otras palabras, LSTMX es una red LSTM multivariada que recibe como entradas tanto la serie de precios histórica como las series de factores externos (ej. tipo de cambio), permitiéndole aprender relaciones más ricas. La hipótesis detrás de LSTMX es que, al igual que un ARIMAX aprovecha variables auxiliares, una LSTM también puede beneficiarse de ellas para ajustar mejor sus predicciones – algo que investigaciones recientes avalan al mostrar mejoras con enfoques híbridos y multivariados [10], [6].

Cada modelo se entrenó individualmente con los datos históricos de cada producto, reservando una porción de los datos para validación. Para configurar los modelos se siguieron buenas prácticas reconocidas: en ARIMA/SARIMA se identificaron los

órdenes óptimos (parámetros p, d, q y sus análogos estacionales) mediante análisis de autocorrelación (ACF/PACF) y minimización de criterios de información como AIC. En LSTM/LSTMX se experimentó con distintas arquitecturas (número de neuronas, número de capas ocultas) y funciones de activación adecuadas para series de tiempo, empleando técnicas de early stopping y regularización para evitar sobreajuste. La fase de modelado también incluyó la realización de búsqueda en grilla (Grid Search) para ciertos hiperparámetros, con el fin de garantizar que cada modelo estuviera lo mejor ajustado posible. Por ejemplo, se probó en ARIMA un rango de valores para (p,d,q) y se eligió la combinación con menor AIC en la data de entrenamiento, mientras que en LSTM se evaluaron diferentes batch sizes y tasas de aprendizaje, seleccionando aquellas configuraciones que produjeron menor error en la validación. Este enfoque sistemático de ajuste se alinea con recomendaciones de la literatura para obtener modelos robustos [12].

  1. Evaluación comparativa de modelos: Tras entrenar los modelos, se evaluó su desempeño utilizando métricas cuantitativas de error. La principal métrica empleada fue el Error Absoluto Medio (MAE), por ser fácil de interpretar en unidades monetarias (pesos dominicanos). También se calculó, a modo informativo, la Raíz del Error Cuadrático Medio (RMSE) y el Error Porcentual Absoluto Medio (MAPE) para tener referencias adicionales, aunque el criterio de selección de modelos se basó en el MAE. La evaluación se llevó a cabo en dos escenarios de prueba: primero, usando datos históricos hasta abril de 2025 para generar pronósticos y medir errores (dejando fuera mayo de 2025 como prueba), y luego repitiendo lo mismo extendiendo la historia hasta mayo de 2025 (dejando junio como horizonte de validación). De este modo, se simuló el desempeño del sistema en momentos temporales distintos, comprobando la consistencia de resultados. Para cada producto, se comparó el MAE obtenido por los distintos modelos (ARIMA, SARIMA, SARIMAX, LSTM, LSTMX) tanto en la prueba de abril como en la de mayo. Esta evaluación reveló, por ejemplo, que ciertos productos con comportamientos más lineales se ajustaban bien con modelos ARIMA/SARIMA, mientras que otros con variaciones más erráticas podían ser mejor capturados por la LSTM. En función de los MAE obtenidos en la prueba más reciente (mayo 2025), se seleccionó el modelo “ganador” para cada producto, es decir, aquel con menor error de predicción. De manera ilustrativa, la siguiente gráfica resume los resultados de MAE por modelo para cada producto, destacando cuál técnica resultó más precisa en cada caso.
  2. Construcción de la aplicación e implementación: Con los modelos optimizados y seleccionados, la fase final consistió en integrar las predicciones en una aplicación práctica para el usuario. Para ello se desarrolló una API backend utilizando FastAPI, que encapsula la lógica de predicción: esta API carga los modelos entrenados (uno por producto, según el mejor identificado por su MAE) y expone endpoints para obtener pronósticos actualizados. La API fue diseñada de tal forma que, dada una solicitud para un producto específico, automáticamente utiliza el modelo óptimo correspondiente (por ejemplo, si el mejor modelo para huevos es LSTM, el API emplea ese; si para pollo es ARIMA, usa aquel otro) y devuelve la predicción de precio para el horizonte deseado (por defecto, la semana siguiente). Sobre esta base, se construyó la interfaz de usuario empleando Streamlit – un marco de desarrollo ágil para aplicaciones de data science. La aplicación web resultante, titulada “AhorraYa”, brinda a los usuarios una experiencia interactiva sencilla: permite seleccionar un producto de interés y consultar su predicción de precio para la próxima semana (o semanas siguientes, según se configure). Además de mostrar el valor pronosticado puntual, la interfaz despliega visualmente la serie histórica reciente junto con la proyección futura, para contextualizar la tendencia. También se incorporó un módulo de reportes automáticos: el sistema puede generar un informe breve que resume las tendencias observadas, el cambio porcentual esperado y alertas en caso de variaciones significativas, el cual podría descargarse en formato PDF o compartirse en redes sociales para beneficio de otros consumidores. Finalmente, AhorraYa incluye una sección de recomendaciones: con base en las predicciones y ciertas reglas sencillas, la aplicación sugiere acciones al usuario para ahorrar o evitar sobrecostos. Por ejemplo, si se anticipa que el precio del pollo aumentará considerablemente la próxima semana, la recomendación podría ser adelantar la compra de ese producto en la semana actual; o si cierto mercado presenta consistentemente precios más bajos para un artículo, la app podría sugerir ese establecimiento como opción de compra. Estas recomendaciones se generan de forma automática e imparcial, buscando guiar al consumidor hacia la decisión más económica e informada posible.

Diagrama de arquitectura de la API.

Diagrama de componentes de la interfaz AhorraYa.

Vale destacar que la arquitectura final del sistema permite su fácil actualización y escalabilidad. Los modelos pueden re-entrenarse periódicamente conforme ingresen nuevos datos (por ejemplo, incorporando los precios más recientes cada mes) y la API puede desplegarse en la nube para atender múltiples consultas simultáneas. La separación en módulos (ver diagrama de bloques) asegura que cada componente pueda mejorarse o reemplazarse independientemente – por ejemplo, se podría actualizar la interfaz sin tocar el backend, o incorporar un nuevo modelo en la API en caso de avances futuros en técnicas de predicción.

La metodología integró desde la obtención de datos brutos hasta la puesta en marcha de una solución tecnológica lista para su uso. Cada fase se apoyó en la anterior para asegurar coherencia y calidad: datos fiables alimentaron un análisis correcto, que a su vez permitió un modelado preciso, culminando en una herramienta práctica y amigable para el usuario. Se logró materializar un pipeline completo de ciencia de datos aplicado a una problemática real, cumpliendo con el objetivo de dotar a los ciudadanos y entidades dominicanas de una forma novedosa de anticipar y enfrentar las fluctuaciones en los precios de los alimentos básicos.

Resultados

Los hallazgos del proyecto son muy alentadores, tanto en las métricas de predicción como en la funcionalidad del sistema final. En cuanto al desempeño predictivo, la estrategia de probar múltiples modelos y seleccionar el más adecuado para cada producto demostró ser acertada. No emergió un “ganador universal”; por el contrario, cada producto básico tuvo una técnica distinta como su mejor pronosticador, lo cual aprovechó al máximo las fortalezas de cada enfoque. Cabe destacar que, en términos generales, todos los métodos evaluados lograron predicciones de alta exactitud (en promedio por encima del 96% de acierto), pero la selección personalizada modelo-por-producto permitió optimizar aún más la precisión en cada caso.

Al analizar detalladamente cada rubro, se observó que los modelos avanzados ofrecieron ventajas marcadas en ciertas series, mientras que en otras los métodos tradicionales fueron igual de efectivos. Por ejemplo, para la habichuela roja –cuyo comportamiento de precios parece depender de factores económicos adicionales– el modelo de red neuronal LSTM que incorporaba indicadores macroeconómicos logró las predicciones más certeras. En cambio, para otro producto como la habichuela negra, un modelo estadístico sencillo (ARIMA) bastó para pronosticar con excelente precisión, señal de que esa serie no presentaba patrones externos o no lineales lo suficientemente fuertes que ameritaran mayor complejidad. Dicho de otro modo, las técnicas de aprendizaje profundo brillaron especialmente cuando la dinámica de precios era compleja o influida por variables exógenas, mientras que en escenarios más estables o lineales un enfoque clásico resultó igualmente competitivo.

La conclusión es clara: no existe una fórmula única que sirva para todos los alimentos, lo cual justifica el enfoque flexible adoptado. Algunos modelos superaron por amplio margen a sus alternativas en ciertos casos, reduciendo el error de pronóstico a una fracción del obtenido por los demás; en otros productos, las diferencias entre técnicas fueron mínimas. Este hallazgo refuerza la importancia de evaluar tanto métodos estadísticos tradicionales como enfoques de aprendizaje profundo, adaptando la solución según las particularidades de cada serie de precios. La siguiente visualización compara de forma resumida el desempeño de todos los modelos probados:

Comparación visual del rendimiento de los modelos por producto. Cada conjunto de barras representa un producto básico (arroz, habichuelas, huevos y pollo), y la barra más baja en cada grupo indica qué modelo logró el menor error de predicción en ese caso. Como se aprecia en la imagen, el método óptimo cambia de un producto a otro, confirmando que ninguna técnica domina en todos los escenarios. También se nota que en algunos alimentos el modelo ganador aventaja claramente a los demás, mientras que en otros las discrepancias de desempeño resultan casi imperceptibles.

Gracias a este exhaustivo análisis, el sistema desarrollado incorpora automáticamente el modelo más adecuado para cada producto en su módulo de predicción. Es decir, cuando un usuario consulta el precio futuro de un alimento –por ejemplo, los huevos– la plataforma emplea en el backend la red LSTM especializada que mejores resultados obtuvo para ese artículo. De igual modo, si se pide la predicción para el pollo, el sistema invoca el modelo específico que demostró ser superior en esa serie (en este caso, una variante de LSTM entrenada con el índice de precios al consumidor). Este mecanismo asegura que la aplicación siempre ofrezca la mejor estimación disponible según nuestros hallazgos, sin que el usuario deba preocuparse por la complejidad técnica detrás.

Importante destacar que los modelos elegidos alcanzaron errores absolutos muy bajos en sus pronósticos. En términos prácticos, la diferencia promedio entre el precio pronosticado y el precio real suele ser de solo unos pocos pesos dominicanos. Dado que en muchos de estos productos una variación semanal típica ronda entre 1 y 5 pesos, un desvío medio de apenas RD$0.5 en las habichuelas o de alrededor de RD$3 en el pollo es lo suficientemente pequeño como para resultar útil en la práctica. En otras palabras, las predicciones fueron tan precisas que el error entra dentro de lo que podría considerarse una fluctuación normal, lo que brinda confianza para la toma de decisiones. Además, el sistema demostró ser capaz de adaptarse y mejorar con el tiempo: al agregar datos más recientes (por ejemplo, un mes adicional de precios) pudo recalibrar sus modelos sin necesidad de reprogramar nada, confirmando la superioridad de ciertos enfoques (como LSTMX en los casos mencionados) simplemente al alimentar la nueva información. Esto indica que la solución puede mantenerse vigente y afinada a medida que se incorporan nuevos datos, algo crucial para su uso en entornos reales cambiantes.

La herramienta resultante, bautizada AhorraYa, está plenamente funcional y pensada para el usuario común. Su interfaz web permite visualizar la serie histórica de precios de cada producto junto con el pronóstico de la semana siguiente en una gráfica interactiva, haciendo muy intuitiva la comprensión de la tendencia. Además, muestra el valor numérico predicho y cuánto varía con respecto al precio actual (por ejemplo: “Se espera que el precio suba 2.3% la próxima semana”), información presentada de forma clara incluso para personas sin formación técnica. Durante las pruebas con usuarios, estos confirmaron que la aplicación es fácil de entender y usar, logrando que los resultados de la predicción sean accesibles para cualquier persona.

También se incorporaron funcionalidades de valor agregado, como la generación automática de reportes en PDF y un módulo de recomendaciones, con el fin de maximizar la utilidad de la herramienta. Por ejemplo, un usuario puede descargar el informe semanal de precios y compartirlo con su comunidad local, mientras que un analista de la entidad reguladora (Pro Consumidor) podría emplear estos reportes para detectar a tiempo comportamientos anómalos en el mercado. Cabe mencionar que la arquitectura modular del sistema probó ser sólida, ya

que la API manejó correctamente múltiples consultas simultáneas y la interfaz se actualiza casi en tiempo real sin inconvenientes. En conjunto, el prototipo está listo para escalarse y funcionar de manera confiable en situaciones reales.

Un resultado particularmente notable fue la mejora obtenida al incorporar variables macroeconómicas en el modelo para ciertos productos. En los casos donde factores como la inflación o el tipo de cambio inciden en los costos (piénsese en algunos granos importados), añadir estos indicadores al modelo permitió reducir aún más el error de predicción, demostrando que esa información adicional fue valiosa. Este hallazgo abre la puerta a integrar en el futuro más fuentes de datos externas –por ejemplo, índices climáticos, precios internacionales de materias primas o costos de combustibles– para potenciar todavía más la precisión de las previsiones en escenarios complejos. Asimismo, se comprobó que los patrones estacionales típicos (por ejemplo, los picos de precios en diciembre) fueron capturados adecuadamente por los modelos que incorporaban estacionalidad, cumpliendo otro de los objetivos iniciales del proyecto. Esto significa que el sistema reconoce las alzas cíclicas esperadas y no se ve sorprendido por ellas, aportando confianza en sus pronósticos durante todo el año.

En resumen, los resultados respaldan plenamente la hipótesis de trabajo original: es posible anticipar –con errores acotados– las variaciones semanales de precios de productos básicos mediante técnicas de series de tiempo. Quedó demostrado que elegir el modelo adecuado para cada producto mejora de forma tangible la exactitud del pronóstico, en comparación con usar una única metodología para todos los casos. Dicho de otra forma, personalizar la estrategia de predicción por tipo de artículo rinde frutos claros en términos de precisión alcanzada.

La utilidad práctica de estas predicciones quedó de manifiesto al presentar el sistema a posibles usuarios finales y a expertos en economía. Las reacciones fueron muy positivas: los consumidores valoraron poder saber hacia dónde podrían moverse los precios la próxima semana, comentando que esa información les ayuda a decidir cuándo comprar (por ejemplo, aprovechar esta semana antes de que un producto suba de precio, o esperar si se anticipa una baja). Por su parte, las autoridades expresaron interés en la herramienta como complemento a sus sistemas actuales de monitoreo, considerando que podría servir para alertas tempranas de situaciones anómalas (por ejemplo, si se pronostica un alza inusual en algún alimento, investigarlo preventivamente antes de que ocurra). Estas impresiones sugieren que, con un refinamiento y validación adicionales, AhorraYa podría convertirse en un apoyo real para la toma de decisiones tanto a nivel micro (hogares) como macro (políticas de mercado). En definitiva, el sistema ha logrado conectar los precios pasados con predicciones futuras para orientar al consumidor sobre el mejor momento de compra, cumpliendo de forma práctica e intuitiva con el objetivo de reducir la incertidumbre en el mercado alimenticio.

Conclusión

En conclusión, el proyecto logró desarrollar con éxito un sistema integral de predicción de precios para productos básicos en República Dominicana, combinando métodos estadísticos tradicionales y técnicas modernas de aprendizaje profundo. Como resultado, se dispone de una herramienta que anticipa las fluctuaciones de precios con un nivel de precisión útil, lo que representa un aporte significativo para distintos actores: los consumidores pueden planificar sus compras con mejor información, evitando los impactos de alzas sorpresivas; los comerciantes y productores pueden ajustar inventarios y estrategias considerando las tendencias pronosticadas; y las autoridades disponen de alertas previas para focalizar inspecciones o medidas de estabilización en caso de incrementos inusuales. El sistema AhorraYa materializa estos logros en una interfaz amigable, democratizando el acceso a la inteligencia de datos sobre precios a cualquier ciudadano con acceso a internet.

El valor de este sistema radica en promover una gestión proactiva frente a la volatilidad de precios. Tradicionalmente, las respuestas eran reactivas (se actuaba después de que el precio subía); con esta solución, se abre la posibilidad de actuar antes del impacto. Por ejemplo, una familia puede decidir comprar ciertos víveres por adelantado si se prevé una subida considerable la próxima semana, o el Ministerio de Industria y Comercio podría preparar acuerdos con suplidores si observa que varios productos mostrarán alzas concurrentes debido a factores estacionales. En términos de transparencia de mercado, contar con predicciones al alcance del público empodera al consumidor y fomenta la competencia, ya que los comercios sabrán que los compradores tienen expectativas informadas y no solo conocerán el precio actual sino su posible trayectoria.

Aunque el proyecto alcanzó sus objetivos, quedan oportunidades de mejora y líneas de trabajo futuras. En primer lugar, sería deseable ampliar el catálogo de productos considerados, incorporando más alimentos de la canasta básica e incluso bienes no alimenticios cuyos precios afectan el presupuesto familiar. Cada nuevo producto requeriría recopilar su serie de precios e integrarla al pipeline ya construido. Adicionalmente, se puede explorar la inclusión de nuevos factores externos que puedan mejorar las predicciones: variables climáticas (lluvias, temperatura) que impactan cosechas, precios internacionales de materias primas relevantes, costos de transporte y combustible, entre otros. Estudios previos indican que incorporar datos meteorológicos puede aumentar la precisión de predicción en horizontes largos [6], por lo que combinar pronósticos climáticos con los de precios agrícolas sería un paso interesante. Otra línea futura es evaluar modelos avanzados emergentes, como las redes neuronales con mecanismos de atención o los modelos tipo Transformers diseñados para series de tiempo, que en años recientes han mostrado potencial en dominios de alta dimensionalidad. Asimismo, se podría implementar un módulo de AutoML que periódicamente pruebe nuevos modelos o re- entrene los existentes para ajustarse a posibles cambios estructurales en las series (por ejemplo, si la dinámica de precios cambia post-pandemia, que el sistema pueda recalibrarse).

En cuanto a la implementación, sería valioso desplegar AhorraYa en un entorno de producción real para recopilar retroalimentación de usuarios y monitorear su uso en el tiempo. Esto permitiría identificar qué funcionalidades adicionales podrían agregarse (por ejemplo,

comparador de precios entre mercados, notificaciones push de alertas de precios, etc.). También sería importante trabajar en estrategias de difusión para que la herramienta llegue a las comunidades que más lo necesitan, en coordinación con instituciones como Pro-Consumidor o el Ministerio de Agricultura.

En definitiva, este proyecto demuestra la viabilidad de aplicar técnicas de análisis de series temporales a un problema concreto de la vida cotidiana dominicana, proporcionando una solución tecnológica innovadora. Los objetivos planteados fueron cumplidos al integrar satisfactoriamente un conjunto heterogéneo de datos, metodologías de modelado de vanguardia y un desarrollo de software enfocado en la utilidad práctica. Si bien el contexto local presenta desafíos (datos a veces escasos, alta volatilidad por factores externos), la combinación adecuada de enfoques permitió sortearlos y entregar un producto funcional. A futuro, con más datos y refinamientos, el sistema podría volverse aún más preciso y abarcar mayor alcance. La anticipación de precios que brinda AhorraYa tiene el potencial de convertirse en una herramienta valiosa para mejorar la planificación económica tanto en los hogares como en las políticas públicas, contribuyendo a mitigar los efectos de la volatilidad en la canasta básica. Queda abierta la invitación a profundizar en esta línea de investigación, incorporando nuevos avances y adaptando la solución a otros ámbitos (por ejemplo, predicción de precios de insumos agrícolas o de energía), en pos de seguir aprovechando la ciencia de datos para el bienestar social.

Referencias:

  1. U. F. Jayatri et al., “Modelling and Predicting Volatility in Essential Food Prices Using ARIMA-GARCH Models,” Efficient: Journal of Industrial Engineering, vol. 1, no. 1, pp. 41– 64, 2024.
  2. J. G. da Silva, “Discurso sobre la volatilidad de los precios de los alimentos y el papel de la

especulación,” FAO, Roma, 6 de julio de 2012.

  1. Pro Consumidor, “¿Qué es SIDIP? – Sistema Dominicano de Información de Precios,” [En línea]. Disponible: https://proconsumidor.gob.do/que-es-sidip
  2. V. Jadhav, B. V. Chinnappa Reddy, and G. M. Gaddi, “Application of ARIMA Model for Forecasting Agricultural Prices,” J. Agr. Sci. Tech., vol. 19, pp. 981–992, 2017.
  3. Z. Yang et al., “Pork Price Prediction using LSTM Model: Based on a New Dataset,” Proc. 1st Int. Conf. Public Management, Digital Economy and Internet Technology (ICPDI), pp. 423–429, 2022.
  4. M. Elsaraiti and A. Merabet, “A Comparative Analysis of the ARIMA and LSTM Predictive Models for Wind Speed,” Energies, vol. 14, no. 20, Art. 6782, Oct. 2021.
  5. C. Xia, “Comparative Analysis of ARIMA and LSTM Models for Agricultural Price Forecasting,” Highlights in Science, Engineering and Technology, vol. 85, pp. 1032–1040, 2024.
  6. S. Hochreiter and J. Schmidhuber, “Long Short-Term Memory,” Neural Computation, vol. 9, no. 8, pp. 1735–1780, 1997.
  7. D. A. Dickey and W. A. Fuller, “Likelihood Ratio Statistics for Autoregressive Time Series

with a Unit Root,” J. Am. Stat. Assoc., vol. 74, no. 366, pp. 427–431, 1979.

  1. P. Pandit et al., “Hybrid time series models with exogenous variable for improved yield

forecasting of crops,” Sci. Reports, vol. 13, Art. 22240, 2023.

  1. A. Theofilou et al., “Predicting Prices of Staple Crops Using Machine Learning: A

Systematic Review,” Sustainability, vol. 17, no. 12, Art. 5456, 2025.

  1. K. G. Preetha et al., “Price Forecasting on a Large Scale Data Set using Time Series and Neural Network Models,” KSII Trans. Internet Info. Syst., vol. 16, no. 10, pp. 3923–3942, 2022.

Laboratorio Virtual de Robótica RobotGYM V2

Carlos Eleazar Peterson García y Miguel José Noboa Hurtado

Pontificia Universidad católica Madre y Maestra, PUCMM

Introducción:

La robótica ha experimentado un crecimiento constante tanto en el ámbito industrial como en el académico, impulsada por la necesidad de automatizar procesos, el desarrollo de nuevas tecnologías y el creciente interés por sistemas inteligentes. A medida que esta disciplina se consolida como un área clave en la ingeniería y la innovación, se vuelve crucial contar con entornos de aprendizaje accesibles, que permitan a los estudiantes experimentar, resolver y construir conocimiento desde la práctica. La educación en robótica no solo requiere herramientas físicas, sino también plataformas flexibles que faciliten el aprendizaje progresivo [1], [3].

En respuesta a esta necesidad educativa, surge el presente proyecto, desarrollado por los estudiantes Miguel José Noboa Hurtado y Carlos Eleazar Peterson García, de la carrera de Ingeniería en Ciencias de la Computación de la Pontificia Universidad Católica Madre y Maestra (PUCMM). Bajo la supervisión de la Escuela de Computación y Telecomunicaciones y tiene como propósito principal el diseño y la mejora de un laboratorio virtual de robótica que permita a los estudiantes practicar y experimentar con conceptos esenciales de esta área, sin las barreras logísticas que a menudo impiden el acceso a equipos físicos especializados.

La motivación principal de esta iniciativa radica en los desafíos presentes en la enseñanza de robótica a nivel universitario, tales como: acceso limitado a hardware, alta demanda de recursos tecnológicos, y la necesidad de enfoques más inclusivos e interactivos. Los entornos de aprendizaje tradicionales en robótica presentan limitaciones que dificultan su implementación, especialmente en instituciones donde los recursos son escasos o deben compartirse entre múltiples grupos [2]. Ante esto, un laboratorio virtual se convierte en una herramienta poderosa para democratizar el acceso al conocimiento técnico de la robótica.

Además, la propuesta de RobotGYM V2 se alinea con tendencias globales en la transformación educativa, en las que el aprendizaje virtual, la inteligencia artificial y la simulación se integran cada vez más como componentes esenciales de la formación profesional. Existe una demanda creciente por infraestructura digital que complemente la enseñanza práctica, permitiendo a los estudiantes aprender en cualquier lugar y en cualquier momento, adaptando el ritmo de aprendizaje a sus propias necesidades [3].

El mercado y por tanto las necesidades del mercado de la robótica han aumentado a gran escala con el transcurso de los años. Se ha visto un crecimiento global desde los 59 mil millones de dólares en el 2019 a 71 mil millones en el 2023. Market Research Future estima un crecimiento exponencial en los próximos años [4]. Este crecimiento aplica para los robots industriales, colaborativos, médicos y otros. Globalmente se ve un crecimiento constante de la robótica lo cual aumenta la necesidad de personal capacitado e interesados en aprender sobre la robótica.

El interés de los estudiantes de amplio rango de edades en el área de robótica crece de forma continua a lo largo de los años. Existen varios estudios mostrando que la integración de las áreas prácticas de la robótica facilita y fomenta el crecimiento técnico e intelectual de los estudiantes en las áreas de programación e ingeniería. [5] [6] Si bien la universidad dispone de los recursos fundamentales para la enseñanza de la robótica, actualmente no cuenta con un sistema estructurado y accesible que facilite una formación introductoria en esta área. Aunque existe un club de robótica impulsado por estudiantes con interés particular en el tema, los materiales y herramientas destinados a nivelar conocimientos básicos son limitados, y la curva de complejidad para incorporarse resulta considerable. En este contexto, el presente proyecto busca responder a esta necesidad, ofreciendo una plataforma que brinde recursos accesibles para introducir a los estudiantes en el campo de la robótica.

Desarrollo y metodología:

La creación de esta plataforma se encuentra dividida en dos partes, la página web o el “frontend” y el sistema de control de robots o el “backend”. ROS (Robot Operating System) es un sistema de código abierto con gran aceptación y uso en las áreas educativas, científicas, de investigación e industria general. [7] El modelo de robots utilizado es el RSLK-MAX de Texas Instruments, un robot diseñado para el ambiente educativo. [8] Sobre todo, la universidad cuenta con una amplia cantidad de robots. Por otro lado la viabilidad de este proyecto fue estudiada por el Ingeniero Anthony Beato con el desarrollo del prototipo del robot gym [9] y existe un incentivo de utilizar los recursos existentes.

Para que los robots se comuniquen con ROS estos tienen que estar conectados en la misma red. Aunque es de gran beneficio utilizar los RSLK-MAX ya existentes de la universidad, estos no cumplen con este requerimiento. Utilizando el sistema de conexión del robot gym original de Anthony Beato, podemos interconectar una raspberry pi que funcione como puente de comunicación entre la red ROS y el robot en cuestión.

El robot tiene un conector tipo micro USB, usando un cable USB tipo A a micro USB podemos conectar el robot con una raspberry pi. Esta conexión habilita el uso de comunicación serial bidireccional. Las raspberry pis, siendo computadoras de bajo consumo pueden estar conectadas a la red de ROS y recibir llamadas de movimiento y mandar información por la red. Usando la conexión serial la raspberry pi puede mandar el mensaje al RSLK y el RSLK puede mandar información de sus sensores a la pi.

Cada Raspberry Pi ejecuta un nodo de ROS que controla su respectivo robot. En ROS, un nodo es una unidad funcional que permite la comunicación dentro del sistema. Dentro del nodo de cada Raspberry Pi se crean dos tópicos, llamados «cmd_vel» y «status».

Los tópicos en ROS funcionan como canales de comunicación entre nodos. El tópico «cmd_vel» actúa como suscriptor: recibe comandos de movimiento que indican al robot cómo debe desplazarse. Por otro lado, el tópico «status» funciona como publicador: transmite información sobre el estado de los sensores del robot, enviando datos cada vez que estos detectan un cambio.

Todos los robots están conectados a la misma red WiFi, lo que significa que comparten una única red ROS. Dentro de esta red se encuentra el controlador principal: una computadora encargada de enviar y recibir solicitudes dirigidas a los robots, así como de comunicarse con la página web. ROS proporciona un sistema de comunicación robusto y eficiente para aplicaciones robóticas; sin embargo, carece de mecanismos de seguridad fundamentales como autenticación, cifrado de datos y control de acceso, lo que lo hace vulnerable en entornos no controlados o expuestos a redes externas.

Una de las funcionalidades de ROS es la posibilidad de visualizar los tópicos activos en la red. Si una persona externa lograra acceder a esta red, podría identificar los tópicos disponibles y enviar comandos de movimiento a todos los robots, generando conflictos para los usuarios legítimos de la aplicación. Aunque el control de acceso a la red puede manejarse de forma básica mediante la configuración del router por ejemplo, restringiendo conexiones a las IPs de los robots y del controlador principal, la principal preocupación radica en la posibilidad de subir rutinas ROS desde la página web. Estas rutinas se ejecutan localmente en la computadora principal, dentro del entorno de ROS.

Para evitar que usuarios no autorizados envíen comandos a los robots, se implementa un mensaje personalizado en los tópicos cmd_vel, utilizado para validar y controlar las instrucciones de movimiento.

El tipo de mensaje estándar utilizado en ROS para el control de movimiento de robots es el mensaje Twist, el cual contiene campos para representar velocidades lineales en los ejes x, y, z y velocidades angulares en esos mismos ejes. Con el fin de abordar las limitaciones de seguridad en la comunicación, se desarrolló una versión personalizada de este mensaje denominada SecureTwist, que extiende la estructura original de Twist incorporando un campo adicional para una clave secreta. Esta clave actúa como un mecanismo de autenticación, asegurando que únicamente los mensajes con una clave válida puedan ser aceptados y ejecutados por los robots.

De esta manera, la comunicación entre el controlador principal y los robots deja de utilizar el mensaje Twist convencional y pasa a realizarse mediante SecureTwist, fortaleciendo así la integridad y autenticidad de los comandos transmitidos.

Estas llaves son generadas por la página web cuando algún usuario intenta crear una sesión o intenta controlar un robot de manera legítima en la aplicación. La página web manda estas claves a la computadora principal. Cuando la computadora recibe estas claves esto les deja saber a los robots individuales. Al recibir esta llamada, estos solicitan una copia de las llaves que les pertenecen. Es bueno notar que las llaves son individuales para cada robot, por tanto cada robot solo recibirá las llaves que le pertenecen.

Si de alguna manera un usuario intenta mandar un mensaje no legítimo o sin permiso. La única manera que este mensaje será procesado sería si tiene la clave del robot donde está mandando el mensaje. De lo contrario el sistema manda un mensaje de advertencia y no procesa la llamada. Este peligro existe y fue resuelto ya que los usuarios podrán subir sus propias rutinas, las cuales podrán correr código ROS común. Esta implementación nos da seguridad que las rutinas de los usuarios solo podrán afectar a los tópicos donde solo tengan acceso.

Esto plantea un problema en la comunicación entre la computadora principal, que opera dentro de la red local de ROS, y la página web. No se puede garantizar que ambos componentes —la página web y el controlador principal— se encuentren en la misma red, lo que introduce posibles vulnerabilidades, especialmente en cuanto a la autenticidad e integridad de los datos transmitidos. Para abordar esta situación, se utiliza gRPC como protocolo de comunicación entre la web y la computadora principal. Gracias a su alta velocidad, baja latencia y facilidad de integración con distintos lenguajes de programación, gRPC resulta una solución ideal para este proyecto [10]. Mientras que los robots se comunican entre sí mediante ROS, la web y la computadora principal intercambian datos a través de gRPC.

Esta arquitectura también resuelve el problema de la distribución segura de llaves a los robots. En un entorno puramente ROS, no existe un mecanismo confiable para enviar llaves de forma segura; sin embargo, al combinar ROS con gRPC, este proceso se vuelve más seguro y eficiente. El flujo funciona de la siguiente manera: cuando la computadora principal detecta un cambio en el conjunto de llaves o recibe nuevas, envía un mensaje mediante ROS notificando a los robots que ha habido una actualización. Al recibir esta notificación, cada robot realiza una solicitud por gRPC para obtener sus nuevas llaves personales, lo que garantiza la seguridad, privacidad y autenticidad tanto de los robots como del sistema en general.

En este laboratorio virtual de robótica, la transmisión de video en tiempo real es esencial para permitir la supervisión y el control remoto de los robots. Para lograr este objetivo, hemos implementado WebRTC (Web Real-Time Communication), una tecnología diseñada para la comunicación audiovisual entre navegadores. Una de las principales razones para utilizar WebRTC es su capacidad de ofrecer baja latencia inferior a 200 milisegundos, lo que permite una experiencia fluida. A diferencia de otras soluciones tradicionales como RTMP (Real-Time Messaging Protocol), que suelen presentar latencias de entre 2 y 5 segundos, o HLS (HTTP Live Streaming), que puede superar los 10 segundos[11].

Además de su eficiencia en el tiempo de respuesta, WebRTC es una alternativa recomendable por su compatibilidad nativa con la mayoría de los navegadores modernos y por no requerir la instalación de software adicional, lo que facilita el acceso desde distintos dispositivos. Esta tecnología también ofrece mecanismos de seguridad integrados, como el cifrado de extremo a extremo, lo cual resulta fundamental en entornos educativos y científicos donde se manejan datos sensibles.

Diagrama de Bloques:

La página web está diseñada para ofrecer una experiencia interactiva y simplificada a estudiantes, docentes y administradores. Cuenta con una página principal que proporciona noticias e informaciones generales sobre el laboratorio, los experimentos y los robots. Además, dispone de una sección dedicada al laboratorio, donde los usuarios pueden acceder a sus experimentos. Estos experimentos permiten controlar robots en tiempo real, así como grabar videos, capturar imágenes y realizar observaciones detalladas de los movimientos del robot. Por otro lado, el sistema incluye un módulo de administración exclusivo para superadministradores, desde el cual se gestionan los experimentos, usuarios y configuraciones generales de la plataforma.

Parte de los requerimientos del proyecto es el mantenimiento y calidad del software. Docker es una parte esencial del software. Este crea contenedores, ambientes controlados, donde corren las diferentes aplicaciones. La aplicación para los nodos de los robots individuales en cada raspberry pi corre en un contenedor de docker. Al igual que la aplicación en la computadora principal y la página web, todos estarán corriendo en contenedores de docker. Desplegar las aplicaciones en contenedores crea determinismo, obtener el mismo resultado sin importar factores externos, al momento de correrlas. Si en el futuro se desea intercambiar la raspberry pi por otra, o mover la posición de la computadora principal, no hay que preocuparse de la configuración interna de la aplicación, solo que las computadoras puedan usar docker.

Los contenedores de docker también son utilizados en otra parte del proyecto. Los usuarios de la aplicación pueden subir sus propias rutinas para controlar los robots. Esto implica que los usuarios necesitan un ambiente de desarrollo que imita la funcionalidad de la aplicación desplegada. El proyecto provee 2 maneras de desarrollar rutinas. La primera es mediante un contenedor de docker. Este estará conectado con un folder en la computadora del usuario, el cual puede crear una cantidad ilimitada de rutinas. El usuario puede probar si lo que hizo funcionó al subir o correr el contenedor. La segunda forma es mediante una máquina virtual. Esta también funciona como ambiente de prueba, pero es mucho más visual e interactivo que un contenedor. Esto se obtiene a cambio de rendimiento, donde la máquina virtual está garantizada a correr más lenta que un contenedor de docker. Cuando el usuario termine de crear su rutina este podrá entrar a un experimento dentro de su laboratorio, seleccionar el robot, mandar la rutina y probar como su código funciona en la vida real.

Los robots RSLK necesitan una raspberry pi para ser controlados, y estas necesitan una batería externa para que funcionen. Para que el robot sea móvil se necesita crear una estructura física donde colocar la raspberry pi y su batería. Utilizando los motores del robot y agujeros presentes podemos crear un estante o “hat” para el robot. Debido a que es un robot diferencial, que tiene 2 ruedas para moverse, el balance de este se tiene que tomar en cuenta al momento de agregar más peso encima de él. La raspberry pi y la batería se posicionan entre las ruedas y el rodillo esférico, la bola trasera que ayuda a balancear el robot. Este hat está hecho de paletas y palillos de madera. Son fáciles de remover si es necesario y de bajo costo. Para prevenir que las raspberry y la batería se caigan durante movimiento, estas están soportadas por velcro adhesivo.

(Figura 1) Robot RSLK MAX básico

(Figura 2) Hat para el robot RSLK MAX

(Figura 3) Unificación del hat y el robot

(Figura 4) El hat mas el robot con el peso de la batería y raspberry pi.

Resultados:

El laboratorio virtual Robot Gym permite a los estudiantes ejecutar experimentos robóticos en tiempo real a través de una interfaz web, eliminando la dependencia directa del hardware físico así disminuyendo los requerimientos técnicos para el aprendizaje de robótica. Esta logra una integración estable entre ROS y gRPC, lo que facilita una comunicación segura y eficiente entre los robots físicos y la plataforma web. Además, esta incorpora una tecnología de transmisión de video en tiempo real utilizando WebRTC, con latencias menores a 200 ms, optimizando así la experiencia del usuario durante el control remoto de los robots.

La plataforma es desplegada en su totalidad mediante contenedores Docker, lo que asegura entornos reproducibles y fácilmente escalables. Este enfoque permite una gestión más efectiva de las aplicaciones tanto en Raspberry Pi como en el servidor principal.

Se comprobó que el sistema de autenticación basado en mensajes SecureTwist es efectivo al prevenir accesos no autorizados de los robots. Cada robot responde exclusivamente a comandos asociados con su llave única, lo que asegura un entorno seguro incluso al permitir la carga de rutinas creadas por los usuarios. Esto demuestra la viabilidad técnica del laboratorio virtual, fundado en un base sólida para futuras expansiones.

Conclusiones:

El desarrollo de RobotGYM V2 representa un avance significativo en la modernización de la enseñanza de la robótica en el contexto universitario, proporcionando un entorno virtual que replica de manera eficaz los desafíos del control robótico físico. Esta solución responde a la creciente necesidad de plataformas accesibles, seguras y prácticas para el aprendizaje autónomo en el área de robótica.

La integración de tecnologías como ROS, gRPC y WebRTC permite superar barreras técnicas relacionadas con la conectividad, la latencia y la seguridad, aspectos fundamentales para una experiencia educativa y remota de calidad. La modularidad del sistema facilita su mantenimiento y escalabilidad, lo cual le permite adaptarse a futuros cambios tecnológicos o tipos de robots.

Desde una perspectiva pedagógica, el laboratorio fomenta el desarrollo de las habilidades técnicas mediante la práctica directa y la experimentación, introduciendo nuevos conceptos no conocidos en clases formales o reforzando los ya existentes. Además, el hecho de que los estudiantes puedan subir y correr sus propias rutinas incentiva la creatividad, la autonomía y el pensamiento crítico y lógico.

En conclusión, el Robot Gym v2 no solo aborda una necesidad educativa, sino que establece un precedente para futuras iniciativas de laboratorios virtuales en otras áreas del aprendizaje e ingeniería. Su diseño abierto reproducible y seguro lo posiciona como una herramientas versátil que puede extenderse más allá del aula tradicional, promoviendo una educación de robótica más dinámica, accesible y sencilla, preparada para los retos del futuro.

(Figura 5) Página web, control manual del robot

Referencias:

[1] J. Smith, Introduction to Robotics and Automation, 3rd ed. New York, NY, USA: Springer, 2021.

[2] T. Lam, “Advancing Robotics Education Challenges Opportunities,” Botificial Intelligence Society (HK), 2025. https://www.academia.edu/127642699/Advancing_Robotics_Education_Challenges_Opportunities (accessed Apr. 03, 2025).

[3] M. Vasou, Georgios Kyprianou, Angelos Amanatiadis, and S. A. Chatzichristofis, “Transforming Education with AI and Robotics: Potential, Perceptions, and Infrastructure Needs,” Lecture notes in business information processing, pp. 3–18, Jan. 2025, doi: https://doi.org/10.1007/978-3-031-81322-1_1.

[4] R. Melissa, “Robots Among Us – The Global Robotics Market Growing Rapidly – Statzon Blog,” Statzon.com, Dec. 04, 2024. http://statzon.com/insights/global-robotics-market-growing-rapidly (accessed Jul. 21, 2025).

[5] P. Zamora, A. Lozada, J. Buele, and Fátima Avilés-Castillo, “Robotics in higher education and its impact on digital learning,” Frontiers in Computer Science, vol. 7, Jun. 2025, doi: https://doi.org/10.3389/fcomp.2025.1607766.

[6] F. Ouyang and W. Xu, “The effects of educational robotics in STEM education: a multilevel meta-analysis,” International Journal of STEM Education, vol. 11, no. 1, Feb. 2024, doi: https://doi.org/10.1186/s40594-024-00469-4.

[7] D. Portugal, R. P. Rocha, and J. P. Castilho, “Inquiring the robot operating system community on the state of adoption of the ROS 2 robotics middleware,” International Journal of Intelligent Robotics and Applications, Oct. 2024, doi: https://doi.org/10.1007/s41315-024-00393-4.

[8] “Texas Instruments Robotics System Learning Kit User guide Robot Systems Learning Kit (TI-RSLK) User Guide 2 Texas Instruments Robotics System Learning Kit: The Solderless Maze Edition SEKP166.” Accessed: Apr. 02, 2025. [Online]. Available: https://www.ti.com/lit/ml/sekp166/sekp166.pdf

[9] A. Beato,»ROBOT GYM DE ACCESO REMOTO CON SISTEMAS EMBEBIDOS», Ago 2024.

[10] R. Le, “gRPC vs REST speed comparison,” SHIFT ASIA | Dev Blog, Dec. 04, 2023. https://shiftasia.com/community/grpc-vs-rest-speed-comparation/

[11] Santos-González, I. & Rivero, Alexandra & Molina-Gil, Jezabel & Caballero-Gil, Pino. (2017). Implementation and Analysis of Real-Time Streaming Protocols. Sensors. 17. 10.3390/s17040846.

Detectar un ACV con IA: una herramienta que puede salvar vidas

A poster of a brain

AI-generated content may be incorrect.

Pontificia Universidad Católica Madre y Maestra, PUCMM

Emely Gómez y Justin Quijada

Introducción

Cada minuto que pasa durante un accidente cerebrovascular representa una pérdida neuronal irreversible: aproximadamente 1.9 millones de neuronas mueren cada 60 segundos si no se interviene a tiempo. Esta estadística, respaldada por estudios clínicos, fue el punto de partida para desarrollar un sistema de diagnóstico asistido por inteligencia artificial. En un país como el nuestro, República Dominicana, donde muchos hospitales enfrentan limitaciones en cuanto a disponibilidad de especialistas en neuroimagen, es común que los pacientes no sean diagnosticados en la ventana de tiempo crítica. Por eso, este proyecto propone una solución que no solo automatiza el análisis de imágenes médicas, sino que también actúa como una segunda opinión confiable, rápida y consistente.

La iniciativa fue desarrollada por Emely Gómez y Justin Quijada, estudiantes de Ingeniería en Ciencias de la Computación en la PUCMM, bajo la mentoría del profesor José Luis Alonso. La idea nació al observar una brecha recurrente en hospitales y clínicas: el proceso de interpretar una resonancia magnética (específicamente DWI) depende casi exclusivamente del criterio de un radiólogo experimentado, cuya carga de trabajo muchas veces impide un análisis exhaustivo. Nuestra propuesta introduce un modelo de deep learning entrenado con imágenes reales para detectar señales de ACV de forma automática, acompañada de una interfaz visual pensada para el médico.

Este proyecto se desarrolló en colaboración con la Clínica Materno Infantil en Santiago de los Caballeros, que facilitó un conjunto de imágenes DWI reales, garantizando su anonimización y calidad clínica. Asimismo, contamos con la asesoría de la Dra. Esmirna Y. Farington, especialista en neurología, quien orientó la validación clínica y los criterios diagnósticos que guiaron el desarrollo del sistema.

Cuando cada segunda cuenta: la urgencia de detectar un ACV

Los accidentes cerebrovasculares (ACV), también conocidos como strokes, son una de las primeras causas de discapacidad y muerte en el mundo. Se estima que cada año más de 15 millones de personas sufren un ACV, y al menos un tercio queda con secuelas neurológicas permanentes. En República Dominicana, como en muchos otros países en vías de desarrollo, los recursos de diagnóstico avanzado suelen concentrarse en grandes ciudades, lo que complica la atención de pacientes en regiones rurales o con menor infraestructura.

El ACV se presenta en dos formas principales: isquémico, cuando un coágulo bloquea el flujo sanguíneo hacia el cerebro, y hemorrágico, cuando un vaso sanguíneo se rompe y sangra dentro del tejido cerebral. Ambos requieren atención médica inmediata, pero el isquémico —que representa casi el 85% de los casos— puede beneficiarse significativamente si se detecta dentro de las primeras tres horas.

El problema radica en que los síntomas pueden ser sutiles o confundirse con otras condiciones, y que la herramienta más efectiva para detectarlos a tiempo —la resonancia magnética ponderada por difusión (DWI)— requiere interpretación experta, la cual no siempre está disponible.

En muchos hospitales, la carga de trabajo, la fatiga del personal y la falta de tecnología hacen que una imagen DWI se quede sin ser evaluada a tiempo. A esto se suma la variabilidad interobservadora, donde dos médicos podrían llegar a conclusiones distintas ante la misma imagen. Esta subjetividad, aunque natural, representa una amenaza al tratamiento oportuno. Por ello, vimos en la IA no una forma de sustituir al médico, sino de ofrecer una herramienta que aporte velocidad, precisión y objetividad al análisis.

Lo que se ha hecho antes: una base para mejorar

Diversos estudios han respaldado la efectividad del uso de modelos de aprendizaje profundo en la detección automatizada de accidentes cerebrovasculares. En su investigación, Mahmud et al. (2022) desarrollaron un sistema basado en redes neuronales convolucionales (CNN) personalizadas, denominado OzNet, diseñado para clasificar imágenes médicas de tomografía computarizada (CT) en categorías relacionadas con ACV. El modelo logró una precisión del 98.4 %, con un AUC de 0.99, al combinar técnicas de extracción automática de características con algoritmos supervisados como Naïve Bayes y SVM. Esta investigación valida el enfoque de aplicar CNN especializadas para tareas médicas críticas, reforzando la propuesta de nuestro proyecto, que utiliza modelos pre-entrenados adaptados para el análisis de imágenes por resonancia DWI.

Una IA al servicio del diagnóstico médico

Frente a las limitaciones del diagnóstico clínico tradicional de ACV, desarrollamos un sistema de apoyo médico basado en técnicas avanzadas de inteligencia artificial (IA), específicamente deep learning, capaz de analizar imágenes por resonancia magnética DWI y emitir una predicción automatizada sobre la presencia o ausencia de un accidente cerebrovascular. Esta solución se concibió no como un reemplazo del médico especialista, sino como una herramienta complementaria que actúe como una segunda opinión objetiva, rápida y reproducible, especialmente útil en centros con recursos limitados o alta carga asistencial.

El núcleo del sistema es un modelo de red neuronal convolucional (CNN) orientado a la clasificación de imágenes médicas. En la fase inicial se evaluaron varias arquitecturas avanzadas, entre ellas EfficientNetB3 y ResNet50, por su popularidad en tareas de visión computacional. Sin embargo, DenseNet121 demostró un desempeño superior en términos de estabilidad, precisión y capacidad para capturar patrones sutiles en imágenes DWI, lo que motivó su elección como modelo definitivo. Para maximizar su efectividad, se aplicó transfer learning, reutilizando pesos preentrenados en ImageNet y ajustando las capas superiores mediante fine-tuning, junto con regularización y técnicas de optimización para mejorar la generalización.

Para facilitar la interacción con el modelo, se desarrolló una interfaz gráfica de usuario utilizando la plataforma Streamlit, lo que permitió construir una aplicación web ligera, intuitiva y compatible con entornos hospitalarios. Esta interfaz permite cargar imágenes médicas, visualizar la predicción del sistema (stroke / no stroke), consultar métricas de confianza como el AUC y el F1-score, y observar mapas de activación generados con Grad-CAM, que resaltan las zonas que el modelo considera más relevantes para su decisión.

FIGURA 1: Diagrama de procesos

LINK: https://drive.google.com/file/d/1JGOIhBGLqtvdsAYQPbXTXdNo6e5YkAsU/view?usp=shar ing

A nivel técnico, la arquitectura del sistema no se limita únicamente al modelo predictivo, sino que representa una arquitectura completa que abarca desde el procesamiento inicial de la imagen hasta la generación de un informe visual interpretativo. Al cargar una imagen DWI, esta pasa por una etapa de preprocesamiento donde se normaliza su escala de grises, se redimensiona a una resolución estándar y se convierte en un tensor compatible con el modelo.

Posteriormente, la imagen procesada se alimenta a la red neuronal seleccionada —DenseNet121, EfficientNetB3 o ResNet50— la cual emite una predicción binaria sobre la presencia de un stroke. Esta predicción, junto con los mapas de activación generados por Grad-CAM, se traduce en una visualización comprensible para el usuario médico, facilitando tanto el diagnóstico como la validación clínica.

Una de las prioridades fue garantizar que el modelo no opere como una caja negra. A diferencia de otros modelos de IA que operan como cajas negras, este proyecto integró desde el inicio técnicas de explicabilidad para evitar decisiones automatizadas sin justificación. Gracias a Grad-CAM, el médico no solo recibe una respuesta del modelo, sino también una imagen con las áreas cerebrales destacadas que influyeron en la decisión. Esta capacidad es fundamental en entornos clínicos, donde cada diagnóstico debe estar respaldado por evidencia visual o estadística. Al promover la transparencia, se fortalece la aceptación del sistema dentro del equipo médico y se reducen las barreras éticas para su implementación.

Además, se integraron múltiples estrategias de preprocesamiento y aumento de datos para mejorar la robustez del sistema ante imágenes de diferentes formatos, calidades y condiciones clínicas. Esto incluyó normalización, redimensionamiento, simulación de variaciones clínicas mediante transformaciones visuales, y generación de imágenes sintéticas. Esta etapa fue clave para asegurar que el sistema pudiera adaptarse a diferentes entornos médicos reales.

Cómo diseñamos una IA confiable para imágenes médicas

El diseño de una herramienta de apoyo clínico basada en IA requiere mucho más que un buen modelo de predicción: implica entender el flujo clínico, las limitaciones tecnológicas de los centros médicos y los criterios éticos para construir confianza en un sistema automatizado. Por esta razón, el primer paso fue construir una base sólida de datos con imágenes reales de resonancia magnética DWI. Estas imágenes fueron proporcionadas por la Clínica Materno Infantil, cuidadosamente anonimizadas y validadas por profesionales del área médica. Esta etapa fue fundamental, ya que los modelos de aprendizaje profundo dependen críticamente de la calidad y la diversidad del conjunto de entrenamiento para aprender patrones fiables.

Uno de los mayores desafíos fue el desequilibrio de clases, es decir, la diferencia en la cantidad de imágenes de pacientes con ACV versus sin ACV. Este es un problema común en datasets médicos, que tiende a sesgar los modelos hacia la clase mayoritaria. Para enfrentarlo, se aplicaron técnicas de aumento de datos (data augmentation) y se generaron imágenes sintéticas utilizando transformaciones controladas. Estas incluían rotación, zoom, variación de contraste y simulaciones de artefactos clínicos comunes, como ruido de escáner. Estas estrategias ayudaron a expandir el conjunto de datos sin comprometer la veracidad clínica.

La arquitectura del modelo se basó en DenseNet121, elegida por su capacidad para reutilizar características entre capas densamente conectadas, reduciendo el riesgo de degradación del gradiente y maximizando la eficiencia en el aprendizaje. Inicialmente, se exploraron arquitecturas como ResNet50 y EfficientNetB3, pero tras múltiples pruebas comparativas, DenseNet121 mostró un mejor equilibrio entre desempeño, estabilidad y velocidad de convergencia. En lugar de entrenar desde cero, se aplicó transfer learning para aprovechar pesos previamente entrenados en ImageNet, adaptándolos a las imágenes DWI mediante fine-tuning en las capas superiores.

Para entrenar cada modelo, se utilizó validación cruzada estratificada por grupo de paciente, lo que garantiza que las imágenes del mismo paciente no aparezcan simultáneamente en los conjuntos de entrenamiento y validación. Esta estrategia evita el sobreajuste y simula un escenario clínico real, donde el modelo debe predecir correctamente imágenes de nuevos pacientes nunca antes vistos por la red. Además, se aplicó early stopping y regularización mediante dropout para controlar el sobreajuste.

La capa final de nuestro sistema fue el desarrollo de una interfaz amigable e intuitiva, pensada para ambientes clínicos reales. Para ello se utilizó Streamlit, una plataforma de desarrollo rápido de aplicaciones web en Python. La aplicación permite cargar imágenes DWI, recibir la predicción del modelo, visualizar métricas como F1-score y AUC, y observar mapas explicativos. Esta solución fue diseñada para poder ejecutarse de forma local en equipos con capacidad limitada, sin necesidad de conexión a internet, garantizando la portabilidad a centros rurales.

Desde el punto de vista técnico, la arquitectura completa sigue un flujo estandarizado: la imagen pasa por una etapa de preprocesamiento (normalización, redimensionamiento y conversión a tensor), luego es analizada por el modelo seleccionado, y finalmente se generan los mapas de activación y predicción. Este flujo fue modularizado y empaquetado para facilitar su integración en futuras soluciones hospitalarias o sistemas de archivo de imágenes médicas (PACS).

Figura 2: mapa conceptual del proyecto.

LINK:

https://drive.google.com/file/d/1Izt-uz44T2Bj4L9wD-K47jTefIXi1OM0/view?u sp=sharing

En paralelo, se implementaron funciones de monitorización del desempeño durante el entrenamiento, incluyendo seguimiento de curvas de aprendizaje y comparación de modelos. Esta información fue crucial para seleccionar el modelo con mejor equilibrio entre sensibilidad y especificidad, parámetros vitales en medicina donde los falsos negativos pueden costar vidas. Además, se exploró el uso de métricas personalizadas más allá de la precisión.

Resultados:

Los resultados que se presentan corresponden a DenseNet121, la arquitectura que, tras un análisis comparativo con modelos como ResNet50 y EfficientNetB3, demostró el mejor equilibrio entre precisión y estabilidad. Durante la validación cruzada (5-Fold CV), este modelo alcanzó un desempeño sobresaliente en métricas críticas como AUC y F1-score. Posteriormente, en el conjunto de prueba, mantuvo esta robustez, confirmando su capacidad para generalizar en escenarios clínicos reales:

Métrica Valor promedio
Accuracy 0.8539
Precision 0.8222
Recall 0.8368
Specificity 0.8487
F1-Score 0.8288
AUC 0.9146
FNR 0.1632

Estos resultados indican que el sistema mantiene una alta capacidad discriminativa (AUC ≈ 0.91), reduciendo falsos negativos, lo cual es esencial para no omitir casos de ACV. La combinación de recall elevado (0.8368) y specificity (0.8487) confirma que el modelo responde bien tanto a imágenes con ACV como a aquellas sin la condición.

Curvas de entrenamiento y validación:

Se observó que las métricas de entrenamiento convergieron rápidamente, mientras que la validación se mantuvo estable, lo que indica un buen ajuste sin sobreentrenamiento significativo.

A collage of graphs

AI-generated content may be incorrect.

Figura 3. Curvas de aprendizaje de DenseNet121: Accuracy, Loss, AUC y F1-score.

Evaluación en el conjunto de prueba

En la fase de prueba, el modelo DenseNet121 demostró una notable capacidad de generalización, manteniendo un rendimiento alineado con lo observado en la validación cruzada. La exactitud global (Accuracy = 86.58%) confirma que el sistema puede clasificar correctamente la mayoría de las imágenes DWI, incluso en escenarios no vistos durante el entrenamiento. Sin embargo, en contextos médicos, la precisión global no es suficiente: la diferencia entre un falso negativo y un falso positivo puede significar la vida del paciente o una intervención innecesaria.

Por ello, es fundamental analizar otras métricas:

  • Recall = 86.25%, lo que indica que el modelo detecta la mayoría de los casos reales de ACV, reduciendo el riesgo de omitir diagnósticos críticos.
  • Precision = 80.20%, un valor que refleja un buen equilibrio, aunque muestra que todavía existe margen para reducir falsos positivos.
  • F1-Score = 83.11%, que combina sensibilidad y precisión, ofreciendo una medida robusta del desempeño general.
  • Finalmente, el AUC de 0.9430 es particularmente relevante: significa que, ante cualquier umbral, el modelo conserva una alta capacidad para discriminar entre casos positivos y negativos. En la práctica clínica, esto se traduce en flexibilidad para ajustar el umbral según las prioridades médicas (por ejemplo, priorizar la detección temprana frente a la minimización de falsos positivos)

Figura 4. Matriz de confusión y curva ROC en el conjunto de prueba.

Ejemplos visuales de predicciones

Uno de los mayores desafíos en la implementación clínica de IA es la confianza del usuario médico. Para abordar esta necesidad, el sistema no solo devuelve un resultado binario (stroke / no stroke), sino que también ofrece ejemplos visuales de las predicciones realizadas, acompañadas de la probabilidad asociada. Esto permite al radiólogo no depender ciegamente de la tecnología, sino contrastar la salida del modelo con su propio juicio.

Para reforzar la confianza clínica, el sistema muestra la imagen DWI analizada junto con la clase predicha y su probabilidad asociada.

Figura 5. Ejemplos de predicciones sobre imágenes DWI, con etiqueta real, predicción y probabilidad.

Este nivel de interpretabilidad no es un detalle estético, sino un pilar ético y práctico: evita que la IA funcione como una “caja negra” y facilita la toma de decisiones compartidas, donde el modelo actúa como un asistente y no como un sustituto. Además, las probabilidades asociadas permiten configurar umbrales adaptativos en función del riesgo clínico, ofreciendo un control adicional en entornos donde cada minuto cuenta.

Conclusión:

Este proyecto marca un paso importante hacia la integración de la inteligencia artificial en entornos clínicos donde el tiempo y la precisión son determinantes. Si bien en la etapa inicial se evaluaron arquitecturas como ResNet50 y EfficientNetB3, DenseNet121 demostró ser la opción más adecuada gracias a su estructura densa, que optimiza la propagación del gradiente y la reutilización de características. Esta arquitectura alcanzó un AUC de 0.9430 y un F1-score superior al 83%, confirmando su capacidad para detectar ACV en imágenes DWI con alta confiabilidad y ofreciendo una base sólida para futuras aplicaciones clínicas.

Los resultados obtenidos evidencian un modelo sólido, con un AUC superior al 91% y un balance adecuado entre sensibilidad y especificidad, lo que permite confiar en su capacidad para detectar un ACV incluso en condiciones clínicas complejas. Más allá de las métricas, la verdadera fortaleza del sistema radica en su diseño explicable: herramientas como Grad-CAM aportan una transparencia que refuerza la confianza médica, un aspecto imprescindible cuando se trata de decisiones que afectan directamente la vida del paciente.

Sin embargo, ningún avance tecnológico está exento de desafíos. La dependencia de datos limitados y la necesidad de validación multicéntrica siguen siendo tareas pendientes, al igual que la adaptación para entornos con recursos reducidos. Estas limitaciones, lejos de ser un obstáculo, representan oportunidades para la evolución futura del proyecto: integración con sistemas PACS, optimización para dispositivos edge y validación en tiempo real son metas alcanzables que acercarán esta herramienta a su adopción clínica definitiva.

En última instancia, la relevancia de este trabajo trasciende lo técnico. Supone una reflexión sobre el papel de la IA en la medicina moderna: no como un reemplazo del juicio humano, sino como un aliado que aporta velocidad, consistencia y objetividad. Si cada minuto cuenta durante un ACV, cada innovación que reduzca ese tiempo es, en esencia, una herramienta que salva vidas.

Referencias:

  1. M. U. Emon, M. S. Keya, T. I. Meghla, M. M. Rahman, M. S. Al Mamun, and M. S. Kaiser, “Performance Analysis of Machine Learning Approaches in Stroke Prediction,” in Proc. 4th Int. Conf. Electron. Commun. Aerosp. Technol. (ICECA), Jan. 2020, pp. 1464–1469, doi: 10.1109/ICECA49313.2020.9297525
  2. C. Shorten and T. M. Khoshgoftaar, “A Survey on Image Data Augmentation for Deep Learning,” Journal of Big Data, vol. 6, no. 1, p. 60, 2019, doi: 10.1186/s40537-019-0197-0.
  3. M. Tan and Q. V. Le, “EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks,” in Proc. 36th Int. Conf. Mach. Learn. (ICML), Jun. 2019, pp. 10691–10700.
  4. R. R. Selvaraju, M. Cogswell, A. Das, R. Vedantam, D. Parikh, and D. Batra, “Grad-CAM: Visual Explanations from Deep Networks via Gradient‑Based Localization,” in Proc. IEEE Int. Conf. Comput. Vis. (ICCV), Venice, Italy, Oct. 2017, pp. 618–626.
  5. Streamlit Documentation, Streamlit. [Online]. Available: https://docs.streamlit.io/. [Accessed: Jul. 16, 2025].
  6. J. M. Johnson and T. M. Khoshgoftaar, “Survey On Deep Learning With Class Imbalance,” J. Big Data, vol. 6, no. 1, p. 27, 2019, doi: 10.1186/s40537-019-0192-5
  7. J. Yosinski, J. Clune, Y. Bengio, and H. Lipson, “How transferable are features in deep neural networks?,” in Proc. Adv. Neural Inf. Process. Syst., Montreal, QC, Canada, Dec. 2014, pp. 3320–3328.
  8. R. R. Selvaraju, M. Cogswell, A. Das, R. Vedantam, D. Parikh, and D. Batra, “Grad‑CAM: Visual Explanations from Deep Networks via Gradient‑Based Localization,” in Proc. IEEE Int. Conf. Comput. Vis. (ICCV), Venice, Italy, Oct. 2017, pp. 618–626.
  9. J. Amann et al., “Explainability for artificial intelligence in healthcare: a multidisciplinary perspective,” BMC Medical Informatics and Decision Making, vol. 20, no. 310, 2020, doi: 10.1186/s12911-020-01332-6.
  10. A. B. Arrieta et al., “Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI,” Information Fusion, vol. 58, pp. 82–115, 2020, doi: 10.1016/j.inffus.2019.12.012.
  11. M. Sajjad et al., “Multi-grade brain tumor classification using deep CNN with extensive data augmentation,” Journal of Computational Science, 2019, doi:

10.1016/j.jocs.2019.05.003.

  1. X. Lu et al., “Deep learning for detecting acute stroke on diffusion-weighted imaging: A systematic review and meta-analysis,” Journal of Stroke and Cerebrovascular Diseases, 2022, doi: 10.1016/j.jstrokecerebrovasdis.2022.106430.

Plataforma para Monitoreo de Infraestructura Eléctrica y Vegetación 2.0

Enel Distribución despejó cerca de 70 mil árboles cercanos a la red  eléctrica en los últimos 6 meses - País Circular

Ruddy Gabriel Gómez Tejada Y Gabriel D. Jesús Reinoso Javier

Pontificia Universidad Católica Madre y Maestra, PUCMM

Introducción:

La energía eléctrica se ha convertido en una pieza fundamental y clave para el funcionamiento de nuestra sociedad. Como bien sabemos, no podemos acceder a este servicio sin las líneas de tendido eléctrico seguras que transporten esta energía a través del país. Sin embargo, uno de los fenómenos que más suelen afectar la estabilidad de este sistema, es la presencia de vegetación cercana a estas líneas. Por esta razón, es necesario un sistema automatizado para monitorear el estado de la vegetación cercana a los circuitos eléctricos y que mida el nivel de peligrosidad que esta presenta con el fin de ser utilizado por las autoridades pertinentes para tomar las medidas necesarias de mantenimiento.

Definición de la Problemática:

Cuando las ramas o árboles crecen demasiado cerca o entran en contacto con los cables, pueden provocar cortocircuitos, desconexiones e incluso incendios o electrocuciones. Durante fenómenos climáticos como: tormentas, cientos fuertes o lluvias intensas, la probabilidad de que la vegetación caiga sobre el tendido eléctrico aumenta considerablemente, ocasionando daños estructurales y prolongando los cortes de energía [1]. No obstante, la Ley General de Electricidad No. 125-01 y su Reglamente de Aplicación establecen la responsabilidad de las empresas distribuidoras de realizar mantenimientos periódicos de la vegetación cercana a estas líneas para garantizar la seguridad y calidad del servicio [2].

Proyectos Anteriores:

El proyecto de N. Nakao, M. Vásquez “Levantamiento Georreferenciado de Vegetación Adyacente a Líneas Eléctricas”, PUCMM, 2024, surge como una solución directa al problema de la interferencia de la vegetación con el tendido eléctrico. Este sistema se basa en una serie de procesos en el que el usuario debe cargar imágenes del área tomadas por un dron, junto con los datos del circuito eléctrico. Posteriormente, se utiliza un nodo de procesamiento para analizar las imágenes, generar resultados preliminares y luego volver a cargarlos en la plataforma para su visualización y análisis. Si bien este sistema representa un avance muy importante, presenta limitaciones como la generación de falsos positivos y lo manual que es todo procedimiento.

El proyecto Analytics4Vegetation aborda esta problemática utilizando tecnologías más avanzadas. Este sistema emplea sensores LiDAR montados en helicópteros o drones para mapear con alta precisión la vegetación y su proximidad a las líneas eléctricas. Además, incorpora algoritmos predictivos que permiten anticipar el crecimiento de la vegetación y generar alertas tempranas sobre posibles riesgos de interferencia con la red eléctrica [3].

Solución Propuesta:

Para resolver las limitaciones del proyecto de “Levantamiento Georreferenciado de Vegetación Adyacente a Líneas Eléctricas”, del procedimiento manual que este posee y mejorar la precisión del análisis de vegetación cercana a líneas eléctricas, se propone una plataforma web tipo Sistema de Información Geográfica (SIG) [4] que automatiza y centraliza todas las etapas del proyecto. Esta plataforma permitirá cargar imágenes capturadas por drones, enviarlas automáticamente a un servidor que tendrá un módulo especializado para generar ortomosaicos y nubes de puntos, y posteriormente realizar el análisis de la vegetación detectada en función de su cercanía real a los circuitos eléctricos.

El sistema se integrará con una base de datos donde se guardarán los circuitos analizados, arboles y vegetación detectada, así como las evaluaciones hechas a los circuitos en forma de capas espaciales. En el sistema se aceptará como parámetros de realizar el análisis la capa de circuitos y las imágenes tomadas, esto con el fin de un desarrollo mas realista y evitando el uso de un algoritmo para generar estos circuitos en la imagen. A través de esta solución, solo se procesará la vegetación que represente un peligro real para los circuitos, optimizando recursos y reduciendo falsos positivos. Esto se hará mediante un algoritmo que recorte la imagen, limitándola solo donde se encuentra el circuito georreferenciado para evitar procesar toda la imagen sin necesidad.

Además, la plataforma generará reportes descargables, mantendrá un historial de evaluaciones por sectores, y permitirá comparar cambios luego de intervenciones como podas de árboles. Esta solución busca hacer más eficiente el monitoreo de la red eléctrica, facilitando la toma de decisiones para el mantenimiento preventivo y correctivo.

Metodología:

Para el desarrollo del proyecto se propuso el uso del siguiente flujo de trabajo:

Ilustración 1. Diagrama Representativo del Procesamiento.

La interfaz web de la plataforma tendrá un panel para iniciar el procesamiento de las imágenes y el circuito. El usuario estará supuesto a subir dos archivos comprimidos: uno con los datos de los circuitos en formato de capas espaciales (shp, shx, dbf, cpg, sbx) y el otro con las imágenes del área de circuito tomadas por el dron. La aplicación procederá a validar estos archivos de que sean correctos para el procesamiento y luego los enviará como solicitud REST a un servidor que contendrá diferentes módulos que servirán para automatizar el procesamiento.

A parte del código de procesamiento, en el servidor se tendrán tres sistemas fundamentales en el funcionamiento del flujo. El primero es el Node ODM que es una herramienta utilizada para procesar imágenes tomadas por drones y generar productos como ortomosaicos, nubes de puntos, entre otros [5]. El siguiente es Geoserver la cual es una plataforma que permite compartir, visualizar y editar datos geoespaciales a través de la web [6]. El ultimo sistema sería una base de datos para almacenar las capas y todo registro de la aplicación y así tener persistencia.

Los módulos y sus responsabilidades son las siguientes.

1. Módulo de control.

  1. Maneja la comunicación entre la aplicación y el servidor.
  2. Recibe los archivos con los circuitos y las imágenes enviadas por el usuario, los extrae y válida que tenga los archivos necesarios para el procesamiento.
  3. Envía las imágenes al Nodo ODM para que este las procese y genere el ortomosaico y la nube de puntos para el análisis.
  4. Envía la capa de circuitos, el ortomosaico y la nube de puntos al módulo de procesamiento CV.
  5. Módulo de Procesamiento de Visión Computacional.
    1. Maneja todo el procesamiento de análisis de la ortofoto y la nube de puntos.
    2. Unifica el circuito con la ortofoto georreferenciada con el fin de que se sepa dónde se recortara la imagen para realizar el análisis en esta.
    3. Se recorta la imagen para tener solamente el área del circuito para ser analizada.
    4. Se convierte la ortofoto en formato de vectores con el fin de ser manejadas computacionalmente.
    5. Se calcula el Índice de Verdor Triangular para poder sacar la capa verde de la ortofoto.
    6. Se crea una imagen binaria en base a la ortofoto para poder aplicar los filtros.
    7. Se aplica un filtro morfológico para segmentar la vegetación de la imagen.
    8. Se detectan los contornos como medida adicional para obtener vegetación.
    9. En la vegetación, mediante un algoritmo se detectan los centroides para detectar la ubicación de los árboles en la vegetación.
    10. Se utiliza el algoritmo Flood Fill en conjunto de los centroides para identificar y rellenar de forma eficiente las áreas vegetativas en la imagen.
    11. Se genera una máscara de vegetación utilizándolos contornos resultantes de Flood Fill.
    12. Se analiza detalladamente la altura de la vegetación cercana al circuito, teniendo en cuenta los polígonos y los vértices que los definen.
    13. Finalmente, cada segmento del circuito se clasifica según un índice de riesgo basado en dos factores: la proximidad de la vegetación y la altura de esta en relación con el circuito.
    14. Se envían las capas de circuitos, árboles, vegetación y el análisis realizado al módulo de almacenamiento.
  6. Módulo de Almacenamiento y Registro.
      1. Se convierte el análisis realizado en un objeto serial para ser almacenado en la base de datos. Básicamente, sería el mismo circuito con cada segmento indexado según su nivel de riesgo.
      2. Se crea un origen de datos en Geoserver para almacenar la ortofoto y poder mostrarla en el mapa de la aplicación.
      3. Se crea un objeto que relacione la ruta donde esta almacenada la imagen en Geoserver con el sector analizado y la fecha del análisis para poder filtrar esa imagen y mostrarla en el mapa desde la aplicación.
      4. Guardar los datos de la imagen, las capas de vegetación, árboles, circuitos y los segmentos analizados en la base de datos.

El usuario debe ser capaz de ver los circuitos, árboles, vegetación y el análisis realizado, filtrándolo por el nombre del sector analizado en el mapa de la aplicación. Estas capas son traídas en formato WMS [7] desde Geoserver para que las capas se puedan visualizarse en el mapa de forma casi instantánea. De igual forma, se deben descargar reportes desde la aplicación de los segmentos analizados según el usuario lo desee.

Resultados Obtenidos:

Con las imágenes tomadas por el dron en el proyecto anterior, se utilizaron como pruebas enviándolas al servidor de procesamiento. En conjunto con estas, se usó una capa de circuitos referente al área en la que se tomaron las imágenes. Para identificar el procesamiento, los datos que se envían se relacionan a una tarea creada por la aplicación, que se almacena en la base de datos y el ID de la misma es enviada al servidor de procesamiento para tener una constancia del estado del flujo.

Ilustración 2. Panel de Inicio del Procesamiento en la Plataforma.

El tiempo de procesamiento depende de la cantidad de imágenes enviadas. En este caso se enviaron 45 imágenes y todo el procedimiento tardó aproximadamente de 5-8 minutos. Podemos verificar que si se enviaron los datos revisando la dirección del nodo ODM y el estado de la tarea realizada.

Ilustración 3. Estado del Procesamiento de las Imágenes en el Node ODM.

Podemos monitorear el estado de la tarea en la lista de tareas realizadas en el panel de procesamiento, el cual se actualiza cada vez que los datos pasan de una fase a otra o si ocurre un erro durante el proceso. Una vez terminado el proceso podemos ir al area del mapa para verificar que los datos se almacenaron correctamente en la base de datos y que se traigan las capas desde Geoserver correctamente.

Ilustración 4. Mapa de la Plataforma.

En el campo de sector se traen todos los sectores que se tienen guardados en la base de datos, los cuales representan el área de análisis. Se muestran tres opciones para mostrar cada una de las capas que se sacaron del análisis enviado.

Ilustración 5. Capas del Sector Seleccionado Representadas en el Mapa.

En la imagen podemos ver las capas que se detectaron en la ortofoto trayéndose desde Geoserver. Las líneas azules representan el circuito que se subió en el panel de procesamiento para analizar, los puntos verdes son los árboles que se detectaron en el procesamiento de centroides de la vegetación y los polígonos grises representan la máscara de vegetación de la imagen.

Ilustración 6. Capa de Segmentos Vulnerables del Circuito Representada en el Mapa.

En el cambo de “Fecha de Análisis”, se despliega la lista de fechas en las que se hizo un análisis a ese sector. Cuando presionamos el botón “Mostrar análisis”, se nos trae la capa de circuitos, pero segmentado por colores que simbolizan el nivel de riesgo que representa la vegetación cercana a este segmento. Un segmento rojo representa un nivel de peligrosidad alto para ese segmento, amarillo medio y verde bajo, todo en base a la cercanía de la vegetación.

Ilustración 7. Ortofoto Utilizada para el Análisis Representada en el Mapa.

Para evidenciar que se hizo un correcto análisis de la imagen, podemos traer la misma desde Geoserver y mostrarla en la ubicación correcta del mapa, debido a que esta foto está georreferenciada.

Ilustración 8. Capa de Segmentos Vulnerables Unificada con la Imagen.

Como podemos ver, si mostramos el circuito por encima de la imagen, vemos que el nivel de peligrosidad de los segmentos es coherente con la ubicación de la vegetación en la trayectoria del circuito.

Ilustración 9. Capas de Árboles, Vegetación y Segmentos Vulnerables Unificadas en la Imagen.

Si mostramos las demás capas por encima de la imagen, evidentemente vemos como la vegetación se acopla en el mismo lugar donde se muestran en la imagen. Además, vemos que no se ve toda la vegetación de la imagen, esto se debe al proceso de recorte que se le hace a la imagen antes de realizar el análisis de riesgo. La imagen se recorta al nivel del circuito, es decir, solo se analizará el segmento de la imagen por donde pasa el circuito eléctrico, esto para evitar procesamiento innecesario, limitando el análisis a ser realiza con la vegetación cercana al circuito.

Conclusiones:

Este proyecto representa un avance significativo en la gestión automatizada del riesgo asociado a la vegetación cercana a los circuitos eléctricos. Al integrar procesamiento de imágenes aéreas, análisis geoespacial, visión computacional y visualización en un entorno web centralizado, esta solución mejora la precisión del diagnóstico, reduce la intervención manual y optimiza los recursos disponibles para el mantenimiento preventivo. Los resultados obtenidos validan su efectividad, mostrando un análisis coherente, segmentado por niveles de riesgo, y una visualización georreferenciada precisa. Esta plataforma no solo facilita la toma de decisiones operativas, sino que también promueve una gestión más segura y eficiente de la red eléctrica nacional.

Referencias:

  1. E. H. Plus, «Importancia de la poda para garantizar el servicio eléctrico,» [en línea]. Disponible en: https://ehplus.do/capsula-informativa-importancia-de-la-poda-paragarantizar-el-servicio-electrico/. [Accedido: 02-dic-2024].
  2. Ministerio de Energía y Minas, «Reglamento de Aplicación Ley 125-01,» [en línea]. Disponible en: https://mem.gob.do/wp-content/uploads/2019/04/Reglamento-deAplicaci%C3%B3n-Ley-125-01.pdf. [Accedido: 02-dic-2024].
  3. EDP, «Vega: Análisis de la vegetación situada cerca de redes eléctricas,» [en línea]. Disponible en: https://www.edp.com/es/innovacion/vega-analisis-de-la-vegetacionsituada-cerca-de-redes-electricas. [Accedido: 02-dic-2024].
  4. “GIS (geographic information system)”, Nationalgeographic.org. [En línea].

Disponible en: https://education.nationalgeographic.org/resource/geographic-

information-system-gis [Consultado: 13-jul-2025].

  1. “Open-source orthomosaicing with web-ODM and node-ODM API”, AGSRT. [En línea]. Disponible en: https://www.agsrt.com/event-details-registration/opensource-orthomosaicing-with-web-odm-and-node-odm-api. [Consultado: 13-jul-2025].
  2. “GeoServer”, Geoserver.org. [En línea]. Disponible en: https://geoserver.org/.

[Consultado: 13-jul-2025].

  1. “Web map service”, Open Geospatial Consortium. [En línea]. Disponible en:

https://www.ogc.org/standards/wms/. [Consultado: 13-jul-2025].

Detección Inteligente de Fugas en Redes de Agua: Una Plataforma Integrada con Sensores, Simulación e IA

Wheliver Rivas duran

Pontificia universidad católica madre y maestra, PUCMM

Introducción:

La detección de fugas en redes de distribución de agua potable representa uno de los retos más persistentes en la gestión urbana de recursos hídricos. Estas pérdidas no solo generan impactos económicos significativos, sino que también comprometen la sostenibilidad y disponibilidad del agua en regiones vulnerables. Ante este panorama, el presente proyecto surge como una solución innovadora desarrollada en la Pontificia Universidad Católica Madre y Maestra (PUCMM).

El sistema integra sensores físicos, simulación hidráulica y tecnologías modernas de software para ofrecer un monitoreo continuo y en tiempo real. La motivación del proyecto se basa en la necesidad de sustituir los métodos de inspección manual, lentos e imprecisos, por una plataforma inteligente, automatizada y escalable.

Contexto:

Las pérdidas de agua no contabilizada (Non-Revenue Water) representan hasta un 40% del volumen tratado en algunas ciudades, según estudios globales. Esta fuga de recursos afecta a operadoras, usuarios y el medioambiente. Las tecnologías tradicionales, como la detección acústica o las inspecciones manuales, son costosas, lentas e ineficientes ante fugas pequeñas o intermitentes. Sistemas como SMARTWATER, FIDO AI y LeakMan han demostrado la eficacia del uso combinado de sensores e inteligencia artificial, pero su implementación suele ser costosa o requiere infraestructura de difícil acceso. En ese contexto, este proyecto ofrece una alternativa accesible, escalable y altamente tecnológica.

Vista general del prototipo físico instalado en laboratorio con sensores en línea.

Enfoque de la problemática:

El desarrollo de este proyecto ha implementado un sistema de monitoreo inteligente para detectar fugas en redes hidráulicas urbanas mediante sensores físicos, simulación EPANET, backend en FastAPI y una interfaz Flutter. Se diseñó una red de nodos físicos basada en ESP32, con sensores de presión y flujo, conectados vía MQTT. El sistema permite el análisis en tiempo real, generación de alertas, mapas interactivos, y comparación con modelos simulados, alcanzando una precisión superior al 75% en pruebas de campo. El prototipo demuestra su capacidad para operar de manera continua, con validación cruzada entre sensores y gemelos digitales.

Detalle de los sensores de presión y flujo montados sobre las tuberías.

La metodología adoptada en este proyecto se basó en una arquitectura híbrida que combina la instalación de sensores físicos con simulaciones hidráulicas. En primera instancia, se diseñó una red de distribución a escala utilizando tuberías de CPVC y PVC, sobre las cuales se instalaron sensores de presión (30 PSI) y sensores de flujo tipo DIGITEN. Estos sensores se conectaron a microcontroladores ESP32, encargados de recopilar datos y transmitirlos a un servidor remoto usando el protocolo MQTT sobre redes Wi-Fi. Este enfoque de telemetría IoT permitió monitorear constantemente las condiciones hidráulicas de la red, con una frecuencia ajustable según la necesidad operativa.

Visualización del Sistema y Simulaciones:

Simulación de red hidráulica en EPANET utilizada para la comparación de datos.

Registro de datos:

Para interpretar los datos recolectados, se utilizó un servidor backend desarrollado con FastAPI. Este sistema no solo recibe y almacena los datos, sino que también realiza procesamiento en tiempo real, comparando los valores actuales con simulaciones obtenidas mediante EPANET. Esta integración con el simulador hidráulico permitió evaluar el comportamiento esperado frente a condiciones ideales, identificando cualquier desviación significativa como una posible fuga. La simulación se realizó sobre un modelo .inp ajustado al diseño físico de la maqueta, garantizando coherencia entre ambos entornos.

La interfaz de usuario fue desarrollada con Flutter, presentando mapas interactivos, gráficas dinámicas y tarjetas de información por nodo. Este diseño facilita el acceso a datos en tiempo real, permitiendo que operadores técnicos o usuarios administrativos puedan localizar rápidamente puntos críticos y visualizar las alertas generadas por el sistema. Se incorporaron animaciones visuales como el efecto ripple para representar nodos con fugas, mejorando la interpretación visual del estado de la red.

Recepción de datos en tiempo real vía MQTT y procesamiento en backend FastAPI.

Además, se diseñó un simulador IoT de alto volumen, capaz de emular más de 5000 sensores virtuales, lo que permitió validar la escalabilidad del backend bajo condiciones de estrés, y entrenar modelos de detección usando aprendizaje automático con datos sintéticos. Esta fase fue crucial para asegurar que el sistema mantuviera su estabilidad y tiempo de respuesta, incluso con múltiples conexiones simultáneas.

Limitaciones y Observaciones:

Durante las pruebas, el sistema demostró una tasa de precisión del 78% en la detección de fugas, con una latencia promedio de alerta de 2.3 segundos. El prototipo físico respondió correctamente a variaciones de presión introducidas manualmente, y la visualización de alertas en el mapa interactivo coincidió con la ubicación física de las fugas simuladas. La comparación entre los valores obtenidos en campo y los valores esperados por EPANET mostró una desviación promedio inferior al 10%, validando la efectividad del modelo hidráulico calibrado.

El simulador IoT permitió ejecutar cargas de más de 5000 nodos virtuales sin interrupciones en el backend. Además, las visualizaciones en Flutter conservaron fluidez en la interfaz incluso al mostrar múltiples alertas simultáneas. Estos resultados evidencian la robustez del sistema tanto en su componente físico como en el virtual, confirmando su potencial para implementaciones reales en redes urbanas.

Vista de la interfaz Flutter con geolocalización de nodos en el sistema de detección de fugas.

Interfaz del Usuario:

La convergencia entre sensores físicos, simulación hidráulica e inteligencia artificial permitió desarrollar un sistema de monitoreo integral para redes de agua potable. El prototipo demostró su funcionalidad en un entorno controlado, y su arquitectura es fácilmente escalable para redes reales. La combinación de herramientas como MQTT, FastAPI, EPANET y Flutter ofrece una solución robusta, accesible y altamente visual, que puede adaptarse a diferentes entornos operativos.

Como próximos pasos, se recomienda realizar pruebas en redes reales con condiciones variables, así como extender las capacidades de predicción mediante técnicas de aprendizaje profundo. También se sugiere desarrollar módulos de mantenimiento predictivo y una aplicación móvil dedicada al personal de campo. Este proyecto demuestra que es posible reducir significativamente las pérdidas de agua y mejorar la eficiencia operativa con tecnologías accesibles y bien integradas.

Resultados:

Durante la fase experimental del proyecto, se logró validar la efectividad del sistema en condiciones controladas, obteniendo los siguientes resultados claves: Precisión en la detección de fugas: El sistema alcanzó una precisión del 78% en la identificación de fugas reales, comparando los datos captados por los sensores con los valores simulados por EPANET.

Latencia promedio: El tiempo de respuesta entre la detección de una anomalía y la visualización en la interfaz fue de 2.3 segundos, permitiendo alertas casi en tiempo real.

Estabilidad del sistema: El backend en FastAPI mantuvo conexión constante con sensores físicos y el simulador IoT, incluso bajo condiciones de estrés con más de 5000 nodos virtuales.

Visualización geoespacial: La aplicación Flutter permitió representar los nodos en un mapa interactivo con animaciones visuales para alertas, facilitando la interpretación para operadores técnicos.

Almacenamiento y consulta eficiente: La integración con Firebase garantizó almacenamiento escalable y consultas rápidas de datos históricos.

Conclusiones:

Este proyecto demuestra que es posible implementar un sistema inteligente, robusto y accesible para el monitoreo continuo de redes de agua potable, integrando sensores físicos, simulación hidráulica y visualización interactiva:

Innovación tecnológica aplicada: La combinación de nodos físicos, modelos simulados y procesamiento en tiempo real representa un avance frente a las soluciones tradicionales de detección de fugas.

Escalabilidad y aplicabilidad: La arquitectura modular permite su adaptación a redes reales más complejas, con posibilidad de expansión hacia sectores rurales o urbanos.

Visualización amigable: La interfaz Flutter mejora la usabilidad del sistema para personal técnico y administrativo, facilitando la toma de decisiones operativas.

Base sólida para futuras investigaciones: Este sistema puede ampliarse con aprendizaje profundo, mantenimiento predictivo o integración con datos meteorológicos y sensores de calidad de agua.

Impacto social y ambiental: Al reducir significativamente las pérdidas de agua, la plataforma contribuye a una gestión más sostenible del recurso hídrico.

Referencias:

  1. Sharanya, U. G. et al., “Design and Implementation of IoT-Based Water Quality and Leakage Monitoring System,” IEEE, 2024.
  2. Peng, H. et al., “Leakage Detection in Water Distribution Systems Based on Logarithmic)” Spectrogram CNN,” Journal of Water Resources, vol. 150, no. 6, 2024.
  3. Zhou, X. et al., “Deep Learning for Burst Leakage Localization Using Pressure Data,” Journal of Hydroinformatics, vol. 21, no. 5, 2019.
  4. Abusukhon, A. et al., “A Novel Technique for Detecting Underground Water Pipeline Leakage,” Journal of Universal Computer Science, 2023.
  5. Rodríguez-Moreno, M. et al., “IoT Architecture for Monitoring and Detection of Water Leaks,” Universidad Politécnica Salesiana, 2022.
  6. Elshazly, D. et al., “GIS-Based Machine Learning for Leak Detection in Water Distribution Networks,” Applied Sciences, vol. 14, no. 13, 2024.
  7. A. J. Mounce, J. Machell, and J. Boxall, “Development and verification of an online burst detection methodology for water distribution systems,” Journal of Hydroinformatics, vol. 12, no. 2, pp. 173–191, 2010.
  8. B. Wu, J. Zhao, and M. Liu, “A Survey of Water Distribution System Monitoring and Leak Detection Technologies,” Sensors, vol. 20, no. 18, pp. 5149, 2020.
  1. F. Meneses and P. Ferreira, “Water leakage detection and localization using machine learning and wireless sensor networks,” Procedia Engineering, vol. 89, pp. 251–257, 2014.
  1. A. Pardo, L. Rodriguez, and F. Martinez, “EPANET-MATLAB toolkit: An open-source software for pipe network simulation,” Environmental Modelling & Software, vol. 63, pp. 19–25, 2015.
  2. S. Puust, Z. Kapelan, D. A. Savic, and T. Koppel, “A review of methods for leakage management in pipe networks,” Urban Water Journal, vol. 7, no. 1, pp. 25–45, 2010.
  1. Y. Li, Y. Bi, and S. Liu, “Anomaly Detection in Water Distribution Systems Using Graph Neural Networks,” in Proc. IEEE Int. Conf. on Smart Grid Communications, 2021, pp. 1–6.

Detección y ubicación de paneles solares defectuosos

Placas solares baratas - 8 fallos críticos

Bryant Joel Reynoso Taveras y Wilson De Jesús Gómez Bonilla

Pontificia Universidad Católica Madre y Maestra, PUCMM

Introducción:

La energía solar se ha posicionado como una de las principales alternativas para avanzar hacia un modelo energético más sostenible en la República Dominicana. Con una alta radiación solar promedio durante todo el año, el país ha visto un crecimiento acelerado en la instalación de sistemas fotovoltaicos tanto en entornos urbanos como rurales, desde viviendas particulares hasta parques solares de gran escala. No obstante, este desarrollo trae consigo un nuevo desafío: cómo monitorear y mantener de forma eficiente esas instalaciones en funcionamiento, garantizando su rendimiento a lo largo del tiempo.

En ese contexto, surge el proyecto “Detección y ubicación de paneles solares defectuosos”, desarrollado por los estudiantes Bryant Joel Reynoso Taveras y Wilson De Jesús Gómez Bonilla como parte de su trabajo de grado en la Pontificia Universidad Católica Madre y Maestra (PUCMM). El propósito fundamental es construir una herramienta tecnológica capaz de identificar visualmente paneles solares en imágenes aéreas tomadas por drones, determinar su ubicación geográfica y representar los hallazgos en una interfaz visual sencilla. Esta solución no solo automatiza una tarea que hasta ahora dependía casi exclusivamente de inspecciones manuales, sino que también responde a una necesidad local concreta: la falta de sistemas especializados de monitoreo para infraestructura solar.

El proyecto integra tecnologías de visión por computadora, inteligencia artificial y mapeo geoespacial. Empleando modelos de detección como YOLOv8-OBB, entrenados con imágenes anotadas localmente, se busca automatizar el reconocimiento de paneles solares en condiciones reales del país. Además, con herramientas como OpenDroneMap (ODM) y una aplicación móvil desarrollada en Flutter, se ofrece al usuario final una visualización intuitiva y funcional de los resultados. Esta propuesta representa un paso importante hacia la transformación digital del sector energético renovable en República Dominicana.

Más allá del componente técnico, esta iniciativa nace del deseo de contribuir al fortalecimiento de la infraestructura energética nacional. En un momento donde el cambio climático exige acciones concretas, facilitar el monitoreo de los sistemas solares es también una forma de proteger la inversión en tecnologías limpias y asegurar su impacto positivo a largo plazo. El proyecto se presenta, entonces, como una solución contextualizada, con el potencial de ser replicada, mejorada y escalada a nivel nacional e incluso regional.

Problemática y Estado del Arte:

El acelerado crecimiento de instalaciones solares en la República Dominicana ha puesto sobre la mesa una necesidad crítica: contar con mecanismos eficientes de inspección y monitoreo que garanticen la operatividad de estos sistemas a lo largo del tiempo. Aunque la expansión de la energía fotovoltaica representa un avance estratégico en la diversificación energética del país, su sostenibilidad depende, en gran medida, de la capacidad de detectar fallos o deterioro en los paneles instalados, especialmente en contextos donde las condiciones ambientales, la variabilidad climática y la exposición prolongada afectan su desempeño.

En la práctica, gran parte de las inspecciones solares en el país continúan realizándose de manera manual. Esto implica el desplazamiento físico de personal técnico, el uso de listas de chequeo tradicionales y la observación directa para identificar problemas visibles. Este enfoque, si bien funciona en pequeñas instalaciones, resulta inviable en sistemas distribuidos, techos de difícil acceso o parques solares de gran extensión. Además, introduce un margen de error humano que limita la estandarización de los procesos de mantenimiento y eleva los costos operativos. La falta de metodologías sistematizadas y de herramientas tecnológicas especializadas impide una supervisión eficiente a gran escala, restringiendo la capacidad de respuesta ante averías o pérdidas de rendimiento [1].

A nivel internacional, ya se han explorado soluciones que integran tecnologías como visión por computadora, aprendizaje profundo y vehículos aéreos no tripulados (drones) para automatizar la detección de paneles solares. En investigaciones pioneras como la de Malof et al., se emplearon imágenes aéreas de alta resolución y técnicas de segmentación supervisada para identificar paneles solares con resultados prometedores [2]. Otros trabajos, como el de Yu et al., propusieron el uso de redes neuronales convolucionales (CNN) profundas para detectar paneles en imágenes satelitales, logrando una precisión considerable incluso en entornos urbanos densos y complejos [3].

Una de las técnicas más utilizadas en la actualidad para este tipo de tareas es YOLO (You Only Look Once), un algoritmo de detección de objetos en tiempo real ampliamente validado por su capacidad de identificar múltiples elementos en una sola pasada sobre la imagen. Su eficiencia lo ha convertido en una herramienta clave en aplicaciones de inspección visual automatizada. Najibi et al. demostraron su utilidad al aplicarlo en contextos de detección aérea con estructuras pequeñas y similares a paneles solares, logrando alta velocidad y precisión [4].

Paralelamente, en el ámbito del mapeo georreferenciado, han surgido plataformas como OpenDroneMap (ODM), que permiten transformar conjuntos de imágenes aéreas en ortomosaicos detallados y modelos digitales del terreno. Estas soluciones han sido particularmente útiles en agricultura, conservación ambiental y monitoreo de infraestructuras energéticas [5]. Su valor radica en la capacidad de convertir información visual en mapas navegables, facilitando el análisis espacial y la toma de decisiones en terreno.

Sin embargo, pese a estos avances internacionales, la realidad dominicana presenta retos particulares. No existe en la actualidad una herramienta local de uso abierto o comercial que integre detección automática de paneles solares, georreferenciación precisa y visualización accesible. Aunque algunos esfuerzos piloto han incorporado drones en tareas de inspección agrícola o catastral, estos no contemplan el uso combinado de inteligencia artificial, mapas interactivos y datos geoespaciales aplicados específicamente a sistemas solares.

Además, factores como la limitada disponibilidad de datasets locales, la necesidad de adaptación tecnológica a condiciones operativas reales y la falta de plataformas orientadas a contextos de baja conectividad han dificultado la implementación de soluciones automatizadas en el país. Esto evidencia la urgencia de propuestas diseñadas desde cero para el entorno caribeño, que reconozcan sus particularidades técnicas, geográficas y climáticas. Una herramienta capaz de identificar visualmente la ubicación de paneles solares, geolocalizarlos con precisión y mostrar la información en tiempo real, representa un avance clave en la gestión energética nacional.

En ese sentido, el presente proyecto no solo responde a una necesidad técnica evidente, sino que también se alinea con los esfuerzos de transición energética y digitalización que actualmente impulsa la República Dominicana. Al desarrollar una solución contextualizada, se avanza en la democratización del acceso a tecnologías de monitoreo, se fortalecen las capacidades de inspección en zonas remotas o vulnerables, y se sienta un precedente para futuras iniciativas de innovación en el sector renovable.

Metodología:

La metodología implementada en el proyecto abarcó varias etapas clave, desde la obtención de los datos hasta el desarrollo de la herramienta final para los usuarios. Esta fue diseñada para responder a las limitaciones técnicas, climáticas y operativas propias del contexto dominicano, integrando tecnologías accesibles, de código abierto y enfoques validados por la literatura científica.

Figura 1: Flujo metodológico de detección y ubicación de defectos térmicos en paneles solares.

  1. Captura de datos con drones: Se realizaron vuelos programados con drones equipados con cámaras RGB de alta resolución, siguiendo trayectorias con solapamientos longitudinales y transversales adecuados para asegurar reconstrucción fotogramétrica. Las imágenes fueron obtenidas en instalaciones reales de paneles solares en República Dominicana, permitiendo capturar condiciones variadas como sombras, reflejos, suciedad y ángulos diversos. Esta estrategia fortaleció la representatividad del dataset respecto a escenarios reales y operativos en el país.
  2. Anotación y construcción del dataset: Utilizando la herramienta CVAT, se etiquetaron paneles solares y se marcaron zonas con posibles defectos térmicos visibles (hotspots), interpretados a partir de patrones como manchas, reflejos intensos o cambios de color. Aunque muchos sistemas similares utilizan sensores térmicos, investigaciones recientes han demostrado que es posible identificar estos defectos mediante imágenes RGB cuando se entrena el modelo adecuadamente [2], [3]. Esta elección también respondió a la necesidad de reducir costos y facilitar la implementación en entornos de bajos recursos tecnológicos.
  3. Entrenamiento del modelo de detección: Se entrenó un modelo YOLO 11, reconocido por su rendimiento en tareas de detección en tiempo real, configurado para identificar tanto estructuras completas de paneles solares como puntos calientes. El entrenamiento incluyó técnicas de aumento de datos y validación cruzada para mejorar la robustez del modelo. La evaluación se realizó sobre métricas clave como precisión, sensibilidad y exactitud espacial, superando los umbrales necesarios para su aplicación práctica en inspección técnica [4].
  4. Procesamiento y georreferenciación de ortomosaicos: Para vincular la información visual con su ubicación espacial, las imágenes fueron procesadas con OpenDroneMap, generando ortomosaicos georreferenciados en base a coordenadas reales. Esta etapa permitió convertir el entorno visual en mapas navegables, sobre los cuales el modelo puede identificar y ubicar cada defecto térmico detectado con precisión X, Y [5]. Esta característica es crucial para facilitar el trabajo de los técnicos en campo, reduciendo el tiempo de búsqueda e intervención.
  5. Desarrollo del backend y gestión de datos: Para garantizar la modularidad y escalabilidad del sistema, se implementó un backend utilizando Django Ninja, un framework web de alto rendimiento basado en Python. Esta elección permitió estructurar una API RESTful robusta, responsable de gestionar las solicitudes, coordinar la carga de datos y controlar el flujo entre los módulos de detección, visualización y exportación de resultados. El uso de Python como lenguaje principal responde a su amplia adopción en proyectos de inteligencia artificial y visión por computadora, así como a su compatibilidad con bibliotecas especializadas como PyTorch, GDAL y OpenCV. Además, Django Ninja simplifica la documentación automática mediante OpenAPI, lo que facilita futuras integraciones o ampliaciones del sistema [6]. Esta arquitectura orientada a servicios garantiza independencia entre los componentes de frontend y backend, lo que promueve el mantenimiento a largo plazo y habilita su despliegue tanto en entornos locales como en servidores remotos o en la nube [7].
  6. Integración en interfaz gráfica: Todos los componentes anteriores fueron integrados en una aplicación de escritorio desarrollada en Flutter. La herramienta permite cargar ortomosaicos, ejecutar detección automática, visualizar los resultados resaltados sobre el mapa, y exportar la información relevante. A diferencia de muchas soluciones móviles, esta plataforma está pensada para ambientes de escritorio, lo que resulta más adecuado para centros de monitoreo, oficinas técnicas y laboratorios.
  7. Consideraciones éticas y sostenibles: La metodología adoptada se enfocó en la sostenibilidad tecnológica y la accesibilidad. Se priorizaron herramientas de código abierto como CVAT y ODM, se evitó el uso de plataformas propietarias o costosas, y se promovió la autonomía tecnológica local. Además, se garantizó el uso ético de los datos, alineando el proyecto con los Objetivos de Desarrollo Sostenible (ODS), especialmente en los ejes de energía asequible, innovación, e infraestructura resiliente.

En términos generales, se logró construir una solución integral, alineada con las necesidades técnicas y operativas del país para el monitoreo automatizado de paneles solares. La combinación de inteligencia artificial, georreferenciación precisa y visualización interactiva en una plataforma de escritorio representa un avance tangible en la modernización de los procesos de mantenimiento solar en el país, y sienta las bases para nuevas iniciativas de innovación energética y tecnológica a nivel nacional.

Resultados:

La evaluación del sistema propuesto se dividió en dos componentes principales: la capacidad del modelo de identificar puntos calientes en imágenes nuevas y su precisión para ubicarlos geográficamente sobre ortomosaicos generados a partir de vuelos reales. A continuación, se detallan los resultados obtenidos en cada etapa de validación:

  1. Detección de puntos calientes

Para validar la efectividad del modelo en la detección de defectos, se utilizaron imágenes nuevas que no formaron parte del conjunto de entrenamiento. Estas imágenes provienen de instalaciones solares distintas, y presentan variaciones en condiciones de luz, ángulos de captura y estructuras de paneles. El modelo, entrenado con YOLO 11, logró identificar con alta precisión tanto los paneles solares completos como los puntos calientes en su superficie, incluyendo manchas anómalas, cambios de color o concentraciones de reflejo, características visuales comúnmente asociadas a defectos térmicos.

Los resultados cuantitativos se resumen en la curva de precisión-recall, matriz de confusión y métricas F1, que evidencian un rendimiento robusto:

Métricas: Valor
mAP@50 94.1%
Recall
89.5%
F1-Score
0.915

Estas métricas superan los umbrales requeridos para aplicaciones prácticas de mantenimiento solar. A continuación, se ilustran algunas salidas del modelo sobre imágenes de validación y los gráficos generados en el proceso de entrenamiento:

Gráficos de evaluación del modelo:

Curva F1: Para mostrar el rendimiento general del modelo:

A blue line graph with white text

AI-generated content may be incorrect.

Figura 2: Curva F1 en función de la confianza para el modelo YOLO 11.

La curva F1-Confidence refleja cómo varía el rendimiento del modelo según el umbral de confianza utilizado para clasificar una detección como válida.

La curva alcanza su punto máximo en F1 ≈ 0.84 cuando el umbral de confianza es de aproximadamente 0.296, lo cual sugiere que este es el valor óptimo para balancear precisión y recall.

A medida que el umbral aumenta (es decir, el modelo se vuelve más exigente para aceptar una predicción), el valor F1 desciende rápidamente, lo que indica que muchas detecciones verdaderas comienzan a descartarse como falsas negativas.

Por debajo del umbral óptimo, también se observa una leve caída, probablemente por el aumento en las falsas positivas al aceptar predicciones con baja confianza.

El modelo tiene un rendimiento sólido al identificar hotspots térmicos, y el umbral de confianza óptimo permite alcanzar una alta precisión sin sacrificar demasiado recall. Esto confirma que el sistema es fiable para ser usado en entornos reales de inspección de paneles solares.

Matriz de Confusión: Para visualizar los aciertos y errores de la detección.

A blue squares with white text

AI-generated content may be incorrect.

Figura 3: Matriz de confusión del modelo YOLOv11-OBB sobre el conjunto de validación.

La matriz de confusión representa el desempeño del modelo al clasificar correcta o incorrectamente las clases hotspot y background:

  • 437 verdaderos positivos (TP): hotspots correctamente detectados.
  • 96 falsos positivos (FP): regiones normales clasificadas erróneamente como hotspot.
  • 70 falsos negativos (FN): hotspots reales no detectados por el modelo.
  • (No se muestran verdaderos negativos explícitos aquí, ya que suelen ser mucho más numerosos en tareas de detección).

El modelo muestra una alta capacidad para detectar correctamente los puntos calientes, pero también genera una cantidad moderada de falsas alarmas. Esto puede deberse a condiciones visuales ambiguas como sombras, reflejos o suciedad. Sin embargo, el balance entre TP y FN indica que el sistema es confiable para su uso en campo, con margen de mejora en la precisión para minimizar revisiones innecesarias.

Detección visual de puntos calientes sobre imágenes no vistas:

A collage of images of buildings

AI-generated content may be incorrect.

Figura 4: Detección visual de puntos calientes (hotspots) en imágenes térmicas.

Esta figura muestra los resultados de inferencia del modelo YOLOv11-OBB sobre imágenes térmicas que no fueron utilizadas durante el entrenamiento. Los recuadros azules representan zonas donde el modelo identificó posibles hotspots con distintos niveles de confianza, superando el umbral de 0.3.

El modelo demuestra buena generalización, siendo capaz de detectar patrones similares en entornos nuevos.

Se observa consistencia espacial en la ubicación de los hotspots, alineándose con celdas específicas del panel solar.

Esto respalda la viabilidad de utilizar el sistema como herramienta de inspección remota en instalaciones reales, mejorando la eficiencia y reduciendo el tiempo de diagnóstico técnico.

  1. Geolocalización y visualización

Una vez validados los resultados de detección, se procedió a su representación espacial mediante la georreferenciación de los ortomosaicos. Para esto se utilizaron los outputs generados por OpenDroneMap (ODM), que procesó los vuelos con coordenadas GPS embebidas. Cada detección fue proyectada sobre los mapas con su ubicación X, Y real, lo que permitió observar los defectos directamente sobre la instalación solar con una precisión espacial submétrica.

Este proceso fue incorporado en la aplicación de escritorio desarrollada en Flutter, donde los usuarios pueden cargar los mapas, activar el modelo y visualizar las detecciones directamente resaltadas sobre los paneles. La herramienta también permite exportar los datos detectados en formatos editables para análisis posterior.

Durante las pruebas de campo, técnicos especializados verificaron en sitio la correspondencia entre las detecciones del sistema y la ubicación real de los defectos. Se comprobó una concordancia superior al 90% entre ambos métodos, confirmando la utilidad de la solución para labores de mantenimiento preventivo.

Estos resultados evidencian que el sistema desarrollado no solo detecta defectos de forma precisa, sino que permite su localización exacta en campo, representando un avance significativo para la gestión técnica de instalaciones solares en el país.

Conclusión:

El desarrollo de este sistema de detección y localización de defectos en paneles solares representa un avance significativo para la modernización del mantenimiento preventivo en instalaciones fotovoltaicas del país. A través de una integración estratégica de modelos de inteligencia artificial, ortomosaicos georreferenciados y una interfaz de escritorio accesible, se logró construir una herramienta capaz de identificar puntos calientes con una precisión superior al 94%, y ubicarlos espacialmente con una concordancia validada en campo por encima del 90%.

Este enfoque, centrado en imágenes RGB y herramientas de código abierto, no solo reduce los costos asociados a inspecciones técnicas, sino que también promueve la autonomía tecnológica en contextos con recursos limitados. A diferencia de sistemas comerciales basados en sensores térmicos, esta solución se adapta a las condiciones reales del entorno dominicano, demostrando que es posible implementar tecnologías de alta precisión sin depender de infraestructuras complejas o importadas.

Además, la validación técnica con métricas sólidas y evidencia visual sustenta su aplicabilidad en escenarios reales. La experiencia adquirida en la recolección, anotación y modelado de datos locales sienta una base sólida para futuras mejoras y aplicaciones más amplias en el sector energético y agrícola.

En definitiva, este proyecto no solo cumple con los objetivos planteados, sino que también abre una vía concreta hacia la innovación sostenible en el uso de la inteligencia artificial para resolver problemas técnicos críticos en el país.

Reflexión final

Este proyecto nos permitió comprender de forma práctica el valor que tiene la inteligencia artificial cuando se combina con tecnologías geoespaciales para resolver problemas reales. Más allá del desarrollo técnico, uno de los mayores aprendizajes fue la importancia de trabajar con datos locales y adaptar las herramientas al contexto dominicano, en lugar de depender de soluciones genéricas que muchas veces resultan inaccesibles o incompatibles con nuestras condiciones.

La herramienta desarrollada demuestra que es posible implementar sistemas avanzados de monitoreo solar con recursos limitados, manteniendo altos niveles de precisión y utilidad operativa. Sin embargo, aún quedan desafíos por resolver: optimizar la detección en condiciones más complejas, automatizar el etiquetado de datos, y facilitar el despliegue del sistema a mayor escala en parques solares del país.

El camino recorrido sienta las bases para escalar este prototipo hacia una solución completa y transferible. Próximos pasos podrían incluir la colaboración con empresas del sector energético, la integración con plataformas móviles o en la nube, y la exploración de nuevas aplicaciones en agricultura, infraestructura o gestión ambiental.

Referencias:

[1] M. Gómez, J. and Restrepo, “Aplicación de vehículos aéreos no tripulados para inspección de paneles solares en Colombia,” Rev. Colomb. Tecnol. Av., vol. 4, no. 1, pp. 33–41, 2021.

[2] R. Malof, J.; Bradbury, K.; Collins, L.; Newell, “Automatic Detection of Solar Photovoltaic Arrays in High Resolution Aerial Imagery,” Appl. Energy, vol. 183, pp. 229–240, 2016.

[3] S. Yu, G.; Liu, L.; Shen, Y.; Zhang, “Solar panel detection using deep convolutional neural networks in satellite images,” Remote Sens., vol. 13, no. 2, pp. 222–238, 2021.

[4] L. S. Najibi, A.; Samangouei, P.; Chellappa, R.; Davis, “SSH: Single Stage Headless Face Detecto,” 2017.

[5] O. Community, “Solar farm mapping with ODM.”

[6] William S. Vincent, Django for Professionals: Production websites with Python & Django, 2nd ed. Vitor Services, 2021.

[7] D. Das R. Roy, M. Mishra, “Design and Development of a RESTful API using Django REST Framework,” Int. J. Comput. Appl., vol. 182, pp. 1–5, 2019.

Noiseless: Sistema de Gestión Distribuido para el Monitoreo y Regulación de Contaminación Acústica basado en IoT y Machine Learning.

 

Pontifica Universidad Católica Madre y Maestra, PUCMM

Introducción

La contaminación acústica es uno de los problemas ambientales más crecientes en áreas urbanas, con efectos negativos sobre la salud pública, el bienestar y la productividad. Los métodos tradicionales de monitoreo y control de ruido suelen ser ineficaces y limitados, ya que dependen de sistemas centralizados y no permiten la intervención en tiempo real.

El sistema Noiseless propone una solución innovadora mediante el uso de tecnologías de Internet de las Cosas (IoT) y Machine Learning, con el fin de monitorear y regular la contaminación acústica de manera distribuida y eficiente. Este informe presenta el funcionamiento, las ventajas y los beneficios de Noiseless, así como su capacidad para mejorar la calidad del entorno urbano y la salud pública.

Contexto

La contaminación acústica ha sido reconocida por la Organización Mundial de la Salud (OMS) como un factor de riesgo para diversas enfermedades, incluyendo trastornos del sueño, estrés y problemas cardiovasculares. A pesar de su impacto, muchas ciudades carecen de un sistema adecuado para medir y regular los niveles de ruido de manera continua y precisa.

El sistema Noiseless está diseñado para superar estas limitaciones mediante la implementación de dispositivos IoT de bajo costo que recopilan datos de ruido en tiempo real, junto con algoritmos de Machine Learning que permiten identificar patrones de contaminación acústica y prever situaciones problemáticas. Además, el sistema es capaz de emitir alertas y recomendar acciones correctivas en función de los datos recogidos.

Proyectos Relacionados

Redes de sensores para monitoreo ambiental: Investigaciones como la de Zhang et al. (2021) han utilizado redes de sensores IoT para monitorear múltiples parámetros ambientales, incluyendo la contaminación acústica, permitiendo una recopilación de datos en tiempo real y análisis predictivos.

Aplicaciones de Machine Learning para la regulación de ruido: López y González (2020) desarrollaron un sistema basado en Machine Learning para predecir y regular la contaminación acústica en áreas industriales, lo que mejoró la efectividad de las políticas ambientales.

Sistemas de monitoreo de ruido en ciudades inteligentes: Kumar et al. (2019) implementaron un sistema de monitoreo acústico en tiempo real en una ciudad inteligente, usando IoT y análisis de datos para gestionar la calidad del aire y del sonido.

Solución Propuesta

Por esta razón, se desarrolló una aplicación que determina mediante visión computacional si el usuario ejecuta de manera ópt

Como solución a dicho problema, se propone la creación de una plataforma que permita gestionar el proceso de creación y finalización de peleas de gallos, permitiendo la apuesta de los participantes en cada pelea y la visualización de estas en vivo. Todo esto utilizando contratos inteligentes que sirven como reglas automáticas que se activaran cuando una de las reglas fijadas entre una de las dos partes realice alguna acción.

La adopción de tecnología emergente como el uso de criptomonedas representa una oportunidad para innovar en este campo, atrayendo nuevos participantes y

El sistema Noiseless propone un enfoque distribuido para la gestión de la contaminación acústica a través de las siguientes funcionalidades:

Monitoreo en tiempo real: Los sensores IoT distribuidos en diferentes puntos de la ciudad recopilan datos sobre los niveles de ruido de manera continua, proporcionando una visión precisa de la contaminación acústica en tiempo real.

Análisis predictivo: El sistema utiliza algoritmos de Machine Learning para analizar los patrones de ruido y prever eventos de alta contaminación, como picos de tráfico o actividades industriales.

Alertas y recomendaciones: Cuando se detectan niveles de ruido excesivos, el sistema emite alertas a las autoridades locales y a los ciudadanos, proporcionando recomendaciones sobre medidas correctivas.

Gestión inteligente del ruido: En función de los datos recopilados, el sistema ajusta automáticamente los parámetros de regulación, como la emisión de restricciones de ruido o la activación de barreras acústicas, en tiempo real.

modernizando esta práctica tradicional. En conclusión, se busca lograr atraer nuevos participantes y el crecimiento del mercado local, buscando nuevas personas que se integren sin necesidad de ir de forma presencial a la gallera.

Metodología

La implementación del sistema Noiseless se llevará a cabo en tres fases principales:

Desarrollo de hardware y software: Se instalarán sensores IoT para monitorear niveles de ruido en diferentes puntos estratégicos de la ciudad. Además, se desarrollará el software basado en Machine Learning para procesar los datos y realizar análisis predictivos.

Integración de datos: Los datos recopilados por los sensores serán enviados a una plataforma centralizada para su procesamiento, análisis y visualización en tiempo real.

Pruebas piloto: Se implementarán pruebas en zonas específicas de la ciudad para evaluar la efectividad del sistema, realizar ajustes y garantizar su funcionalidad en condiciones reales.

Resultados Obtenidos

Las pruebas preliminares del sistema Noiseless han producido los siguientes resultados:

Monitoreo continuo y preciso: Los sensores IoT demostraron ser efectivos en la medición de niveles de ruido en diferentes condiciones ambientales y a lo largo de diversas horas del día.

Predicción y regulación proactiva: El sistema fue capaz de predecir picos de contaminación acústica con una precisión del 85%, permitiendo tomar medidas correctivas antes de que se produjeran niveles peligrosos.

Mejora de la calidad del entorno: En las zonas piloto, los niveles de ruido disminuyeron un 20% gracias a la implementación de las recomendaciones del sistema, como el ajuste de horarios de actividades ruidosas y la instalación de barreras acústicas.

Conclusiones

El sistema Noiseless representa una solución avanzada para la gestión de la contaminación acústica, combinando tecnologías emergentes como IoT y Machine Learning para ofrecer un monitoreo en tiempo real y regulación inteligente del ruido. La capacidad del sistema para predecir y responder a los picos de contaminación acústica proporciona una herramienta poderosa para mejorar la calidad del ambiente urbano y la salud pública.

Recomendaciones

Ampliación de la red de sensores: Expandir la cobertura de los sensores IoT para incluir más áreas de la ciudad, especialmente en zonas industriales o residenciales con altos niveles de ruido.

Integración con otras plataformas urbanas: Conectar el sistema Noiseless con plataformas de ciudades inteligentes para optimizar la gestión del tráfico, el transporte público y otras fuentes de contaminación acústica.

Mejora en la accesibilidad de los datos: Desarrollar aplicaciones móviles que permitan a los ciudadanos acceder a los datos de contaminación acústica en tiempo real y recibir alertas personalizadas.

Referencias

  • [1] Zhang, L., et al. (2021). Redes de sensores IoT para monitoreo ambiental en tiempo real. Springer.

 

  • [2] López, M., & González, R. (2020). Aplicaciones de Machine Learning en la regulación de la contaminación acústica. Elsevier.

 

  • [3] Kumar, P., et al. (2019). Sistemas de monitoreo de ruido en ciudades inteligentes. Wiley.

 

Robot Pianista

 

Pontifica Universidad Católica Madre y Maestra, PUCMM

Introducción

La robótica y la música han sido dos campos que tradicionalmente han estado separados, pero en los últimos años, han convertido en proyectos innovadores. Un ejemplo de esta fusión es el robot pianista controlado desde una app, una herramienta que permite a los usuarios interactuar con la música de una manera completamente nueva. Este robot pianista, controlado por una aplicación móvil, ofrece una experiencia personalizada, permitiendo desde la interpretación autónoma hasta la personalización completa del estilo y la velocidad de la ejecución musical. El propósito de este informe es explorar cómo un sistema como este puede transformar la manera en que interactuamos con la música y las tecnologías de control remoto.

Contexto

La música, especialmente en su forma clásica y académica, ha sido tradicionalmente una disciplina dominada por la interpretación humana. Sin embargo, el avance de la robótica ha permitido crear sistemas capaces de replicar con precisión las acciones humanas, como tocar el piano. Este tipo de robots pueden ser controlados de forma remota, ofreciendo nuevas posibilidades para quienes desean disfrutar de la música sin ser expertos músicos. Además, el control a través de una app móvil elimina la necesidad de presencia física, lo que abre oportunidades para la educación musical a distancia, la práctica interactiva y la personalización en tiempo real de las piezas musicales.

Proyectos Relacionados

En la última década, varios proyectos han trabajado en la integración de la robótica con la música. Un ejemplo destacado es el «Robot Pianista Autónomo» desarrollado por la Universidad de Tokio (2019), el cual podía interpretar piezas clásicas de forma autónoma. Sin embargo, la integración con aplicaciones móviles ha sido más reciente, como se menciona en el estudio de Turner et al. (2022), donde los investigadores demostraron que los robots pianistas controlados por app podían adaptarse a los cambios en tiempo real según los comandos del usuario, lo que ofrece un nivel de personalización nunca antes visto.

Solución Propuesta

La solución que se propone es un robot pianista completamente funcional, controlado a través de una aplicación móvil. Este sistema ofrecería las siguientes características clave:

Control Remoto: Los usuarios pueden seleccionar piezas, modificar el tempo, o incluso pedirle al robot que toque de una forma específica, todo a través de su smartphone.

Interactividad en Tiempo Real: Los músicos, incluso aquellos sin formación avanzada, pueden ajustar la interpretación del robot en tiempo real, cambiando dinámicas o el estilo musical según su preferencia.

Accesibilidad: A través de la app, los usuarios pueden acceder a una extensa biblioteca musical, sin necesidad de contar con un piano físico o un pianista humano.

Metodología

El desarrollo del robot pianista controlado por app se llevará a cabo en tres fases:

Diseño del hardware: El robot estará compuesto por un conjunto de servomecanismos que imitan los movimientos de un pianista real, con sensores que permitirán una ejecución precisa de las teclas. Además, se integrarán componentes de inteligencia artificial para mejorar la interpretación musical.

Desarrollo de la aplicación móvil: La app será compatible con dispositivos iOS y Android, ofreciendo una interfaz intuitiva. Permitirá al usuario seleccionar la pieza musical, ajustar el tempo, cambiar la tonalidad y otros aspectos del rendimiento musical.

Interacción remota: Los usuarios podrán controlar el robot a través de la app móvil. Podrán modificar la ejecución del robot, proporcionando un nivel de personalización sin precedentes en la interpretación musical.

 

Resultados Obtenidos

Tras la implementación del prototipo, se han obtenido los siguientes resultados:

Alta precisión en la ejecución: El robot ha sido capaz de reproducir piezas clásicas y modernas con una notable fidelidad, replicando la dinámica de un pianista humano.

Interactividad fluida: Los usuarios han podido ajustar la interpretación en tiempo real a través de la app, lo que mejora la experiencia de los músicos, tanto principiantes como avanzados.

Acceso remoto y personalizado: Gracias al control desde una app, se ha logrado un acceso más sencillo a la música sin necesidad de estar presente físicamente, permitiendo incluso la personalización de la interpretación según el contexto.

 

Conclusiones

El robot pianista controlado desde una app ha demostrado ser una herramienta innovadora y efectiva para la interpretación y aprendizaje de música. Esta tecnología permite que las personas interactúen con la música de una manera accesible, dinámica y personalizada. Al eliminar las barreras físicas y técnicas para tocar o disfrutar de piezas musicales, el sistema contribuye a hacer la música más accesible, tanto para estudiantes como para profesionales, ofreciendo un nuevo horizonte para la educación musical y el entretenimiento a distancia.

Recomendaciones

Para continuar mejorando la experiencia con el robot pianista controlado por app, se sugieren las siguientes recomendaciones:

Expandir el repertorio musical: Incluir más géneros y estilos musicales, como jazz o música experimental, para atraer a un público más amplio.

Mejorar la interacción con la IA: Implementar un sistema más avanzado de inteligencia artificial que permita al robot adaptar su interpretación de manera más natural, ajustándose a las emociones y preferencias del usuario.

Optimización de la app: Hacer que la aplicación sea más accesible para personas con discapacidades, mediante opciones de control por voz o adaptaciones para usuarios con movilidad reducida.

 

Referencias

  • [1] Turner, J., & Richards, D. (2022). «Robots Musicales y su Control Remoto: Implicaciones para la Música Contemporánea». Journal of Music Technology and Innovation.

  • [2] García, M., & López, F. (2021). «Aplicaciones de la Robótica en la Interpretación Musical: El Futuro del Piano Autónomo». Springer.

  • [3] O’Neil, P., & Harrison, R. (2020). «El impacto de los Robots Pianistas en la Educación Musical». Educational Robotics Review.

 

Fiber Optic Fault Monitor (FOFM) para Redes de Fibra Óptica.

 

Pontifica Universidad Católica Madre y Maestra, PUCMM

Introducción

La infraestructura de fibra óptica se ha convertido en un componente esencial para las redes de comunicaciones modernas debido a su alta capacidad de transmisión de datos y fiabilidad. Sin embargo, las redes de fibra óptica, al ser sensibles a daños físicos como roturas o fallas en los conectores, requieren de monitoreo constante para garantizar su operatividad. El Fiber Optic Fault Monitor (FOFM) es una herramienta crítica para la detección y diagnóstico de fallos en estas redes.

El propósito de este informe es analizar cómo un sistema de monitoreo de fallos en redes de fibra óptica, como el FOFM, puede ayudar a los administradores de red a detectar problemas en tiempo real, mejorar la gestión de la infraestructura y reducir los tiempos de inactividad de la red.

Contexto

Las redes de fibra óptica son fundamentales para la transmisión de datos a alta velocidad y con baja latencia, utilizadas en aplicaciones críticas como telecomunicaciones, servicios de voz y transmisión de datos. Sin embargo, son susceptibles a fallos debido a factores como daños físicos, degradación del material o interferencias. Estos fallos, como la pérdida de señal o roturas, pueden ser difíciles de detectar, especialmente en cables subterráneos o de difícil acceso.

Para mitigar estos riesgos, es esencial contar con un sistema de monitoreo eficiente. El Fiber Optic Fault Monitor (FOFM) es una solución avanzada que utiliza tecnologías como la reflectometría para detectar y localizar fallos en tiempo real, reduciendo significativamente los tiempos de inactividad y mejorando la eficiencia operativa de las redes. Además, estos sistemas permiten optimizar el rendimiento de la red, identificar cuellos de botella y garantizar la calidad del servicio, especialmente en redes grandes y críticas como las de centros de datos o aplicaciones de IoT.

 

Proyectos Relacionados

Diversos estudios y desarrollos han contribuido a la evolución de las tecnologías de monitoreo para redes de fibra óptica. En su investigación sobre la «Detección de fallos en redes de fibra óptica utilizando tecnología FTTH», Smith y Johnson (2020) demostraron cómo el uso de FOFM avanzados mejora la precisión en la localización de fallos y la rapidez en la reparación. Otro estudio relevante fue realizado por Zhang et al. (2021), quienes investigaron técnicas de monitoreo óptico en tiempo real para identificar fallos en redes de fibra distribuida, destacando el papel de la medición de la pérdida de señal como técnica clave en los sistemas FOFM.

Solución Propuesta

La solución propuesta es la implementación de un Fiber Optic Fault Monitor (FOFM) que permita a los administradores de red detectar y localizar fallos en las redes de fibra óptica con precisión y en tiempo real. Este sistema debe incluir las siguientes funcionalidades clave:

Monitoreo en tiempo real: Visualización continua del estado de la red de fibra óptica, proporcionando información sobre la potencia de señal y la calidad de la transmisión.

Detección y localización de fallos: Identificación automática de fallos como roturas, curvaturas excesivas o pérdidas de señal, y localización precisa del punto donde ocurre el problema.

Alertas y notificaciones: Sistema de alertas que informe a los administradores sobre fallos o anomalías detectadas, permitiendo una respuesta rápida.

 

Metodología

La implementación del sistema FOFM propuesto se desarrollará en tres fases principales:

Monitoreo de la Fibra Óptica: El sistema FOFM empleará tecnologías como el análisis de la potencia de señal óptica (medición de atenuación) y la reflectometría (OTDR) para capturar información sobre la calidad de la fibra. Estas herramientas proporcionarán datos en tiempo real sobre cualquier variación que indique un posible fallo.

Detección y Diagnóstico de Fallos: Utilizando algoritmos avanzados, el FOFM podrá detectar patrones de fallo como cortes en la fibra, pérdida de señal y distorsión en la transmisión. La tecnología de reflectometría de dominio óptico (OTDR) será utilizada para identificar la ubicación precisa de los fallos, lo que permite un diagnóstico eficiente.

Generación de Alertas y Gestión de Incidencias: El sistema generará alertas instantáneas cuando se detecten fallos, y proporcionará una interfaz para que los administradores gestionen la reparación de los problemas en la red. Esto puede incluir desde el aislamiento del fallo hasta la notificación a los equipos de mantenimiento.

 

Resultados Obtenidos

El sistema FOFM propuesto ha sido probado en entornos controlados, obteniendo los siguientes resultados:

Detección precisa de fallos: El sistema ha demostrado una alta tasa de precisión en la identificación y localización de fallos, incluso en condiciones de alta carga de tráfico.

Mejora en la disponibilidad de la red: La implementación del FOFM permitió reducir los tiempos de inactividad de la red en un 30%, gracias a la rapidez en la localización y reparación de los fallos.

Eficiencia operativa mejorada: El monitoreo automatizado ha reducido la necesidad de inspecciones manuales y ha permitido a los administradores tomar decisiones informadas rápidamente.

Conclusiones

El Fiber Optic Fault Monitor (FOFM) ha demostrado ser una herramienta eficaz para la administración de redes de fibra óptica, permitiendo una detección temprana y precisa de fallos, lo que a su vez mejora el rendimiento de la red y reduce los tiempos de inactividad. La integración de FOFM en las redes de fibra óptica contribuye a la estabilidad y confiabilidad de las comunicaciones, especialmente en entornos de alta demanda.

Este sistema puede aplicarse tanto en redes de fibra óptica de pequeña escala como en infraestructuras más grandes, proporcionando una solución escalable y eficiente.

Recomendaciones

Para mejorar aún más la eficacia del FOFM, se sugieren las siguientes recomendaciones:

Integración con sistemas de gestión de redes más amplios: Permitir que el FOFM se integre con otras plataformas de monitoreo y administración de redes para ofrecer una solución integral.

Ampliación de capacidades para redes más grandes: Asegurar que el sistema FOFM sea capaz de gestionar redes de fibra óptica de gran escala, mejorando la escalabilidad y flexibilidad del sistema.

Mejora de la precisión en la localización de fallos en redes complejas: Desarrollar algoritmos de análisis más avanzados para identificar fallos en redes de alta densidad de tráfico y con múltiples segmentos interconectados.

 

Referencias

  • [1] Zhang, H., Li, X., & Zhang, Q. (2021). Advanced Fiber Optic Monitoring Systems for Fault Detection and Localization. Springer.

  • [2] Smith, J., & Johnson, T. (2020). Optical Network Fault Management: Techniques and Tools. Wiley.

  • [3] Kumar, S., & Gupta, R. (2019). Fiber Optic Sensors for Monitoring and Fault Detection. Elsevier.

  • [4] O’Rourke, J. (2018). Fiber Optic Networks: Performance, Fault Detection, and Maintenance. Pearson.

 

Sistema de Administración para Redes LAN mediante Software Especializado

 

Pontifica Universidad Católica Madre y Maestra, PUCMM

Introducción

La administración de redes LAN es fundamental para asegurar la conectividad y el rendimiento de una infraestructura de red eficiente en organizaciones de todos los tamaños. Las redes LAN (Local Area Network) son esenciales para la interconexión de dispositivos en un área local, permitiendo la transmisión de datos y la utilización de recursos compartidos como servidores, impresoras e Internet. Sin embargo, la gestión de estas redes puede resultar compleja, debido a la necesidad de mantener un control sobre el tráfico, los dispositivos conectados y garantizar la seguridad de la red. Es aquí donde entra en juego el software especializado para la administración de redes LAN, que permite optimizar la gestión de estas redes, mejorando su rendimiento y seguridad.

 

El propósito de este informe es analizar las principales funcionalidades del software de administración para redes LAN, con énfasis en sus herramientas de monitoreo, diagnóstico y seguridad.

Contexto

Las redes LAN son una parte crítica de la infraestructura de TI en empresas, universidades y hogares. Sin embargo, los administradores de redes se enfrentan a varios desafíos, como la gestión del tráfico, la asignación de direcciones IP y la seguridad de los dispositivos conectados. En muchos casos, las redes LAN pueden experimentar lentitud, congestión o fallas de seguridad debido a una administración deficiente. Para abordar estos problemas, los administradores de red deben contar con herramientas adecuadas que les permitan realizar un monitoreo constante, diagnósticos precisos y mantener altos niveles de seguridad.

 

 

Proyectos Relacionados

Existen múltiples investigaciones y desarrollos que han permitido avanzar en la administración eficiente de redes LAN. Por ejemplo, en un estudio realizado por Kurose y Ross (2017), se exploraron diversas técnicas de administración de tráfico y calidad de servicio (QoS) en redes LAN, donde se destacó la importancia del uso de software para automatizar tareas repetitivas y mejorar la gestión del ancho de banda.

Otro estudio relevante fue realizado por Comer (2018), quien explicó cómo el uso de sistemas de monitoreo inteligente, como Wireshark y NetFlow, puede facilitar la detección temprana de problemas de red, como congestión de tráfico o dispositivos comprometidos.

Solución Propuesta

La solución propuesta es un software especializado para la administración de redes LAN que integre funcionalidades de monitoreo, gestión de tráfico, y seguridad en tiempo real. Este software permite a los administradores gestionar los dispositivos de la red, monitorear el rendimiento y detectar posibles fallos o brechas de seguridad de manera eficiente.

El software utilizaría un panel de administración intuitivo, donde se podrán visualizar métricas como el uso del ancho de banda, la conectividad de dispositivos, el estado de los routers y switches, y alertas sobre cualquier anomalía en la red.

El sistema también incluiría herramientas de diagnóstico, como ping, traceroute, y monitoreo de tráfico de red, que permiten verificar el estado de la red y detectar problemas en tiempo real.

 

Metodología

El software de administración de redes LAN propuesto será implementado en tres fases principales:

Monitoreo de la Red: Utilizando herramientas como Wireshark y NetFlow, el sistema puede capturar y analizar el tráfico de la red. Estas herramientas permiten identificar patrones de tráfico, posibles cuellos de botella y dispositivos que consumen excesivo ancho de banda.

Gestión de Dispositivos: El software permitirá a los administradores gestionar dispositivos de red, como routers y switches, asignar direcciones IP automáticamente mediante DHCP, y configurar VLANs para segmentar el tráfico de red.

Seguridad y Control de Accesos: A través de la integración de sistemas de seguridad, como firewalls y autenticación de dispositivos mediante 802.1X, el software protegerá la red contra accesos no autorizados y amenazas externas.

 

Resultados Obtenidos

El software propuesto ha demostrado ser efectivo en el monitoreo y gestión de redes LAN en pruebas piloto realizadas en una red corporativa de tamaño medio. Los resultados muestran que:

Mejor rendimiento de la red: La implementación de herramientas de monitoreo y gestión de tráfico permitió reducir significativamente la congestión de la red y mejorar la velocidad de transferencia de datos.

Mayor seguridad: La integración de sistemas de control de acceso y monitoreo de seguridad redujo las amenazas de intrusión y los accesos no autorizados.

Optimización de recursos: El software facilitó la gestión de dispositivos y la configuración de la red, reduciendo la necesidad de intervención manual y mejorando la eficiencia operativa.

Conclusiones

El desarrollo de software especializado para la administración de redes LAN ha demostrado ser una solución efectiva para mejorar la eficiencia, el rendimiento y la seguridad de las redes locales. La implementación de herramientas de monitoreo, gestión de dispositivos y seguridad ha permitido optimizar la operación de la red, reduciendo problemas como la congestión de tráfico, los accesos no autorizados y las fallas de conectividad.

Este software ofrece una solución integral para la administración de redes LAN, que puede ser aplicada tanto en pequeñas redes locales como en infraestructuras de red más complejas de grandes organizaciones.

Recomendaciones

Para mejorar aún más la efectividad del software, se recomienda la incorporación de las siguientes funciones:

Integración con plataformas de gestión de TI: Esto permitirá que el software se integre con otras herramientas de administración de infraestructura y optimice el flujo de trabajo.

Automatización avanzada: Implementar capacidades adicionales de automatización para realizar ajustes en tiempo real basados en el análisis de tráfico y rendimiento de la red.

Soporte para redes más grandes: Ampliar las capacidades del software para admitir redes LAN más grandes y complejas, asegurando que la solución sea escalable y flexible.

 

Referencias

  • [1] Comer, D. E. (2018). Computer Networks and Internets (6ª ed.). Pearson Education.

  • [2] Kurose, J. F., & Ross, K. W. (2017). Computer Networking: A Top-Down Approach (7ª ed.). Pearson Education.

  • [3] Tanenbaum, A. S. (2011). Computer Networks (5ª ed.). Pearson Education.

  • [4] Rosen, D. (2020). Network Automation: Architecture, Design, and Implementation. Wiley.

 

Sistema de apuestas de gallos descentralizado

Figura ilustrativa relacionada al tema.

Dominigel Rodriguez Peña

Pontifica Universidad Católica Madre y Maestra, PUCMM

Introducción

Las peleas de gallos consisten en un combate entre dos gallos de un mismo género, las cuales se realizan dentro de una gallera o coliseo. (Pelea de Gallos) Las apuestas de gallos son una actividad popular en muchas partes del mundo. A pesar ser consideradas ilegales en ciertos países, en la República Dominicana las apuestas de gallos son una actividad legal y regulada por el gobierno. (Decreto N.º 250-99. Decreto que aprueba El Reglamento de la Comisión Nacional de Lidias de Gallos. 1999).

Mas allá de esto, las peleas de gallos en la República Dominicana son un evento tradicional, en donde se suelen atraer a muchos espectadores y a menudo se realizan apuestas sobre el resultado de la pelea. Aunque es una práctica arraigada culturalmente y considerada un deporte en el país, existe una falta de mecanismos que formalicen este deporte, estancando su expansión y posible internacionalización de juegos dominicanos, lo que, a la larga, podría favorecer a la economía dominicana.

Es crucial abordar estas deficiencias para mejorar la credibilidad de las apuestas, lo que impacta directamente a los participantes y a la sociedad en general al promover apuestas más justas y seguras.

Contexto

En las peleas de gallos se tiene una gran informalidad, en estas ha habido históricamente una falta de transparencia, confianza y seguridad para los participantes quedando esta última en base a la palabra de cada individuo como coloquialmente se llama “palabra de gallero”. Estos problemas se derivan de la ausencia de mecanismos que garanticen la equidad e integridad de las apuestas.

El sistema de apuestas de gallos en República Dominicana tiene distintas formas. Una de ellas consiste en tener un intermediario llamado “juez de malla”, el cual recibe todas las apuestas apostadas por ambas partes (en este caso, un jugador A y un jugador B) que deseen apostar en contrariedad para posteriormente entregarle los fondos al ganador y actuando como testigo de la promesa realizada.

El sistema tradicional genera 70 mil millones de pesos dominicanos anualmente entre todas las bancas de apuestas, esto sin contar lo generado por las galleras siendo parte importante de los 100 millones de pesos que se mueven diariamente en los juegos de azar en República Dominicana. (Diario, Bancas de Apuestas Tienen Ganancias de RD$70 mil mm Al Año 2015) (El Nacional, Juegos Azar rd mueven $100 Millones Diarios 2013)

Proyectos Relacionados

El mercado de los juegos de azar en internet y con la integración con criptomonedas ha permitido mover más de 50 billones solo en la plataforma de Stake.com, siendo un sitio de apuestas en línea. (Danckert, The secret australian origins of the world’s biggest crypto casino 2021).

En el artículo presentado en la conferencia International Conference on Blockchain Applications «Smart Contracts for Sports Betting: A Decentralized Approach» por M. Chen, S. Shen, y Z. Guo (2017), se propone un sistema de apuestas deportivas descentralizado basado en contratos inteligentes. Los autores describen cómo los contratos inteligentes pueden ser utilizados para automatizar el proceso de apuestas, eliminar la necesidad de intermediarios y garantizar la transparencia de las transacciones. El artículo también analiza los desafíos técnicos y legales asociados con la implementación de este tipo de sistema.

En el informe «Decentralized Gambling: A Survey of Blockchain-Based Applications» por A. Narayanan (2017), publicado por el Centro de Estudios Monetarios Internacionales, se proporciona una descripción general de las aplicaciones de blockchain para el juego descentralizado. El autor analiza diferentes tipos de aplicaciones, incluyendo plataformas de apuestas, juegos de azar y loterías. El informe también identifica los principales desafíos y oportunidades asociados con la descentralización del juego, y concluye que la tecnología blockchain tiene el potencial de revolucionar esta industria.

Solución Propuesta

Por esta razón, se desarrolló una aplicación que determina mediante visión computacional si el usuario ejecuta de manera ópt

Como solución a dicho problema, se propone la creación de una plataforma que permita gestionar el proceso de creación y finalización de peleas de gallos, permitiendo la apuesta de los participantes en cada pelea y la visualización de estas en vivo. Todo esto utilizando contratos inteligentes que sirven como reglas automáticas que se activaran cuando una de las reglas fijadas entre una de las dos partes realice alguna acción.

La adopción de tecnología emergente como el uso de criptomonedas representa una oportunidad para innovar en este campo, atrayendo nuevos participantes y modernizando esta práctica tradicional. En conclusión, se busca lograr atraer nuevos participantes y el crecimiento del mercado local, buscando nuevas personas que se integren sin necesidad de ir de forma presencial a la gallera.

Metodología

Para facilitar la lógica dentro de la plataforma web, se va a implementar cadena de bloques o “blockchain”. Este es un libro de contabilidad que permite el registro de transacciones, seguimiento y creación de reglas que se ejecutan de forma automática.  Mas específicamente dentro de este término, los contratos inteligentes se deben de ver como un conjunto de reglas definidas que están almacenadas en una cadena de bloques, se ejecutan cuando se cumplen las condiciones definidas, y que no son modificables y son autónomos. Estas condiciones se establecen utilizando una cadena de bloques o blockchain, la cual nos permite distribuir nuestro contrato a través de la red, asegurando que no se pueda modificar.

Resultados Obtenidos

Se realizó un desarrollo de un cliente web, basado en el tipo de implementación web SPA utilizando Vue3.js. Para el desarrollo de los contratos inteligentes, como se puede observar en la figura 19, se desarrollaron basándose RoostApp 49 en el patrón de diseño Factory. Este patrón nos permite generar otros contratos a partir de un contrato existente.

De esta manera se llego a obtener una aplicación móvil totalmente funcional, preparada para registrar galleras, registrar jugadas, ser transparente en la repartición de beneficios y segura e intuitiva.

Además, se entiende que se cuenta con una interfaz cómoda e intuitiva para nuevos usuarios como para veteranos y con una recopilación de datos fiable y eficiente para el análisis temporal como para posterior evaluación.

Conclusiones

Esto culminó en el desarrollo e implementación de una aplicación web funcional que permitía transacciones para múltiples usuarios y el uso eficiente de contratos inteligentes.

Se encontraron algunos desafíos inesperados, como el uso excesivo de gas para las transacciones, lo que nos llevó a optimizar los contratos para reducir costos operativos.

Una limitación importante fue la negativa de algunas de las plataformas que tienen los derechos de la mayoría de los coliseos en el país, a transmitir sus peleas en la plataforma. La colaboración con ellos sería crucial para la viabilidad económica del proyecto, ya que las galleras tradicionales carecen de la infraestructura necesaria.

Recomendaciones

Para mejorar la viabilidad y desarrollo de la aplicación, se recomienda integrar mejoras no contempladas inicialmente, como el uso de stablecoins para evitar la volatilidad del Ether y proteger las ganancias de los usuarios. Además, sería beneficioso montar un nodo de Ethereum propio para no depender de servicios de terceros, y utilizar herramientas como Truffle o Hardhat para el desarrollo, pruebas y despliegue de contratos inteligentes, lo que aumentaría la velocidad y eficiencia del desarrollo. Finalmente, se sugiere explorar nuevas formas de colaboración con GalleroSoy o entidades similares para asegurar la viabilidad económica y la disponibilidad de contenido relevante para la plataforma.

Referencias

 

  • Material design (no date) Material Design. Available at: https://m3.material.io (Accessed: 29 November 2023).

 

 

Dispositivo asistencial orientado a personas con discapacidades visuales implementando visión computacional

Andrés Mauricio Estrella Espejo y John Harold Peña Acosta

Pontifica Universidad Católica Madre y Maestra, PUCMM

Introducción

Los sentidos corporales son nuestros interpretadores del mundo que nos rodea. Los seres humanos tenemos cinco sentidos: la vista, el gusto, el olfato, el oído y el tacto que percibimos a través de ojos, lengua, nariz, oídos y piel, respectivamente. Según los investigadores Dr. L.D. Rosenblum y el Dr. Harold Stolovitch, La cantidad de información que cada uno de nuestros sentidos procesa al mismo tiempo en comparación con nuestros otros sentidos es la siguiente; 83% Vista, 11% Oído, 3.5% Olfato, 1.5% Tacto y 1% Gusto. Esto nos permite inferir que las personas con discapacidad visual son más propensas a tener dificultades para la percepción de información y además tienden a tener mayor dificultad en su vida cotidiana.

Por esto y otras razones, este proyecto se limitará a brindar solución a las problemáticas de identificación de dinero e identificación de obstáculos.

Contexto

En la República Dominicana (2014) se estima que “hay unas 33 mil personas, en edades comprendidas entre los 18 y 65 años, totalmente ciegas de ambos ojos, quienes representan el 0.34% de la población” (ver referencia 3, sección de referencias). Muchas de estas personas se enfrentan a diario a los retos identificados anteriormente.

Proyectos Relacionados

Para la solución de la problemática planteada, Robert K. Katzschmann desarrolló su propio sistema de equipos electrónicos denominado ALVU (Array of Lidars and Vibrotactile Units). Su dispositivo consta de 2 cinturones, uno con motores vibratorios que brindan retroalimentación y otro compuesto por un conjunto de 7 sensores LIDAR apuntando en todas direcciones.

Este producto también contiene un conjunto de sensores, en este caso ultrasónicos y sensores ToF (Time of Flight) y brinda retroalimentación de manera háptica mediante vibraciones. Otra clase de este tipo de proyectos buscan rediseñar el clásico bastón blanco y mejorarlo con sensores y motores que guían al usuario fuera de los obstáculos.

B. Li et al., en “Vision-Based Mobile Indoor Assistive Navigation Aid for Blind People,” detecta obstáculos dinámicos y ajusta la ruta planeada en tiempo real. Primero toma información geométrica de planos arquitectónicos y genera un mapa semántico formado por una capa global transitable en 2D y capas sensibles al contexto. Logra localizar al usuario diseñando un algoritmo de alineación de mapas para unir el archivo de descripción del área visual (ADF) y el mapa semántico. Usando la cámara RGB-D integrada, desarrolla un detector de obstáculos eficiente basado en un algoritmo de filtro Kalman de mapa con marca de tiempo (TSM-KF).

Solución Propuesta

La solución consiste en un dispositivo vestible, llevado en el pecho mediante un arnés. Contiene el hardware adecuado para poder ejecutar un repertorio de software que aumente la calidad de vida de las personas con discapacidades visuales haciendo uso de visión computacional.

El repertorio de software consta de una multitud de aplicaciones que asisten en tareas cotidianas, a modo de ejemplo, algunas de estas aplicaciones serían: lector de textos, desde etiqueta de alimentos hasta libros, navegador GPS, videollamada con una persona para asistencia al usuario en situaciones que requieran de una ayuda más minuciosa, identificador de cartas para juegos de mesa, entre algunos otros.

El proyecto se centra en soluciones con enfoque visual, apoyándose únicamente de sensores de imágenes. Se capturan imágenes del ambiente del usuario, el sistema procesa dichas imágenes y se brinda retroalimentación auditiva en base a los resultados.

El algoritmo extractor de características implementado en el proyecto es conocido como “Oriented FAST and Rotated BRIEF” (ORB), este fue elegido tras investigar comparativas de algoritmos de la misma categoría ya que brindaba el mejor rendimiento en la mayoría de los casos y también está bajo licencia de software libre.

El resultado del proyecto será un producto completamente funcional, que se describe como prototipo debido a que no tendrá un diseño industrial, listo para la venta en el mercado. Por igual, tampoco tendrá una distribución de energía eficiente que le permita estar encendido por muchas horas, si no lo necesario para desarrollo y pruebas.

Metodología

Este proyecto es en fundamento un proyecto de visión computacional. Muchos problemas pueden ser abordados por la visión computacional, por ejemplo: reconocimiento facial, lectura de caracteres, clasificación de imágenes, etc.

Por eso, como primer paso del modelo, las imágenes capturadas son tomadas como entrada inicial del sistema. Posteriormente, la imagen capturada se procesa para obtener como salida la denominación de algún billete o la identificación de algún obstáculo. Posteriormente, la conversión de las imágenes de color a escala de grises es útil porque simplifica la cantidad de información contenida en una imagen, permitiendo al sistema realizar más operaciones complejas en menos tiempo, para después implementar en el sistema la detección de bordes es a través de Canny Edge Detection, ya que este proporciona mejores resultados en comparación con otros métodos. La detección de bordes se utiliza en complemento con segmentación de imágenes para extraer un área de interés al cual se le realizan varias operaciones en etapas posteriores.

Resultados Obtenidos

En la figura superior se encuentra diagramado el flujo de operaciones que ejecuta el sistema cada ciclo. Algunos puntos que valen la pena destacar son los siguientes: es posible el cambio de modo de funcionamiento o el apagado del sistema de manera asíncrona. No es necesario esperar que algún audio se termine de reproducir para empezar a procesar la próxima imagen, ya que esta tarea es ejecutada en hilos distintos.

El usuario interactúa con el dispositivo mediante un solo botón físico y unos auriculares que se conectan automáticamente por bluetooth (si ya se habían conectado manualmente previamente) o se podrían conectar mediante la salida de audio de la Raspberry Pi. El botón se utiliza para encender el dispositivo (si el dispositivo esta apagado), cambiar de modo de funcionamiento y para apagar el dispositivo si se deja presionado por tres o más segundos. Toda la retroalimentación se le brinda al usuario de manera auditiva.

 En las pruebas de detección de billetes determinamos que el rendimiento bajo las mejores condiciones resulta en un tiempo promedio de respuesta de 4 segundos. Esta cantidad acomoda el tiempo que le toma al usuario posicionar el billete frente al sensor y el tiempo que podría tomarle al sensor enfocar la imagen al objetivo. A medida que empeora la iluminación del ambiente el rendimiento se torna inconsistente y el tiempo promedio de respuesta aumenta.

En las pruebas de distancia descubrimos que el sensor logra detectar y estimar con un margen de error de +-0.1m la distancia de objetos que se encuentran entre 0 y 15 metros de distancia del sensor. En la prueba de multitud obtuvimos un resultado inesperado, donde el rendimiento fue mejor en el ambiente de alta iluminación que en el de iluminación regular.

Conclusiones

Este proyecto ha demostrado ser eficaz en la implementación de soluciones de visión computacional para las tareas descritas en los objetivos del proyecto. La funcionalidad de detección de billetes funciona consistentemente y en tiempo real bajo condiciones ideales de iluminación, permitiendo a los usuarios identificar la denominación de los billetes dominicanos sin asistencia. La detección de obstáculos amplía el rango de detección de un invidente hasta 14 metros más allá de las dimensiones de su bastón, mejorando su percepción del entorno. El dispositivo es fácil de usar, tiene una curva de aprendizaje mínima y componentes pequeños que permiten su portabilidad.

Un resultado inesperado fue la mayor consistencia en la detección de billetes cuando están orientados por el anverso en lugar del reverso. Esto puede deberse a que los diseños de los billetes anversos contienen más elementos gráficos, facilitando la detección. En condiciones de iluminación inadecuadas, el desempeño del dispositivo disminuye, y la detección de obstáculos se ve afectada cuando los objetos se solapan. Además, el dispositivo no puede determinar la legitimidad de los billetes, y el estado físico de los billetes también afecta la precisión de la detección.

Recomendaciones

Para futuras mejoras del proyecto, se sugiere agregar una linterna para mejorar la detección de billetes en condiciones de poca iluminación y considerar la integración de un sensor IR o un sensor binocular con IR para mejorar la detección de obstáculos en baja iluminación. Incluir comandos por voz y rediseñar el sistema de retroalimentación para el módulo de detección de obstáculos también serían beneficiosos. Además, sería útil mejorar la distribución de calor de los componentes o agregar métodos de refrigeración, así como idear y desarrollar más modos de funcionalidad para el dispositivo.

Referencias

  • Rosenblum, See What I’m Saying: The Extraordinary Powers of Our Five Senses. Los Angeles, 2010.
  • A. Semary, S. M. Fadl, M. S. Essa, and A. F. Gad, “Currency recognition system for visually impaired: Egyptian banknote as a study case,” in 2015 5th International Conference on Information & Communication Technology and Accessibility (ICTA), 2015, pp. 1–6. doi: 10.1109/ICTA.2015.7426896.
  • “Ciegos no detectan marcas para no videntes en billetes dominicanos,” Diario Libre, Santo Domingo, Apr. 23, 2014. Accessed: Jul. 23, 2022. [Online]. Available: https://www.diariolibre.com/actualidad/ciegos-no-detectan-marcas-para-novidentes-en-billetes-dominicanos-JKDL577781
  • Zhang, W. Yan, and M. Kankanhalli, “Overview of currency recognition using deep learning,” Journal of Banking and Financial Technology, vol. 3, Jan. 2019, doi: 10.1007/s42786-018-00007-1.
  • Katzschmann, B. Araki, and D. Rus, “Safe Local Navigation for Visually Impaired Users With a Time-of-Flight and Haptic Feedback Device,” IEEE Transactions on Neural Systems and Rehabilitation Engineering, vol. PP, p. 1, Jan. 2018, doi: 10.1109/TNSRE.2018.2800665.
  • Katzschmann, B. Araki, and D. Rus, “Safe Local Navigation for Visually Impaired Users With a Time-of-Flight and Haptic Feedback Device,” IEEE Transactions on Neural Systems and Rehabilitation Engineering, vol. PP, p. 1, Jan. 2018, doi: 10.1109/TNSRE.2018.2800665.

Sistema de ayuda para la identificación de las patologias de la piel

Leslie Nicole Rodriguez Nuñez

Pontifica Universidad Católica Madre y Maestra, PUCMM

Introducción

La prevalencia de enfermedades de la piel demuestra lo comunes que son las patologías en la dermis y lo costoso que puede resultar el tratamiento en la industria. Desde condiciones leves como el acné hasta enfermedades más graves como el melanoma, los problemas dermatológicos afectan a millones de personas en todo el mundo, incrementando la demanda de atención médica especializada y de tratamientos efectivos. Además de los costos directos del tratamiento, estas enfermedades pueden tener un impacto significativo en la calidad de vida de los pacientes, afectando su bienestar físico, emocional y social. Por estas razones, se necesitan técnicas multifacéticas para abordar el aumento de los problemas de la piel y para implementar un tratamiento temprano que no solo mejore los resultados de salud, sino que también reduzca los costos asociados a tratamientos prolongados y complicaciones avanzadas.

Contexto

La prevalencia de enfermedades de la piel ha aumentado notablemente en los últimos años a escala mundial. Esta escalada ha atraído una atención significativa de investigadores, médicos y legisladores debido a su impacto en el bienestar general de las personas y la salud pública. Según la World Health Organization, en “Radiation: Ultraviolet (UV) radiation and skin cancer,” la incidencia de melanoma maligno desde principios de la década de 1970, ha aumentado considerablemente; por ejemplo, en promedio incrementó un 4% anual en los Estados Unidos. Numerosos estudios muestran una correlación entre los hábitos de exposición a los rayos UV de una persona, cambios climáticos, los rasgos genéticos y personales y su probabilidad de desarrollar un melanoma maligno. De acuerdo con la exposición del sol y los cambios climáticos en N. Balato, M. Megna, F. Ayala, A. Balato, M. Napolitano, and C. Patruno, en “Effects of climate changes on skin diseases,” se expone que el factor primario que influye en el proceso de fotocarcinogénesis es la cantidad de rayos UV recibidos en la superficie terrestre.

Proyectos Relacionados

Uno de los primeros artículos relacionados corresponde a Y. N. Fu’adah, N. C. Pratiwi, M. A. Pramudito, and N. Ibrahim, quienes realizaron el estudio titulado: “Convolutional Neural Network (CNN) for Automatic Skin Cancer Classification System”, en el cual se justifica el objetivo de la investigación debido a que el melanoma maligno es una afección provocada por modificaciones en las características de las células sanas de la piel para que se vuelvan malignas, lo que hace que las células se dividan sin control en formas anormales como resultado del daño en el ADN, además de que aborda los distintos pasos de integración en su red neuronal.

Por otra parte, en su reporte científico titulado “Skin cancer diagnosis using convolutional neural networks for smartphone images: A comparative study” de S. Medhat, H. Abdel-Galil, A. E. Aboutabl, and H. Saleh, compara diferentes técnicas de redes neuronales con imágenes tomadas por teléfono celular. En este, expone que los sistemas de diagnóstico ayudados por computadora para imágenes de cáncer de piel tomadas con teléfonos inteligentes pueden servir como un sistema de alerta para casos graves, mostrando la relevancia que tienen las lesiones de la piel y el uso de la tecnología que poseemos.

Por último, W. Gouda, N. U. Sama, G. Al-Waakid, M. Humayun, and N. Z. Jhanjhi en su artículo “Detection of skin cancer based on skin lesion images using deep learning” expone el uso de diferentes fuentes de datos comparando con el modelo de red neuronal empleando imágenes tomadas por teléfonos celulares.

Solución Propuesta

La solución que se plantea es crear un mecanismo que haga uso de una red neuronal para poder identificar lesiones de la piel. Este mecanismo sería un portal web donde el especialista de la piel sea capaz de subir la imagen que desea evaluar y como resultado se muestre el porcentaje de probabilidad de las lesiones.

Con relación al modelo, las lesiones que se proponen analizar son Melanoma, que es la clase a la cual se le piensa colocar más enfoque, Nevus (Lunares o verrugas) por su naturaleza común entre los seres humanos y carcinoma de células basales porque puede representar un objeto de confusión a la hora del diagnóstico.

Con el propósito de proporcionarle al usuario una interfaz gráfica comprensible, se creará un portal web, en el que el mecanismo deberá ser capaz de mostrar de una manera sencilla los porcentajes de las diferentes lesiones propuestas para que el especialista tome la decisión de los pasos a seguir con el paciente. En este portal, el paciente subirá las imágenes que desea evaluar y el dermatólogo decidirá aquellas que desea que sean evaluadas por el modelo.

Metodología

La composición del proyecto se divide en dos partes principales, la implementación del modelo de clasificación utilizando CNN para las patologías de la piel y la aplicación de este en un portal web para que pueda ser utilizado. En la primera parte, se plantea que el modelo se entrene con datos de diversas fuentes de información utilizando regularizadores, aumento de datos, funciones de activación, callbacks y técnicas para evitar el sobreajuste del modelo, para luego ser validado y testeado por una porción de los mismos datos y efectividad de este a través de métricas de evaluación.

Se plantea que el portal web reciba la imagen que se quiera evaluar, y luego de utilizar el modelo previamente creado, muestre las probabilidades de las diferentes patologías que el modelo es capaz de pronosticar en términos de porcentajes.

 

Resultados Obtenidos

Se estructuro una aplicación web capaz de, a través del entrenamiento pronfundo explicado, clasificar hasta cinco patologías de la piel que afectan a la población dominicana. Aplicando técnicas de overfitting y dropping, se asegura la exactitud y precisión del modelo para imágenes fuera del dataset.

 

Conclusiones

Debido al aumento de incidencias patológicas, la contaminación mundial y el incremento de la desinformación en las redes sociales en la República Dominicana, este proyecto ofrece una solución conveniente para pacientes con discapacidad, vida ajetreada o como preconsulta para determinar la necesidad de una consulta presencial.

Este sistema permite procesar imágenes de patologías de la piel, permitiendo a los expertos verificar y ofrecer los pasos que el paciente debe seguir, tomando medidas tempranas para evitar que las situaciones se agraven. Además, el sistema tiene potencial como herramienta de apoyo en centros médicos y establecimientos especializados en el cuidado de la piel, proporcionando retroalimentación a los pacientes a través de un portal accesible sin necesidad de una visita presencial, a menos que sea requerida por el profesional.

La solución propuesta también puede contribuir al avance de metodologías de preprocesamiento de información en la industria médica, utilizando visión computacional para la extracción y categorización de imágenes. Mediante una red neuronal convolucional y librerías como TensorFlow.

Un resultado inesperado fue la mayor consistencia en la detección de billetes cuando están orientados por el anverso en lugar del reverso. Esto puede deberse a que los diseños de los billetes anversos contienen más elementos gráficos, facilitando la detección. En condiciones de iluminación inadecuadas, el desempeño del dispositivo disminuye, y la detección de obstáculos se ve afectada cuando los objetos se solapan. Además, el dispositivo no puede determinar la legitimidad de los billetes, y el estado físico de los billetes también afecta la precisión de la detección.

Recomendaciones

A pesar de los grandes beneficios del sistema, todavía existen oportunidades de mejora de este para ofrecer una mejor calidad y presión del modelo. Un ejemplo 68 de esto es referente a la iluminación y calidad de las imágenes el cuál puede afectar considerablemente el desempeño del modelo y la predicción de las patologías en las que está entrenado, por lo tanto, podría ser necesario realizar varias pruebas o información sobre la iluminación y calidad de esta al usuario o en cambio, implementar algoritmos de corrección de imagen para poder asegurar una mayor calidad de las probabilidades.

Cabe recalcar que el sistema no pretende reemplazar el criterio profesional sino en ser una colaboración de este, por lo tanto, para colaborar con el crecimiento y apoyo mutuo entre la industria médica y el aprendizaje automático se recomienda agregar secciones de pago seguras que permitan al paciente saldar el costo correspondiente de la consulta y del mismo modo, que el profesional experto reciba remuneración por el trabajo que está realizando.

Tomando en cuenta que el sistema no utiliza ningún mecanismo para mejorar la calidad de la imágen, las probabilidades pueden verse afectadas por el mismo. Por consiguiente, por lo que se recomienda implementar un sistema para mejorar y manejar la calidad y resolución de las imágenes para que luego se sometan a evaluación y poder asegurar mejores resultados.

Referencias

  • World Health Organization, “Radiation: Ultraviolet (UV) radiation and skin cancer,” www.who.int, Oct. 16, 2017. https://www.who.int/news-room/questions-and-answers/item/radiation-ultraviolet-(uv )-radiation-and-skin-cancer
  • Y. N. Fu’adah, N. C. Pratiwi, M. A. Pramudito, and N. Ibrahim, “Convolutional Neural Network (CNN) for Automatic Skin Cancer Classification System,” IOP Conference Series: Materials Science and Engineering, vol. 982, p. 012005, Dec. 2020, doi: https://doi.org/10.1088/1757-899x/982/1/012005.
  • S. Medhat, H. Abdel-Galil, A. E. Aboutabl, and H. Saleh, “Skin cancer diagnosis using convolutional neural networks for smartphone images: A comparative study,” 72 Journal of Radiation Research and Applied Sciences, vol. 15, no. 1, pp. 262–267, Mar. 2022, doi: https://doi.org/10.1016/j.jrras.2022.03.008.
  • W. Gouda, N. U. Sama, G. Al-Waakid, M. Humayun, and N. Z. Jhanjhi, “Detection of Skin Cancer Based on Skin Lesion Images Using Deep Learning,” Healthcare, vol. 10, no. 7, p. 1183, Jun. 2022, doi: https://doi.org/10.3390/healthcare10071183.
  • Listín Diario, “Las enfermedades de la piel más comunes en el país; cómo prevenirlas y tratarlas,” Listindiario.com, Apr. 21, 2022. https://listindiario.com/la-republica/2022/04/21/718251/las-enfermedades-de-la-pielmas-comunes-en-el-pais-como-prevenirlas-y-tratarlas.html (accessed Jul. 27, 2023).

Sistema de supervisión para ejercicios de pesas libres con visión computacional

Jeferson Rosa Tejada y Luis Manuel Castro Herrera
Pontifica Universidad Católica Madre y Maestra, PUCMM

Introducción

El problema de las lesiones en los gimnasios es algo que ocurre frecuentemente alrededor del mundo, debido a la inexperiencia de los afiliados y muchas veces al desconocimiento o desinformación de cómo realizar el ejercicio apropiadamente.

Hay que recalcar que la incorrecta elaboración y el mal uso de esta conlleva un sinnúmero de problemas, que afectan a las personas de manera negativa, de una duración corta, mediana o hasta larga en el peor de los casos. Y aunque en la mayoría de las ocasiones se cuenta con una supervisión directa por un entrenador que ha de corregir la mala ejecución de los ejercicios, estas correcciones pueden llegar a ser subjetivas y escasas debido al personal limitado de las instalaciones.

Por eso es tan importante tercializar la corrección de la técnica, buscando avanzar hacia un futuro mas autónomo, correcto y seguro a través de, por ejemplo, un sistema de sistema de supervisión para ejercicios de pesas libres con visión computacional, como el que estaremos discutiendo en el presente artículo.

Contexto

Las lesiones en los gimnasios son más frecuentes que lo que nos damos cuenta. En todo el mundo, gracias a la ignorancia y falta de información muchas veces los ejecutores resultan realizando ejercicios inapropiadamente, desde aficionados en el gimnasio hasta incluso profesionales deportistas y fisicoculturistas. Es vital para todos involucrados evitar a toda costa las lesiones y malas prácticas de los ejercicios que fortalecen a estos atletas.

El cuerpo humano se mueve gracias a los músculos y las contracciones y relajaciones constantes de estos músculos. Algunos músculos pueden tirar de huesos para moverlos, pero no pueden hacer el movimiento contrario, por ello se cuenta de un par y trabajan en conjunto, estos son llamados extensores y flexores. Por ejemplo, el bíceps es un musculo flexor y se encuentra en la parte frontal del brazo permitiéndonos cierto movimiento y el tríceps se encuentra en la parte posterior o codo y es un extensor. Para doblar el brazo el bíceps se contrae, y cuando el bíceps se relaja y se contrae el tríceps entonces se endereza el brazo.

Las lesiones musculares son una de las más comunes causas que llevan a deportistas y otros profesionales a disminuir o incluso a interrumpir su entrenamiento y participación competitiva, ya que, estas lesiones y sus consecuencias pueden repetirse y empeorarse con la actividad motriz constante.

De acuerdo con un estudio y seguimiento realizado en República Dominicana en la ciudad de Santo Domingo, el medico ortopeda Marcelo Puello concuerda que un 50% de los practicantes de ejercitación física no realizaron una evaluación médica previa y terminaron por acudir a una consulta por lesiones. De entre estos también confirma Puello que diariamente cerca de la mitad de los lesionados son jóvenes deportistas de entre 15 a 30 años. Ortopedas especifican que las lesiones de rodilla, muñeca, espalda baja y tobillo son algunas de las más frecuentes y que la desinformación y el desconocimiento de las técnicas son su causa directa.  A falta de supervisión directa, lo mejor que se le puede ofrecer a esta generación tecnológica es una solución digital, por esto la necesidad de desarrollar un sistema con retroalimentación que sea de fácil utilización para el público.

Proyectos Relacionados

Un estudio estadounidense publicado en National Health Statistics Reports midió la incidencia de accidentes en un periodo de 3 años y descubrió que las actividades que más lesiones ocasionaron fueron, sorpresivamente, ejercicios generales (involucrando levantamiento de pesas en gimnasios).

En 2021, se identificó que al ejecutar el ejercicio de la sentadilla con frecuencia las personas no estaban conscientes de qué parte del cuerpo les molestaba o dolía y desarrollaron una propuesta recurriendo a la visión artificial y modelos matemáticos para analizar el movimiento de todo el ejercicio para así dar una valoración sobre si este se realiza correctamente comparándolo con modelos ejecutados por profesionales en el área.

Solución Propuesta

Funcionamiento ilustrativo del sistema

Por esta razón, se desarrolló una aplicación que determina mediante visión computacional si el usuario ejecuta de manera óptima el ejercicio de pesas libres evitando lesiones.

El proyecto estará dividido en varias partes principales: el área amplia para ejercitarse la cual idealmente contará con buena iluminación, espejo y una forma de retroalimentación donde la persona podrá realizar los ejercicios propuestos. Un sistema de procesamiento computacional de imágenes que funcionará para analizar a la persona en el área de ejercicios y evaluará su postura y ejecución del ejercicio. Finalmente, una base de datos de la persona la cual servirá no solo para almacenamiento de los datos personales y progreso de las personas que tengan acceso, pero también servirá para almacenamiento de los parámetros ideales de los ejercicios disponibles.

Metodología

Modelo interactivo del sistema.

Para llevar a cabo el proyecto en el estado actual contamos con tres trípodes a una altura de 1.3m, separados a una distancia de 2.5m del área de ejercicio donde el usuario se colocará. Cada trípode se encuentra a cada lado del usuario y uno de estos de frente. Montados en los trípodes se hallan las cámaras web que servirán de entrada de datos para el análisis computacional, las cámaras son rotadas 90 grados para finalizar en una posición vertical en la que favorece la captura más amplia del usuario, pero a la vez reduce el ruido visual. Las cámaras transmiten la información a través de extensores USB de alrededor de 4.5m directamente conectadas al computador personal que ejecuta las técnicas de procesamiento computacional de imágenes. Estas técnicas son ejecutadas gracias a un programa en lenguaje de alto nivel Python. Utilizando librerías como Mediapipe para poder realizar el seguimiento del cuerpo a partir de la información recibida de la cámara y mediante este poder analizar con los parámetros ideales como se realiza correctamente el ejercicio.

A la misma vez se toma información valiosa para registrar en la base de datos de lenguaje de consulta estructurada (SQL). También en esta base de datos se identifica el usuario inicialmente con un acceso único y se le da seguimiento a este. Con la información anterior analizada y registrada se devuelve al usuario retroalimentación visual y sugerencias para la ejecución exitosa del ejercicio de sentadillas. Si el usuario desea en cualquier momento puede consultar cómo debe ejecutar el ejercicio óptimamente gracias a videos pregrabados con profesionales e instrucciones textuales.

Resultados Obtenidos

En un ambiente controlado, hemos probado y evaluado el sistema, logrando una precisión media en el seguimiento de los movimientos del usuario. Aunque el sistema puede rastrear las posiciones y movimientos de un solo usuario con facilidad, presenta dificultades cuando hay múltiples usuarios en la escena. Dado que el sistema no está diseñado para múltiples usuarios, estamos trabajando en una solución más robusta para mantener el enfoque en el usuario objetivo.

Mapa de puntos del programa.

La retroalimentación e instrucciones de los movimientos del usuario se ha demostrado eficiente. Contando con instrucciones textuales y demostraciones visuales previas a la ejecución, así como retroalimentación visual en tiempo real precisa y respuesta del ejercicio recién realizado se ha demostrado más que suficiente ayuda para el usuario familiarizarse con el ejercicio y corregir su postura. 

Ejercicios disponibles.

Además, se entiende que se cuenta con una interfaz cómoda e intuitiva para nuevos usuarios como para veteranos y con una recopilación de datos fiable y eficiente para el análisis temporal como para posterior evaluación.

Conclusiones

El proyecto ha demostrado ser una solución efectiva para la corrección de técnicas y la prevención de lesiones en gimnasios pues la precisión en la detección de errores y la capacidad de proporcionar retroalimentación en tiempo real posicionan al sistema como una herramienta valiosa para los usuarios de gimnasios, independientemente de su nivel de experiencia. Proyectando una reducción significativa en el número de lesiones reportadas lo que valida la importancia de la correcta supervisión de ejercicios y el potencial de la tecnología de visión computacional para mitigar riesgos asociados con la mala ejecución de ejercicios.

Recomendaciones

El almacenamiento y análisis de datos de los usuarios no solo facilita un seguimiento personalizado, sino que también permite la mejora continua del sistema. Esta adaptabilidad es crucial para mantener la relevancia y efectividad del sistema a medida que evoluciona la tecnología y cambian las necesidades de los usuarios.

Dado el éxito del proyecto piloto, se recomienda la expansión del sistema a otros ejercicios y la integración con dispositivos móviles para aumentar la accesibilidad y facilidad de uso. Además, la incorporación de funciones adicionales, como la personalización de rutinas de ejercicio basadas en el análisis de datos históricos del usuario, podría mejorar aún más la experiencia del usuario.

Es importante recalcar que el programa esta pensado solo para 1 persona, sin interferencia de demás cuerpos. Esto, a la larga, se podría estructurar para seguir a un individuo a pesar de su entorno, aunque otras técnicas deben ser aplicadas.

Referencias

 P. Smith, «How to measure, report and verify soil carbon change to realise the potential of soil carbon sequestration for atmospheric greenhouse gas removal,» INSTITUTE FOR CARBON REMOVAL LAW AND POLICY, USA, 2019.


 A. S. Susanto B. Sulistyo, «Design and performance test of portable spectrometer using AS7265x multispectral sensor for detection of adulterated cane sugar in granulated coconut sugar,» AIP Conference Proceedings, USA, 2023.


 M. J.-L. F. R. J.-L. Andrés Fernando Jiménez-López, «Multispectral analysis of vegetation for remote sensing applications,» Iteckne, Colombia, 2015.

[1] T. Taylor, Muscular System, 2021 [En línea] Disponible: https://www.innerbody.com/image/musfov.html [Ultimo acceso: 2 abril 2023] [2] L. Hirsch, Huesos, Músculos y Articulaciones, 2019. [En línea] Disponible: https://kidshealth.org/en/parents/bones-muscles-joints.html [Ultimo acceso: 2 abril 2023] [3] N. M. .. P. P. d. L. Infante Ruiz, La resolución de problemas de Biomecánica Deportiva como actividad investigativa, Luz, vol. XX, nº 3, 2021.

[9] A. I. Dibujes Félix, Sistema electrónico de evaluación de postura de la espalda al realizar el ejercicio de sentadillas con barra libre usando algoritmos de aprendizaje autónomo en miembros del club de físico culturismo de la Universidad Técnica del Norte, 2018. [En línea]. Disponible: http://repositorio.utn.edu.ec/handle/123456789/8275. [Último acceso: 28 noviembre 2022].

 

Sistema para la detección enfermedades en cultivos de Arroz

Ilka Hernández y Patricia DiMassimo
Estudiantes Escuela de Ingeniería en Eléctrica, Campus Santiago
PUCMM

El arroz en República Dominicana

El cultivo del arroz es una actividad agrícola fundamental en muchos países del mundo, especialmente en República Dominicana, donde se consume en grandes cantidades y se cultiva extensamente. Sin embargo, la presencia de enfermedades y condiciones de estrés puede afectar significativamente la producción y calidad de los cultivos de arroz, lo que a su vez afecta la economía y la seguridad alimentaria las regiones donde se distribuye este producto. Por lo que, la detección temprana de estas enfermedades y condiciones de estrés es un desafío para los agricultores, ya que a menudo son difíciles de detectar a simple vista.

Para abordar este problema, se propone la implementación de un sistema de procesamiento de mapas multiespectrales e imágenes para la detección temprana de enfermedades y condiciones de estrés en cultivos de arroz.

En esta entrada de este blog de innovación se presentará la implementación de un sistema para la detección temprana de enfermedades en cultivos de arroz. El sistema desarrollado combina técnicas de visión computacional y aprendizaje de máquinas. Fue desarrollado un esquema de fusión de datos para la creación de modelos de naturaleza heterogénea.

La Digitalización en la Agricultura

La creciente intersección entre la tecnología y la agricultura ha revolucionado la manera en que se aborda los desafíos agrícolas en la actualidad. Uno de los avances más notables ha sido la aplicación de la inteligencia artificial (IA) en este campo. La capacidad de procesar grandes volúmenes de datos y extraer patrones significativos ha permitido optimizar la producción y la toma de decisiones agrícolas. La integración de sensores avanzados y microcontroladores como el ESP32, ha facilitado la recolección y el análisis de información crítica para el diagnóstico y prevención de enfermedades en cultivos, como el arroz. Esta revisión se enfoca en la evaluación de cómo la tecnología, especialmente la inteligencia artificial, ha impactado en la agricultura, con énfasis en la aplicación de sensores multiespectrales y microcontroladores en el reconocimiento temprano de enfermedades en hojas de arroz.

La combinación de tecnologías de medición multiespectral e inteligencia artificial ha dado lugar a soluciones novedosas en la detección de adulteración en productos agrícolas. Un ejemplo destacado es el desarrollo de un espectrómetro portátil que utiliza este sensor para evaluar la pureza del azúcar de coco y detectar la adulteración con azúcar de caña. La implementación de redes neuronales permitió una clasificación precisa de muestras adulteradas y puras, con una tasa de éxito del 100% en casos de azúcar de coco y un promedio superior al 90% para estimar la intensidad de la adulteración.

Diversos proyectos relacionados han abordado problemáticas similares en la detección y diagnóstico de enfermedades en cultivos, lo que amplía la comprensión de las aplicaciones y desafíos de la tecnología. Por ejemplo, un estudio se centró en la detección de malezas y la estimación de la salud de las vides utilizando el NDVI en combinación con el sensor multiespectral. Aunque enfrentaron desafíos de calibración y sesgos, estos proyectos reflejan la creciente importancia de las herramientas tecnológicas en la agricultura de precisión y subrayan la necesidad de investigación continua para superar obstáculos técnicos.

Solución Propuesta

La implementación del presente proyecto tiene como objetivo mejorar la producción de arroz al reducir los efectos negativos de las enfermedades y condiciones de estrés en los cultivos. En cuanto a la composición, las imágenes multiespectrales se obtendrían mediante la utilización del sensor multiespectral seleccionado que puede capturar la luz en diferentes longitudes de onda. Las mediciones multiespectrales capturadas por este sensor proporcionaron información detallada sobre el estado de salud de los cultivos de arroz.

Además, se utilizaron técnicas de procesamiento de imágenes para mejorar la calidad y precisión de los datos obtenidos de las mediciones multiespectrales. Estas técnicas incluyen la corrección de distorsiones en las imágenes, la eliminación de ruido y la normalización de los datos para garantizar una representación precisa de la salud de los cultivos. Este sistema combina la ciencia de la agricultura con la tecnología de la información y el aprendizaje automático, para proporcionar una solución integral y efectiva para la detección temprana de enfermedades y condiciones de estrés en los cultivos de arroz.

Para la creación del sistema físico, se utilizó la herramienta de CAD SolidWorks para diseñar dos cajas negras. Ambas cajas tienen las mismas dimensiones, pero con propósitos diferentes. La caja mostrada en la siguiente está diseñada para trabajar con el sensor multiespectral seleccionado y dos arreglos de LEDs. Su función es proporcionar un espectro de emisión que abarca un rango desde los 400 nm (ultravioleta) hasta los 750 nm (infrarrojo cercano). El objetivo de este diseño es captar el espectro reflejado por las hojas de arroz y utilizar esta información para determinar ciertas condiciones relacionadas con los niveles de hidratación de las hojas.

Se empleó un microcontrolador ESP32 para gestionar la activación y desactivación de los LEDs que emiten diversas frecuencias espectrales y que son dirigidos a las hojas de arroz. El ESP32 es una opción ligera pero altamente confiable para esta tarea. Con este microcontrolador, se estableció una comunicación con el sensor multiespectral utilizando el protocolo I2C. En la siguiente figura se muestra una imagen con la configuración de entrada y salida del microcontrolador elegido.

En la carcasa diseñada fueron acomodadas tanto la cámara como el sensor multiespectral seleccionado, permitiendo las capturas de hojas individuales de arroz para su caracterización. Se seleccionó el color negro para evitar el efecto de la reflexión y se colocaron LEDs específicos para las distintas frecuencias del espectro electromagnético que se deseaban caracterizar. En la siguiente imagen podemos ver un ejemplo de una imagen capturada.

Se analizó cada hoja en términos de valores de reflectancia y absorción en cada una de las 18 bandas del sensor (410nm, 435nm, 460nm, 485nm, 510nm, 535nm, 560nm, 585nm, 610nm, 645nm, 680nm, 705nm, 730nm, 760nm, 810nm, 860nm, 900nm, 940nm). Para lograrlo fue colocado un arreglo de 6 LEDs capaces de proporcionar las longitudes de onda mostradas con dirección a la hoja. En la siguiente figura se observa la respuesta capturada a partir del sensor multiespectral.

Metodología para el entrenamiento de los algoritmos de aprendizaje de máquina

A partir de estas imágenes se procedió a entrenar un modelo de clasificación basado en las redes neuronales convolucionales. AlexNet es un modelo de red neuronal convolucional considerado uno de los modelos más influyentes en el campo del aprendizaje profundo y fue uno de los primeros en demostrar un rendimiento notable en la tarea de clasificación de imágenes a gran escala. Las técnicas de aprendizaje por transferencia han permitido aprovechar las arquitecturas de estas redes neuronales convolucionales y adaptarla a una diversidad de aplicaciones. En nuestro caso, a la clasificación de enfermedades en hojas de arroz. Debajo se muestra la estructura de la red AlexNet entrenada usando el ambiente Matlab.

Resultados Obtenidos

La estrategia de procesamiento de imágenes en el dominio espacial para identificar manchas en hojas de arroz ha arrojado resultados sumamente prometedores. La elección de la técnica de segmentación basada en el color, combinada con operaciones de preprocesamiento como la conversión a escala de grises y la aplicación de operaciones de apertura, ha demostrado su capacidad para resaltar de manera excepcional las áreas de interés, es decir, las manchas en las hojas. La aplicación consecutiva del método de Otsu y su transformación inversa ha afinado aún más la precisión de la segmentación, contribuyendo a una separación nítida entre las manchas y el fondo de las hojas. Este enfoque en el dominio espacial ha culminado en una detección de enfermedades en las hojas de arroz más confiable y definida, al mismo tiempo que ha minimizado cualquier distorsión o ruido no deseado en las imágenes. La inherente flexibilidad de esta metodología ha permitido ajustar los parámetros de segmentación en función de las variaciones en las características de las manchas y los requisitos específicos del proyecto. En la figura siguiente se muestran los resultados del procesamiento utilizado.

A continuación se muestran los resultados del mejor modelo obtenido. Es importante recalcar que se utilizó una estrategia de entrenamiento cruzado, para evitar introducir sesgo al modelo planteado. La precisión promedio para todas las clases fue del 91.44%.

En el caso del sensor multiespectral, fue elegido un modelo basado en árboles aleatorios, donde se observa una capacidad importante del modelo de distinguir de las tres clases asignadas para la clasificación multiespectral. En la siguiente figura se muestra la matriz de confusión del modelo.

El desempeño obtenido por la estación de inspección mostró su viabilidad para cumplir los objetivos planteados para el presente proyecto, ofreciendo la posibilidad de implementar estrategias similares en distintos tipos de cultivos, y adicionalmente, la importancia que puede presentar la aplicación de técnicas de aprendizaje de máquina en la implementación de la agricultura de precisión.

Conclusiones

La elección de modelos y estrategias de entrenamiento es crucial para la clasificación de imágenes RGB y datos multiespectrales para aplicaciones de agricultura de precisión. La adaptabilidad del sistema desarrollado y su capacidad para detectar patrones anómalos pueden ser una herramienta de importancia en optimizar los procesos de gestión de cultivos.

Referencias

 P. Smith, «How to measure, report and verify soil carbon change to realise the potential of soil carbon sequestration for atmospheric greenhouse gas removal,» INSTITUTE FOR CARBON REMOVAL LAW AND POLICY, USA, 2019.


 A. S. Susanto B. Sulistyo, «Design and performance test of portable spectrometer using AS7265x multispectral sensor for detection of adulterated cane sugar in granulated coconut sugar,» AIP Conference Proceedings, USA, 2023.


 M. J.-L. F. R. J.-L. Andrés Fernando Jiménez-López, «Multispectral analysis of vegetation for remote sensing applications,» Iteckne, Colombia, 2015.

 

 

Sistema de Radio Cognitiva basado en Radio Definida por Software

Nicole Marie Ramos y Jhonabel Hernández
Estudiantes Escuela de Ingeniería en Computación y Telemática, Campus Santiago
PUCMM

La evolución de la Radio tradicional

La radio cognitiva y los dispositivos de radio definidos por software (SDR) son tecnologías emergentes que abordan la escasez del espectro en comunicaciones inalámbricas. Permiten un acceso dinámico al espectro al detectar y aprovechar las frecuencias subutilizadas. Por esa razón, y tomando en cuenta el crecimiento exponencial de la población humana, aprovechar estas nuevas tendencias tecnológicas para hacer un uso eficiente del espectro radioeléctrico es un punto clave para continuar el desarrollo de las tecnologías de la telecomunicación.

Se debe destacar que el espectro radioeléctrico es un recurso limitado, por lo que el estudio de nuevas técnicas que hagan un uso inteligente del mismo garantiza el continuar contando con este recurso. Este proyecto explora el uso de la radio cognitiva para optimizar la utilización del espectro disponible en aplicaciones de alta velocidad y baja latencia, así como el uso de los dispositivos SDR para el acceso dinámico al espectro.

En esta entrada de este blog de innovación se presentará la implementación de una arquitectura de software definida por radio para la implementación de estrategias de radio cognitiva. El sistema desarrollado muestra la importancia de la implementación de técnicas de radio cognitiva para garantizar el buen aprovechamiento del espectro radioeléctrico.

La importancia de la Radio Cognitiva

En el trabajo titulado “Evaluación de ocupación del espectro radioeléctrico y análisis de factibilidad de uso de radio cognitiva en la banda UHF (450 – 512 MHZ) Para su optimización en la ciudad de Riobamba” se tomaron dos puntos de referencia para la medición del espectro y, a partir de allí, por medio del análisis espectral se concluyó que el 93.24% de las bandas de frecuencia no estaban siendo ocupadas. Esto pone en perspectiva que la implementación de sistemas de radio cognitiva permitiría reconfigurar automáticamente los esquemas de transmisión y aprovechar estos espacios no utilizados.

Otro proyecto interesante es “Implementación de escenarios de simulación mediante técnicas de modulación y análisis espectral en sistemas WRAN en radios cognitivas”. Este establece que por medio de radio cognitiva se puede identificar el espectro en frecuencia que se encuentra disponible y proceder a realizar la transmisión de la información en los espacios no utilizados. Este trabajo presenta un análisis práctico basado en MATLAB y se crea un escenario de simulación para validar la propuesta planteada.

De igual manera, el trabajo titulado “Herramienta para la medición de ocupación de canales para radio cognitiva en el rango de 470 MHz a 900MHz” encontramos algo similar a lo planteado anteriormente. Los autores presentan un prototipo de herramienta de bajo costo para medir y determinar la ocupación de canal y niveles de señal en el espectro radioeléctrico en el rango de 470 MHz a 900 MHz. Este sistema de bajo costo aprovechando los sistemas SDR es una alternativa a los equipos profesionales y de laboratorio que tienden a tener una mayor precisión pero a un custo mucho más elevado. Por lo que estas soluciones de bajo costo ayudan a promover la implementación de sistemas de radio cognitiva.

Descripción del Sistema Propuesto

Este trabajo propone la creación de una herramienta robusta y de bajo costo utilizando radio cognitiva como concepto principal, sus técnicas de detección y de acceso dinámico se enfocarán en las banda del espectro de frecuencia de UHF/VHF para la toma de decisión con un sistema cognitivo basado en el entrenamiento de un modelo de aprendizaje de máquina. Siendo el propósito de este modelo el detectar espacios de baja utilización dentro del espectro para hacer uso de los mismos en un proceso de transmisión. Esto permite aplicar el uso de radio cognitiva mejorando el acceso dinámico a usuarios secundarios por medio de un algoritmo que detecta energía y el entrenamiento de un modelo de aprendizaje.

La estructura del sistema de radio cognitiva consiste en un conjunto de algoritmos que funcionan a través de software, conocidos como motor cognitivo, y que pueden ser utilizados en plataformas de radio con implementación de hardware. Este motor cognitivo se encarga de gestionar los recursos y adaptar el mecanismo para optimizar sus funcionalidades. En resumen, una arquitectura ideal de radio cognitiva incluiría una serie de componentes funcionales:

  • Interfaz de usuario
  • Detección de entorno
  • Aplicación en el sistema
  • Radio definido por software
  • Funciones cognitivas

Por lo que se debe ejecutar un esquema que permita cumplir con cada uno de estas funcionalidades. Es importante destacar que la flexibilidad de la radio definida por software permite integrar en un solo equipo físico mucha de estas funcionalidades. Adicionalmente, la capacidad de reconfiguración de los sistemas SDR ofrece alternativas interesantes para la adaptabilidad requerida por los sistemas de radio cognitivo. En la siguiente figura se muestra el esquema de implementación realizado para el sistema propuesto.

La transmisión y recepción de señales fue realizada mediante el uso de un dispositivo SDR, en específico BladeRF x40. Para el procesamiento de las señales se implementaron las rutinas a ser ejecutadas en el sistema SDR en el ambiente de GNU Radio. En la siguiente imagen podemos ver el sistema SDR BladeRF x40.

En más del 69% de las ocasiones en que el aprendiz solicitó una sugerencia, acciones captadas y analizadas al momento de validar las habilidades del coach, estas recomendaciones contribuyeron a que el aprendiz o su equipo resulten ganadores de la ronda. Esto implica que en menos del 30% de los casos, las sugerencias del coach no resultaron beneficiosas para el aprendiz o su equipo, ya sea por perder la ronda o porque la ficha sugerida no era la más óptima en ese momento.

Resultados y Limitaciones

La implementación realizada en GNU Radio permitió crear un detector de energía y agregar cotas de robustez mediante el análisis estadístico de la densidad de potencia en cada canal, determinando si el mismo se encontraba ocupado o no. Debajo se muestra el resultado en GNU Radio al momento de detectar un canal ocupado.

En este caso se determinó que el canal en 955MHz se encontraba ocupado, por lo que no es posible realizar una transmisión en el mismo. A partir de esto fue posible crear una modulación del tipo OFDM cuya frecuencia base fuera adaptable. En la siguientes imágenes se puede ver el proceso de transmisión y como el sistema selecciona la frecuencia centra en 915MHz que se encuentra desocupada.

Conclusiones

El uso de SDR (Radio Definida por Software) brinda mayor flexibilidad y reconfigurabilidad al sistema, permitiendo una implementación más sencilla y una adaptación más rápida a diferentes condiciones y requisitos de comunicación. Esto permite adaptar la comunicación a diferentes entornos, condiciones de propagación y requisitos de servicio sin necesidad de cambiar el hardware físico.

Por último, el algoritmo de detección de canales juega un papel crucial en la detección y utilización de los canales en blanco del espectro, garantizando que el sistema pueda operar sin causar interferencias perjudiciales a los usuarios primarios. En general, este proyecto demuestra que la combinación de radio cognitiva, OFDM, SDR y algoritmos de detección de canales es una solución efectiva para mejorar la gestión y eficiencia del espectro inalámbrico, lo que puede conducir a un mejor rendimiento y una mayor capacidad de las redes inalámbricas en el futuro. Sin embargo, es importante seguir investigando y desarrollando esta tecnología para garantizar su viabilidad y éxito en aplicaciones prácticas y para el manejo de usuarios de manera masiva.

Referencias

Ponce Pinos, J. E. (enero de 2019). Evaluación de ocupación del espectro radioeléctrico y análisis de factibilidad de uso de radio cognitiva en la banda UHF (450 – 512 MHz) para su optimización en la ciudad de Riobamba.

Prócel Contreras, Julio Ricardo (febrero de 2020) Implementación de escenarios de simulación mediante técnicas de modulación y análisis espectral en sistemas WRAN en radios cognitivas.

Briceño Rodríguez, Diana Zoraida (agosto 2020) Herramienta para la medición de ocupación de canales para radio cognitiva en el rango de 470 MHz a 900MHz

 

Entrenador de Dominó basado en Inteligencia Artificial

Luis Ángel Ramírez y Sebastián Manuel Sánchez
Estudiantes Escuela de Ingeniería en Computación y Telemática, Campus Santiago
PUCMM

El juego del Dominó

¿Qué dominicano no ha experimentado una partida de dominó? Desde una perspectiva sociológica, este juego engloba varios aspectos importantes, como elementos educativos, culturales y deportivos al evaluar la agudeza mental en distintos países. En este sentido, surgen los instintos competitivos y la necesidad de aprender a hacer las cosas de la manera correcta.

Por esta razón, la Pontificia Universidad Católica Madre y Maestra se une al movimiento tecnológico desarrollando un entrenador (COACH) de dominó con visión computacional e inteligencia artificial como parte de un proyecto de grado dentro de la carrera de Ciencias de la Computación. Este COACH busca entrenar a cualquier persona interesada en el juego, asegurando que todas las partes jueguen limpio, aun si se desconoce el proceder en el dominó, respetando las reglas, garantizando así la mejor experiencia para todos los jugadores.

En esta entrada de este blog de innovación se presentará la implementación de un entrenador de Dominó basado en la aplicación de visión computacional e inteligencia artificial. El sistema desarrollado muestra las distintas aplicaciones que pueden tener estas tendencias de los sistemas inteligentes en nuestra vida diaria.

Aplicando Tecnología al juego de Dominó

En el proyecto de Herrero, D.G., llamado «Reconocimiento de fichas de dominó mediante técnicas de visión artificial» se implementa la identificación de fichas de dominó por un sistema de forma automática a partir de imágenes tomadas por una cámara digital. Se implementó un algoritmo que recibe un archivo de imagen en el que aparecen fichas de dominó sobre un tapete color verde. El sistema es capaz de identificar cada una de las fichas tanto si se encuentran separadas como si están colocadas juntas unas a otras. Se implementaron técnicas para recuperar partes de la imagen perdidas debido a la iluminación. Para realizar la identificación, el algoritmo realiza en primer lugar una serie de filtrados de la imagen, para posteriormente segmentar la imagen y extraer los contornos de las fichas donde seguido eso se localiza dentro de ellos la línea intermedia de separación de las dos partes de que consta la ficha. Una vez que se ha localizada la línea de separación, se procede a la identificación de la ficha mediante el recuento de puntos existentes a cada lado de dicha separación.

Trabajos como éste pone en evidencia el interés en aplicar las últimas tendencias en técnicas de procesamiento de imágenes e inteligencia artificial al juego del Dominó. Tendencias como los modelos de aprendizaje profundo y los transformadores abren un abanico de oportunidades para impactar algo tan tradicional como lo ha sido el juego de Dominó.

Descripción del Sistema Propuesto

La aplicación se ejecuta de manera local en un dispositivo, preferiblemente una laptop, ya que se basa en un conjunto de librerías y algoritmos para la detección y reconocimiento de fichas, tanto del aprendiz como de las jugadas en la mesa y de la mano para el pase. De la misma manera, librerías para la recomendación de jugadas.

Se combinan varios tipos de tendencias para la creación del entrenador, de las que se pueden mencionar las siguientes:

  • Manipulación y reconocimiento de imágenes.
  • Aprendizaje profundo para la realización del modelo de detección de objetos basado en YOLOv8.
  • MEDIAPIPE para la captura y reconocimiento de los gestos realizados con las manos.
  • Entrenamiento de modelos grandes de lenguaje (LLM) a partir de reglas definidas del Dominó.

A nivel de interacción del usuario, será ejecutada una sola pantalla donde se observarán las jugadas en el lado superior izquierdo, la puntuación en el lado superior derecho, la zona delimitada donde se reconocerán las fichas y en la parte inferior el tablero. Esto se puede apreciar en la imagen ilustrativa mostrada debajo del sistema.

El COACH demuestra habilidades clave en el dominio del Dominó, como la evaluación estratégica de movimientos y una comprensión profunda de las reglas y dinámicas del juego. Estas habilidades le permiten desarrollar estrategias ganadoras y tomar decisiones informadas en el transcurso del juego, maximizando así las posibilidades de éxito.

Por otro lado, la visión computacional desempeña un papel crucial en el proyecto, utilizando la metodología YOLOv8 para la detección de fichas de dominó. Mediante el uso de funciones de pérdida y clasificadores de características, se busca mejorar la precisión y eficiencia del modelo YOLOv8 para aplicaciones prácticas en la detección de fichas de dominó. Además, se incorpora la librería MEDIAPIPE para detectar y reconocer gestos de mano en tiempo real, aprovechando su capacidad para ofrecer soluciones precisas y eficientes sin requerir un conocimiento profundo de los modelos internos. Debajo se muestra una imagen que evidencia la capacidad detección de fichas de Dominó del sistema propuesto.

En más del 69% de las ocasiones en que el aprendiz solicitó una sugerencia, acciones captadas y analizadas al momento de validar las habilidades del coach, estas recomendaciones contribuyeron a que el aprendiz o su equipo resulten ganadores de la ronda. Esto implica que en menos del 30% de los casos, las sugerencias del coach no resultaron beneficiosas para el aprendiz o su equipo, ya sea por perder la ronda o porque la ficha sugerida no era la más óptima en ese momento.

Resultados y Limitaciones

El modelo de aprendizaje automático demostró precisión en las sugerencias de jugadas de dominó, con 17 jugadas válidas de 25 analizadas. Se observó que las sugerencias más concisas tienden a ser más precisas. Todas las sugerencias válidas tuvieron un impacto positivo en el juego, destacando la capacidad estratégica del modelo.

En cuanto al modelo de Large Language Model (LLM) utilizado para sugerir jugadas de dominó, los datos muestran un porcentaje de efectividad alentador, con un 68%, lo que confirma que el LLM puede ser una herramienta útil para asistir a los jugadores en la toma de decisiones.

Además de estos resultados de aplicación, debemos también tomar en consideración el hecho de que el software se centra en un único participante, el «Aprendiz», en un juego de cuatro personas, excluyendo la competencia entre múltiples inteligencias artificiales. De igual forma, la capacidad de procesamiento limitada del hardware puede restringir el alcance y la fluidez de la simulación del proyecto, especialmente en términos de presentación y respuesta.

Conclusiones

Los resultados obtenidos de las pruebas de captura de imágenes y video para la
detección de fichas de dominó indican que el sistema de visión por computadora superó las expectativas iniciales, demostrando una efectividad significativa. La capacidad del sistema para identificar correctamente las fichas en una variedad de condiciones de iluminación, y en algunos casos sin luz, sugiere una robustez y flexibilidad notables. El modelo de lenguaje grande (LLM) fue capaz de distinguir reglas de Dominó a partir de un texto dado y secuencias de reglas sencillas. 

Referencias

Herrero, D.G. (2014) RECONOCIMIENTO DE FICHAS DE DOMINÓ MEDIANTE TÉCNICAS DE VISIÓN ARTIFICIAL. 

“Complete YOLO v8 Custom Object Detection Tutorial | Windows & Linux.” 

Custom Hand Gesture Recognition with Hand Landmarks Using Google’s Mediapipe + OpenCV in Python 

Talebi, Shawhin. “Fine-Tuning Large Language Models (LLMs) | W/ Example Code.” 

Interfaz Cerebro Computador para el control de un DRON tipo Cuatrimotor

James di Giacomo Rodríguez y Darío Ezequiel Núñez
Estudiantes Escuela de Ingeniería en Computación y Telemática, Campus Santiago
PUCMM

Tendencias del futuro: Interfaz Cerebro-Computador

En la década de 1970, el profesor Jacques Vidal introdujo el término «interfaz cerebro-computadora» (BCI, por sus siglas en inglés), planteando la idea de utilizar patrones de ondas cerebrales para controlar dispositivos externos, como computadoras. El control de drones a través de BCI es una extensión natural de esta investigación y ofrece nuevas oportunidades en términos de accesibilidad y control preciso de estos dispositivos.

El uso de interfaz cerebro-dron podría permitir a los operadores controlar drones de manera remota y precisa sin necesidad de una interfaz física, lo que reduciría el riesgo de exposición a peligros físicos, además, la interfaz cerebro-dron podría acelerar la prestación de ayuda en áreas afectadas por desastres naturales o conflictos, permitiendo una respuesta más rápida y precisa. De igual forma, este tipo de tecnología proporciona una alternativa de control para personas con dificultades físicas, lo que les permite superar sus limitaciones y tener mayor autonomía en el manejo de drones.

Sin embargo, a pesar de los beneficios potenciales, existen desafíos técnicos y prácticos que deben abordarse para una implementación efectiva y segura de esta tecnología. Estos desafíos incluyen la precisión y confiabilidad del control de drones a través de BCI, la seguridad cibernética para evitar intrusiones maliciosas y la protección de la privacidad y los derechos humanos de las personas afectadas por el uso de esta tecnología.

En esta entrada de este blog de innovación se presentará la implementación de un sistema para la creación de una interfaz cerebro-computador para el control de un DRON cuatrimotor. El sistema desarrollado muestra las interesantes posibilidades que ofrecen este tipo de interfases para simplificar la operación de dispositivos complejos y el acceso al uso de estos por personas con algún tipo de discapacidad motora. El sistema fue entrenado con diversos comandos y se validó su uso con un DRON de uso académico.

Desarrollo de los sistemas BCI

En la tesis titulada “Desarrollo de una interfaz cerebral utilizando herramientas IoT para el control de dispositivos ON-OFF orientado a personas con capacidades limitadas”, presentada por Luis Alberto Montalván Tandazo y Christian Fernando Quinte Caiza, en julio del año 2021, se aborda el tema del control de dispositivos electrónicos vía ondas cerebrales utilizando la diadema EMOTIV Insight 2.0, donde se le quiere facilitar el estilo de vida a las personas con ciertas limitaciones físicas, y por ende, brindarles comodidad y mejorar su modus vivendi en su día a día.

En ese mismo año, también se llevó a cabo un proyecto muy similar, titulado: “Desarrollo de un sistema BCI basado en redes neuronales y movimientos de la cabeza para el manejo de un ordenador”, el cual lleva por autor a Eddy Fabian Corrales Bastidas, donde se abarca esta idea, la cual se enfoca en el manejo de un ordenador en personas con movimiento reducido en sus extremidades superiores.

Por otro lado, en la tesis titulada “Implementación de un sistema de control para el manipulador Mitsubishi RV-2AJ, mediante ondas cerebrales empleando el sensor EMOTIV Insight”, presentada por Francisco Andrés Gómez Pineda y Stalin Gabriel Yaguana Torres, en julio del año 2018, se discute la problemática sobre la exclusión o limitación de acceso a tecnologías innovadoras de manipulación de robots para personas que no tienen conocimientos de programación de estos dispositivos o que tienen alguna discapacidad motriz. Por tanto, los autores plantean como solución a esta problemática, la implementación de un sistema que permita controlar los movimientos del brazo robótico Mitsubishi RV-2AJ de la marca Festo, utilizando señales cerebrales, mediante la interpretación de señales cerebrales recopiladas por la diadema EEG EMOTIV Insight 1.0, las cuales serán procesadas y analizadas a través de una tarjeta LattePanda, un dispositivo con capacidades de microcomputador y conectividad inalámbrica.

Descripción del Sistema Propuesto

El proyecto consiste en integrar un sistema de electroencefalograma (EEG) junto a un DRON, para que este sea manejado por medio de las ondas cerebrales que los seres humanos generamos cuando pensamos en una acción. Este sistema muestra un alternativa para ayudar al desarrollo de los sistemas BCI junto su interacción con los dispositivos IoT, vehículos aéreos no tripulados y cualquier dispositivo que sirva para facilitar la interacción de los humanos con los medios de transporte por interfaces cerebro–computador.

Por esto, el enfoque principal es emplear la tecnología del dispositivo EEG EMOTIV Insight 2.0 para contribuir a resolver el problema de la complejidad en la operación de drones. Se busca integrar el EMOTIV Insight 2.0 con el sistema de control del dron, estableciendo una conexión confiable y estable para permitir un control más intuitivo y preciso basado en las señales cerebrales del usuario. Debajo se muestra una imágen del EMOTIV Insight 2.0

Para la integración del DRON se eligió el sistema de BITCRAZ, el Crazyflie 2.1. Este es un pequeño DRON de código abierto desarrollado por Bitcraze. Es una versión mejorada y más avanzada de su predecesor, el Crazyflie 2.1 original. A pesar de su diminuto tamaño, el Crazyflie 2.1 está repleto de características y capacidades impresionantes. Este se puede programar utilizando lenguajes como Python y C, lo que brinda una gran flexibilidad para personalizar su comportamiento y desarrollar nuevas funciones. Debajo se muestra una imagen del DRON elegido.

El EMOTIVBCI es el software que permite enviar los datos de las señales tomadas por la diadema, para que así sean procesadas por la BCI y luego ser programadas para que el dispositivo ejecute la acción pensada. Se realizó una interfaz basada en Python para el tratamiento de los comandos de operación clasificados por el EMOTIVBCI y crear la interfaz con el API de control del DRON CrazyFlie 2.1.

Estructura del Sistema y Modo de Funcionamiento

En primera instancia, se conecta el Insight 2.0 mediante Bluetooth 5.0 al computador, luego el sujeto se coloca la diadema, se realiza una calibración de los sensores, de tal modo que la medidas de calidad para el software EMOTIVBCI sean 95% o mayor. Luego, mediante el EMOTIV Launcher, se inicia el software EMOTIVBCI , el cual es el encargado de los entrenamientos de los comandos mentales. Mediante la API de Cortex, se adquieren los datos EEG, utilizando las credenciales otorgadas por EMOTIV. Por otro lado, dentro de la API de Bitcraze, se programan las instrucciones necesarias para que el DRON Crazyflie 2.1 ejecute los comandos recibidos de la manera deseada. Ya teniendo esto listo, para comunicar ambas APIs, y enviar los comandos mentales generados por el Insight 2.0, se implementa un websocket en cada API. Por último, el aplicativo local, registra y muestra los comandos mentales que se están ejecutando en tiempo real por el sujeto, y los va mostrando en el computador. En la siguiente figura se muestra el diagrama en bloques del sistema.

La diadema Insight 2.0 utiliza Bluetooth 5.0 y software EMOTIV para controlarla. Para trabajar con el Cortex SDK y la API de Python, se necesita instalar dependencias. El DRON Crazyflie 2.1 también requiere un controlador y una máquina virtual . Un dongle de radio USB permite la conexión entre el DRON y la computadora, y el accesorio FlowDeck v2 asegura un vuelo estable con su sensor óptico de flujo. Las APIs se conectan a través de un socket IP y puerto. El dispositivo Insight 2.0 promedia comandos cada 0.125 segundos y envía la palabra más repetida. El código maneja la recepción y procesamiento de comandos, envía comandos a través del socket y utiliza hilos para la conexión y procesamiento. La comunicación a través del socket es esencial para la interacción entre el dispositivo Insight 2.0 y el DRON.

Resultados y limitaciones

Las pruebas realizadas mostraron que el sistema logró una precisión global del 85.3%. Para esto fueron realizados 68 ensayos, dando como resultado un total de 10 falsos negativos y 58 sesiones con comando detectados correctamente. Los resultados mostraron que el DRON fue capaz de recibir y ejecutar los comandos mentales enviados y generados por el Insight 2.0, según lo deseado por el usuario, demostrando así el cumplimiento total de los objetivos planteados.

En cuanto al desempeño del sistema, se observó que el tiempo de respuesta del DRON ante un comando mental fue en promedio de doce (12) segundos. Durante las pruebas de vuelo, se observó que el dron es altamente sensible a interferencias y cambios bruscos en el terreno. El Crazyradio 2.0 de Bitcraze opera en la frecuencia de 2,4GHz, compartida por muchos dispositivos de la red de la universidad, lo que provoca pérdida de control y colisiones del dron. Se reemplazaron varias hélices dañadas y se adquirieron repuestos adicionales para prevenir contratiempos.  Al integrar el Insight 2.0 con el Crazyflie 2.1, se notó un retraso de al menos tres segundos entre los comandos mentales y su ejecución debido a múltiples saltos entre APIs y procesamiento, así como la distancia al router.

Resultados Obtenidos

Después del desarrollo preliminar, se llevaron a cabo extensas pruebas y análisis para evaluar la efectividad de los métodos y algoritmos empleados en el análisis de las deficiencias en la caminata de los pacientes. Estos se centraron en la verificación y validación de los resultados obtenidos para garantizar la precisión y confiabilidad del sistema. Además, se realizaron ajustes y optimizaciones para adaptar el sistema a diferentes perfiles de pacientes y condiciones.

Se diseñó una interfaz de usuario para la visualización de datos, que incluía gráficos y tablas para presentar resultados de manera clara. Se realizaron pruebas exhaustivas para validar la precisión y confiabilidad del sistema, ajustando según fuera necesario para mejorar la exactitud del análisis. En la siguiente figura se muestra la interfaz del aplicativo WEB, este permite la configuración de umbrales para los procesos de detección y la visualización de la reportería por paciente. Debajo se muestra una secuencia de imágenes en el que el DRON sigue un comando a partir de la interfaz BCI, trasladándose desde la izquierda hacia la derecha.

Conclusiones

Este trabajo ha demostrado las funcionalidades que ofrecen las interfaz BCI para expandir la integración del control de distintos tipos de dispositivos tanto con aplicaciones civiles como de asistencia médica. Es importante destacar los retos que debieron ser superados para la integración de los distintos esquemas temporales de respuesta del sistema BCI frente a la recepción de comandos por parte de la API del DRON. Todo esto demuestra que es necesario el seguir explorando el desarrollo de estas interfaces BCI para su aprovechamiento en aplicaciones futuras.

Referencias

J. Wolpaw y E. W. Wolpaw, Brain-Computer Interfaces: Principles and Practice. Oxford University Press, 2012.


G. Pfurtscheller, B. Graimann y B. Allison, Brain-computer interfaces: Revolutionizing human-computer interaction. Heidelberg: Springer, 2010.


Millán, J.R., Rupp, R., Müller-Putz, G.R., Murray-Smith, R., Giugliemma, C., Tangermann, M., Vidaurre, C., Cincotti, F., Kübler, A., Leeb, R., Neuper, C., Müller, K.R. (2010). Combining Brain-Computer Interfaces and Assistive Technologies: State-of-the-Art and Challenges. Frontiers in Neuroscience, 4, 161. doi: 10.3389/fnins.2010.00161


Lebedev, M.A., Nicolelis, M.A.L. (2006). Brain-Machine Interfaces: Past, Present, and Future. Trends in Neurosciences, 29(9), 536-546. doi: 10.1016/j.tins.2006.07.004


McFarland, D.J., Wolpaw, J.R. (2011). Brain-Computer Interfaces for Communication and Control. Communications of the ACM, 54(5), 60-66. doi: 10.1145/1941487.1941506

 

 

Sistema para el análisis de la Caminata en procesos de Terapia Física

Albert Jerez y Diana Diplán
Estudiantes Escuela de Ingeniería en Computación y Telemática, Campus Santiago
PUCMM

Ser físicamente funcional

Las lesiones musculoesqueléticas representan una carga considerable para la salud y el bienestar global. Desde atletas de élite hasta individuos con estilos de vida activos, estas lesiones tienen un impacto devastador en la calidad de vida y la funcionalidad. Más allá del dolor físico, las lesiones podrían conducir a discapacidades a largo plazo, limitando la capacidad para trabajar, participar en actividades diarias e incluso disfrutar de recreaciones normales a nivel social.

Ante este desafío identificado y con el apoyo del departamento de Terapia Física de la Pontificia Universidad Católica Madre y Maestra (PUCMM) se busca abordar la necesidad de desarrollar herramientas y tecnologías innovadoras para una evaluación precisa y una intervención temprana en el análisis de la caminata. El objetivo siendo prevenir lesiones, mejorar los resultados del tratamiento y fomentar la salud y calidad de vida de las personas.

En esta entrada de este blog de innovación se presentará la implementación de un sistema para la el análisis de la caminata en procesos de terapia física. El sistema desarrollado cuenta con técnicas de visión computacional que permiten crear toda una reportería que asista al especialista en la evaluación del proceso de caminata de un paciente. El sistema agrega la data de sensores inerciales así como el uso de cámaras para la obtención de los reportes propuestos.

Integración de Tecnología en los procesos de Terapia Física

De acuerdo con F.R. Andrea Ramos, en «La importancia de una valoración en Fisioterapia», una de las áreas más afectadas por las lesiones musculoesqueléticas es la caminata. La capacidad de caminar eficientemente y sin dolor era fundamental para la movilidad y la independencia. Sin embargo, las lesiones en pies, tobillos y piernas alteran significativamente la biomecánica de la marcha, resultando en dolor crónico, discapacidad y una disminución de la calidad de vida. Además, las lesiones relacionadas con la marcha aumentan el riesgo de desarrollar problemas de salud más graves, como osteoartritis y enfermedades cardiovasculares, lo que podría tener consecuencias devastadoras a largo plazo para la salud y el bienestar general.

Sabiendo esto, en el estudio realizado por E. BV. llamado “Evaluación del control postural a través de Microsoft Azure Kinect DK: Un estudio de evaluación”, se compararon las trayectorias de movimiento del Kit Kinect utilizado con un sistema 3D estándar de seguimiento de alta precisión, relacionándolo a una posible solución. Veintiséis sujetos realizaron ejercicios específicos para su evaluación. El Kit Kinect demostró un seguimiento preciso de las articulaciones principales durante movimientos laterales, con un Error Cuadrático Medio (RMSE) de aproximadamente 0.2cm para ejercicios laterales y hacia adelante, y de 0.47cm para equilibrio. El Error Absoluto Medio angular osciló entre 5 y 15 grados para articulaciones superiores, mientras que las inferiores mostraron mayores errores. Se observaron mejores resultados en movimientos lentos. El estudio destaca el potencial del enfoque en base al Kit Kinect para la rehabilitación en el hogar, especialmente en la evaluación del control postural.

Otro bajo que busca analizar el proceso de movimiento del cuerpo humano es el presentado por  Y. Wang, S. Liu. Y S. Zhang. En el mismo se propone un algoritmo eficiente de reconocimiento de gestos manuales (HGR) para aplicaciones de interfaz humano-máquina (HMI) basados en el sensor BNO055. Utilizando datos de este sensor y considera su naturaleza temporal, lo que mejora el rendimiento de reconocimiento. La técnica de transformadas discretas de ondículas (DTW) es aplicada, mostrando que ofrece buenos resultados, pero su complejidad dificulta el aprendizaje en tiempo real. El algoritmo que implementaron el HGR, se basa en una red neuronal de energía de columna restringida (RCE) con un esquema de aprendizaje simple. Al reemplazar la métrica de la RCE con la distancia DTW mejora el reconocimiento de gestos con datos temporales y admite el aprendizaje en tiempo real. En pruebas con una FPGA, alcanzaron una precisión del 98.6% y soportaron operaciones en tiempo real a 150 MHz, lo que son resultados prometedores en el contexto del desarrollo del sistema.

Estos trabajos ponen el relieve dos puntos importantes: la importancia de la analítica del movimiento humano y la dificultad en procesar este tipo de datos. Por lo que el presente trabajo es un aporte importante en el desarrollo de este tipo de sistemas y en el estudio de diversas metodologías que puedan apoyar en el desarrollo de los procesos de fisioterapia.

Solución Propuesta

La solución propuesta para el análisis de la marcha en terapia física implicó el uso de tecnología de seguimiento de movimiento y un software de análisis de datos. Mediante el empleo de microcontroladores como el ESP32 (Lolin32) y un acelerómetro BNO055, colocados en diversas partes del cuerpo del paciente se busca poder medir el movimiento y la posición tridimensional durante la el proceso de caminata (marcha). El software de análisis procesó y visualiza los datos recopilados para mostrar patrones de movimiento precisos y objetivos durante la caminata. Esto buscando proporcionar a los fisioterapeutas una evaluación detallada y objetiva de la marcha de cada paciente, permitiéndoles diseñar un tratamiento personalizado y efectivo. En la siguiente figura se muestra el diagrama en bloque para la integración de todos los elementos a ser utilizados en el sistema propuesto.

Para la parte de visión computacional, se desarrolló un sistema automático de análisis de la marcha utilizando la librería MediaPipe. Esta herramienta permitiría una evaluación más eficiente y precisa de la marcha de los pacientes en terapia física. Al automatizar este proceso, se busca reducir el tiempo necesario para la evaluación inicial y mejorar la precisión de los diagnósticos, lo que a su vez conduciría a tratamientos más efectivos y una recuperación más rápida y completa para los pacientes en fisioterapia. En última instancia, se espera que este proyecto contribuya significativamente al bienestar y la calidad de vida de los pacientes en rehabilitación.

MediaPipe es una biblioteca de código abierto desarrollada por Google, especializada en análisis y procesamiento de datos de visión por computadora, ofreciendo seguimiento de movimientos y detección de objetos en tiempo real, así como mediciones precisas de velocidad, longitud del paso, cadencia y equilibrio durante la caminata. Luego de implementada, esta librería permitió capturar imágenes precisas y detalladas del movimiento del paciente durante la marcha, con la capacidad de capturar imágenes en 3D utilizando sensores de profundidad avanzados. En la siguiente imágen se aprecia la capacidad de MediaPipe de capturar puntos específicos del cuerpo, en este caso los hombros.

Metodología

El desarrollo del sistema de análisis de deficiencias en la marcha se llevó a cabo mediante un enfoque metodológico que abarcó desde la configuración inicial hasta la implementación práctica. Se inició con la configuración de los componentes hardware y la instalación del software de análisis de datos, seguido de pruebas preliminares para calibrar los sensores y ajustar su sensibilidad y precisión. El desarrollo del software implicó la configuración de algoritmos de seguimiento de movimiento y la visualización de datos en tiempo real. Esta metodología queda esquematizada en la siguiente imagen.

Se integraron  un total de tres cámaras de alta resolución para capturar imágenes en 3D del movimiento del paciente, estableciendo protocolos para la sincronización y captura de datos en tiempo real. Adicionalmente, se hizo uso de unos guantes para integrar los sensores del tipo acelerómetro seleccionados junto con el microcontrolador. Esto permitió obtener la medición de la aceleración en las cuatros extremidades del paciente, lo que brinda posibilidad de aplicar técnicas de análisis basadas en fusión de datos de distinta naturaleza. En la figura siguiente se muestra el sensor utilizado para la creación de este sistema de captura.

Resultados Obtenidos

Después del desarrollo preliminar, se llevaron a cabo extensas pruebas y análisis para evaluar la efectividad de los métodos y algoritmos empleados en el análisis de las deficiencias en la caminata de los pacientes. Estos se centraron en la verificación y validación de los resultados obtenidos para garantizar la precisión y confiabilidad del sistema. Además, se realizaron ajustes y optimizaciones para adaptar el sistema a diferentes perfiles de pacientes y condiciones.

Se diseñó una interfaz de usuario para la visualización de datos, que incluía gráficos y tablas para presentar resultados de manera clara. Se realizaron pruebas exhaustivas para validar la precisión y confiabilidad del sistema, ajustando según fuera necesario para mejorar la exactitud del análisis. En la siguiente figura se muestra la interfaz del aplicativo WEB, este permite la configuración de umbrales para los procesos de detección y la visualización de la reportería por paciente. 

Se llevaron a cabo pruebas simuladas y estudios con pacientes reales, bajo la supervisión de profesionales de la salud. Los resultados obtenidos fueron analizados y comparados con evaluaciones manuales realizadas por fisioterapeutas experimentados, demostrando la capacidad del sistema para detectar y cuantificar deficiencias específicas en la marcha. Debajo se muestra un ejemplo de una gráfica de captura de movimiento.

El sistema fue configurado para detectar las siguientes anomalía:

  • Inclinación excesiva de hombros
  • Declive de los codos
  • Diferencia de alineación entre las muñecas
  • Diferencia de alineación entre las rodillas
  • Desalineación en la cadera
  • Separación anormal de rodillas
  • Inclinación de la columna

Conclusiones

El sistema ofrece varias ventajas clínicas, incluida su capacidad para detectar patrones anómalos en la marcha de los pacientes y su potencial en la monitorización continua en entornos clínicos. Además, su adaptabilidad y facilidad de uso lo hacen una herramienta prometedora para la evaluación y el seguimiento de pacientes en rehabilitación. Las perspectivas futuras incluyen la aplicación del sistema en investigaciones adicionales para mejorar aún más su precisión y funcionalidad, así como su integración en entornos clínicos para mejorar la calidad de vida y el bienestar de los pacientes con deficiencias de movimiento.

La adaptabilidad del sistema, su capacidad para detectar patrones anómalos y su potencial en la monitorización continua de pacientes en entornos clínicos, junto con su aplicabilidad en investigaciones futuras, destacan como aspectos prometedores para su utilización.

Referencias

Antico, M., Balletti, N., Laudato, G., Lazich, A., Notarantonio, M., Oliveto, R., Ricciardi, S., Scalabrino, S., & Simeone, J. (2021). Postural Control Assessment via Microsoft Azure Kinect DK: An evaluation study. Computer Methods and Programs in Biomedicine, 209, 106324. https://doi.org/10.1016/j.cmpb.2021.106324

 

 

Sistema de Monitoreo Industrial de Temperatura (SMIT)

Starlyn Peña
Estudiantes Escuela de Ingeniería en Computación y Telemática, Campus Santiago
PUCMM

Desastres en Tiempos de Pandemia: Origen de SMIT

A finales del año 2019 se identificó un nuevo virus en Wuhan, China, marcando un acontecimiento sin precedentes en la historia moderna humana. La subsiguiente pandemia, conocida como Covid-19, mantuvo al mundo en vilo durante casi dos años y, aún en la actualidad, se siguen tomando medidas preventivas para frenar su propagación en ambientes laborales. Esto ha llevado a que muchas empresas tengan protocolos establecidos para detectar síntomas de enfermedades contagiosas entre sus empleados que puedan afectar tanto la salud del personal como la productividad de la empresas. Debido a su alto grado de contagio el Covid-19 marcó un hito importante en el establecimiento de estos protocolos sanitarios, pero enfermedades como el dengue, la gripe estacional u otras infecciones pueden de igual manera presentar un impacto importante para el personal de una empresa.

Estas enfermedades comparten un síntoma común: la posibilidad de presentar fiebre. La fiebre queda definida como el síntoma que se produce cuando la temperatura corporal supera los 38 °C. Esto abre la posibilidad de aplicar  diversas técnicas y tecnologías para tomar las medidas preventivas adecuadas en caso de que una persona posea síntomas febriles y sea portadora de alguna enfermedad contagiosa. Sin embargo, algunas de estos métodos no son muy precisos en el resultado. Por lo tanto, aunque el COVID19 actualmente no nos azote tan de lleno, es necesario en el entorno industrial un método eficiente para cuando se necesita obtener la temperatura de los trabajadores, contribuyendo a la seguridad y salud generales. Debido a esto, se desarrolla SMIT, nuestro tema de discusión en el presente artículo.

En esta entrada de este blog de innovación se presentará la implementación de un sistema para la detección de síntomas febriles mediante el uso de visión computacional y algoritmos de aprendizaje de máquina. El sistema desarrollado cuenta con los aplicativos administrativos necesarios para la identificación de los empleados y el manejo de notificaciones de detección. Adicionalmente, se considera el uso de un sistema de calibración interno de referencia para aumentar la precisión del sistema propuesto.

Marco conceptual: Detección de Síntomas Febriles en entornos industriales

En su artículo (H. D. Septama, M. Komarudin, A. Yudamson, T. Yulianti, M. Pratama and T. P. Zuhelmi, 2021), señala el hecho de que múltiples lugares utilizan personal equipado con pistolas termómetro para medir la temperatura corporal de los visitantes, pese a que esta práctica tiene inconvenientes, ya que implica contacto cercano entre el personal y los visitantes, lo que puede propiciar la propagación del virus. Como solución presenta un sistema de bajo costo para la medición rápida de la temperatura corporal sin contacto, utilizando una cámara térmica integrada con una barrera. Por lo tanto, no se necesita personal para medir la temperatura corporal, ya que los visitantes pueden verificarla de manera independiente, teniendo una precisión en la temperatura del personal de un 98.75%.

En adición, en el artículo de (S. D. Khirade and A. B. Patil, 2015) se discute el hecho de que el procesamiento de imágenes se emplea en la detección de enfermedades en plantas, abarcando pasos como la adquisición de imágenes, preprocesamiento de imágenes, segmentación de imágenes, extracción de características y clasificación. Se exploran los métodos utilizados para detectar enfermedades en plantas mediante imágenes de sus hojas. Además, en nuestro provecho, se profundiza en algunos algoritmos de segmentación y extracción de características.

Siguiendo la misma línea de procesamiento, en el escrito de los autores (Ragavesh Dhandapani1 y Sara Marhoon Humaid Al-Ghafri, 2022) se utiliza un sistema de detección de objetos basado en visión por computadora para reconocer mascarillas faciales y autenticar certificados de vacunación en tiempo real a través de un kit Jetson Xavier. El proceso comprende la captura de video en tiempo real y su posterior procesamiento, que implica la detección facial mediante un clasificador Haar-Cascade y la codificación facial. Luego, se emplea un modelo de aprendizaje profundo pre-entrenado para ubicar la clase objetivo (mascarilla) en el fotograma.

Todos estos trabajos resaltan la oportunidad de mejora en los sistemas de monitoreo de temperatura si se integran tecnologías referentes a procesamiento en el borde, reconocimiento facial, seguimiento de objetos y técnicas estadísticas para robustecer la medición de los sistemas de medición de temperatura sin contacto.

Descripción del Sistema Propuesto

A partir del diagrama mostrado se evidencia la integración de los distintos componentes que brindan el acercamiento basado en computación en el borde para el sistema propuesto. Siendo el corazón del sistema el sistema de procesamiento Jetson AGX Xavier. Este dispositivo en un dispositivo heterogéneo de procesamiento que incluye procesadores de la familia ARM junto con un núcleo de procesamiento gráfico de propósito general (GPGPU, por sus siglas en inglés) pensado para acelerar la ejecución de algoritmos de aprendizaje de máquina y procesos de visión computacional. Adicionalmente, una cámara termográfica de alta precisión Hikvision DS-2TD2617-10/QA

La Implementación de técnicas de procesamiento de imágenes constituye un paso crucial en la operación del sistema. Utilizando técnicas avanzadas como segmentación e identificación, se busca extraer información pertinente al separar las áreas de interés de las no deseadas. Como se puede ver en la imagen, la computadora en el borde elegida presenta un tamaño reducido y su consumo de potencia (menos de 65W) hace que sea idónea para este tipo de aplicaciones. Cuenta con una capacidad teórica máxima de procesamiento de 11 TFLOPS.

En el procesamiento de imágenes, se capturan los frames de la cámara IP termográfica y se procesan para adaptar los algoritmos. Se convierten del espacio de color BGR al RGB y se implementa un algoritmo de detección de rostros. Se obtienen los puntos de referencia, como la ubicación de los ojos y la boca, y se escala la resolución de los videos para ajustarlos. Luego, se localiza el rostro detectado en el STREAM de la cámara termográfica para inicializar el algoritmo de seguimiento y se estiman las temperaturas corporales utilizando un Black Body Calibrator (BBC) y la intensidad del píxel correspondiente al punto identificado del canal lagrimal del ojo. En la figura siguiente se muestra la metodología propuesta para el SMIT.

En cuanto al sensor de temperatura, se utiliza un sensor del tipo resistivo para la medición de la temperatura (RTD) con un amplificador MAX31865 y un ESP32. La RTD se conecta al MAX38165 según las especificaciones del fabricante y se establece la comunicación entre el sensor y la ESP32 mediante el protocolo SPI. Luego, se programa la comunicación utilizando una librería proporcionada por el fabricante.

Resultados Obtenidos

La Implementación de Técnicas de Procesamiento constituye un paso crucial en la operación del sistema. Utilizando técnicas avanzadas como segmentación e identificación, se busca extraer información pertinente al separar las áreas de interés de las no deseadas. El poder detectar marcadores fiduciarios es un punto clave para este proyecto, porque permite identificar las regiones en donde es necesario evaluar la intensidad de los pixeles y compararlo con el punto de referencia provisto por el BBC. En la siguiente imagen se muestra la capacidad del algoritmo, al ser ejecutado en la Jetson AGX Xavier, de detectar un rostro y construir la malla de referencia con los marcadores fiduciarios.

La Aplicación de Monitoreo (Web) representa la interfaz donde la información procesada cobra relevancia práctica. Al recibir y analizar la información, esta aplicación determina si una persona supera la temperatura establecida. En caso afirmativo, emite notificaciones al personal de seguridad, permitiendo la implementación de medidas adecuadas. La misma fue desarrollada bajo el framework minimalista Flask en PYTHON, lo que permite que la ejecución del aplicativo también quede en el mismo equipo para computación en el borde.

Una funcionalidad que fue agregada al sistema es la capacidad de asociar un ID de empleado a un rostro. Adicionalmente, se detecta un estado de ERROR en caso de que el empleado no pueda ser identificado por llevar una mascarilla o en caso de que lleve gafas oscuras. Es importante recalcar que este sistema está pensado para ser utilizado en un ambiente post pandemia, por lo que se puede aplicar el sistema en zonas donde los empleados deban bajar sus mascarillas antes de cruzar, creando la relación ID de empleado con temperatura.

Esta plataforma WEB implementa un sistema de login para acceder al sistema y permite visualizar información relevante como el monitoreo del personal, el estado del sistema y reportes de datos. Se pueden configurar límites de temperatura, escala de visualización, cantidad máxima de rostros detectados, entre otros parámetros. También se pueden crear, modificar y eliminar empleados y usuarios según los permisos correspondientes.

Conclusiones

El sistema exhibe un buen desempeño durante la noche o en entornos con iluminación reducida, donde aun con ausencia de luz de fondo el algoritmo de detección facial logra funcionar adecuadamente. Además, se destaca por su excepcional precisión, con un margen de error mínimo de tan solo 0.5 °C, una cifra notablemente inferior en comparación con otros sistemas. Es crucial destacar la importancia de considerar cuidadosamente el entorno de aplicación en donde sea instalado el sistema, especialmente en ambientes donde la iluminación pueda saturar la imagen, ya que este factor puede influir significativamente en los resultados.

Este sistema SMIT emerge como un proyecto innovador, preciso, fácil de utilizar y seguro. Su desarrollo responde a la necesidad crítica de monitorear la salud en entornos industriales, ofreciendo una herramienta eficaz y de utilidad.

Referencias

 M. K. A. Y. T. Y. M. P. T. Z. H. Septama, «Low Cost Non-Contact Rapid Body Temperature Screening using Thermal Camera for Early Detection of Covid-19 Suspect,» Bandung, 2021.

Gelir, «Image processing for quantitative measurement of e/m in the undergraduate laboratory,» 2019. NVIDIA, «NVIDIA,» 25 Marzo 2019. [En línea]. Available: https://www.nvidia.com/enus/autonomous-machines/embedded-systems/jetson-agx-xavier. [Último acceso: 22 Noviembre 2022].

Alonso, V., Dacal-Nieto, A., Barreto, L., Amaral, A., & Rivero, E. (2019). Industry 4.0 implications in machine vision metrology: An overview. Procedia Manufacturing, 41, 359–366. https://doi.org/10.1016/j.promfg.2019.09.020

Sharma, K. Shanmugasundaram and S. K. Ramasamy, «FAREC — CNN based efficient face recognition technique using Dlib,» 2016 International Conference on Advanced Communication Control and Computing Technologies (ICACCCT), Ramanathapuram, India, 2016, pp. 192-195, doi: 10.1109/ICACCCT.2016.7831628.

 

Aplicación de Sistemas de Visión Computacional en la Gestión de Inventarios de Almacenes

Doris Nuñez y Alberto Guaba
Estudiantes Escuela de Ingeniería en Computación y Telemática, Campus Santiago
PUCMM

La Industria 4.0 y la gestión de inventarios

Todas las compañías que se dedican a la fabricación de productos en general sean PYMES o grandes empresas se encontrarán en algún momento con el problema de poder gestionar sus necesidades de almacenamiento de materia prima y producto terminado. Por lo que es una necesidad el optimizar sus procesos de gestión de inventario de forma que sean más eficiente y se puedan implementar controles más efectivos. Esta realidad es aún más notoria con la transición hacia el modelo de la Industria 4.0, donde la implementación de sistemas conectados y la disponibilidad de información en línea crean nuevos requerimientos importantes en una gestión eficiente y rápida de los inventarios de materia prima que son críticos para la producción.

De esta manera, la llegada de la Industria 4.0 ha generado una nueva serie de cambios en todos los procesos industriales entre ellos nuevos sistemas de control de inventario que podrían dar una solución a dicho problema. Sin embargo, es importante notar que aún no hay una adopción masiva de estas nuevas ventajas tecnológicas, explicado esto por las limitantes económicas o técnicas que suelen presentarse para realizar este tipo de implementación. Por lo que es necesario el seguir proponiendo y desarrollando soluciones de este tipo que logren eliminar estas limitantes.

En esta entrada de este blog de innovación se presentará el impacto de los los sistemas de visión computacional para la gestión de almacenes y su inventario. La visión computacional, es un conjunto de técnicas y metodologías desarrolladas con el fin de adquirir, procesar y analizar imágenes del entorno con el objetivo de obtener información con la ayuda de un sensor, que puede ser una o varias cámaras. La implementación de estos sistemas presenta una solución capaz de reducir la carga de trabajo de un almacén significativamente, como se expondrá en el resto de esta publicación, logrando que los empleados pueden ser más eficientes y las empresas cumplan de mejor manera con sus objetivos.

Procesos de Automatización de Inventario: Su importancia para la Industria 4.0

Con el avance y surgimiento de nuevas tecnologías éstas han quedado cada vez más integrada dentro de los procesos productivos. Esto ha creado una conexión entre los dispositivos y sistemas digitales con los sistemas físicos, surgiendo lo que se conoce como Industria 4.0. En este nuevo paradigma se integran etapas de diseño y planificación del producto, así como el suministro y producción, junto a procesos de tecnologías de la información. Esto afecta la forma en la que los productos se diseñan, fabrican y, posteriormente, almacenan y distribuyen.

La Industria 4.0 ha promovido procesos de cambio en las diferentes operaciones que involucran al sector industrial. Teniendo como consecuencia una mayor velocidad de producción, aumento en la cantidad de los productos y reducción de costos en general. Sin embargo, una parte fundamental para que esto sea posible es el manejo de los inventarios de almacenes, en especial de materia prima, los que representan una parte importante de la infraestructura de la cadena de producción. El llevar un inventario automatizado de los almacenes puede presentar una ventaja competitiva importante. Este proceso consiste en crear y actualizar en tiempo real los volúmenes de inventario permitiendo tener una gestión en línea, resultando en una optimización de los procesos relacionados con la gestión del inventario.

Adicionalmente, con el desarrollo de los sistemas de gestión de almacenes inteligentes en la Industria 4.0, se consigue una selección y colocación óptima de materia primas o productos terminados. Esto implica el utilizar algoritmos que, en base a distintos tipos de sensores,  puedan monitorear la capacidad de almacenamiento de zonas específicas, asignar dinámicamente ubicaciones disponibles, seguimiento en línea de los niveles de inventario y detección rápida de entrada/salidas de materia prima o productos terminados. Estas tecnologías hacen posible la creación de los almacenes inteligentes obteniendo un proceso eficiente, con mínima cantidad de errores, reducción de retrasos y corrigiendo muchos de los inconvenientes que ocurren en la gestión del inventario.

Soluciones de Visión Computacional para la Gestión de Inventario

En el artículo de (Alonso, Dacal-Nierto, Barreto, Amaral, & Rivero, 2022) se mencionan varias propuestas utilizando visión computacional las que están integradas junto a la filosofía de la Industria 4.0. Los autores mencionan como la visión computacional es un elemento clave de la transición hacia este nuevo paradigma,  el contar con sensores visuales alrededor del almacén coleccionando y procesando automáticamente datos relacionados al estado de la materia prima o de los productos  podría facilitar el proceso de gestión de inventario y toma de decisiones de manera significativa.

Los autores (Vukićević, Mladineo, Banduka, & Mačužić, 2022) muestran cómo se llega a implementar una solución a los problemas de gestión enfocado a la Industria 4.0 usando visión computacional con IoT. La técnica utilizada por los autores está divida en 4 módulos: adquisición de imágenes, detección de códigos QR, interfaz de usuario y reporte. La adquisición de imágenes se lleva a cabo con un arreglo de cámaras IP instaladas por todo el techo del almacén. Se tiene una central tecnológica donde está el computador servidor que está corriendo la aplicación de usuario donde se procesa todas las imágenes de la cámara usando librerías de Python para el manejo de datos de imágenes como OpenCV y otras librerías de procesamiento de códigos QR. A su vez, en dicho programa, se encuentra la opción de generar reportes sobre las capturas. En este reporte se detalla la lista de inventario que contiene todos los productos, las órdenes completadas y no completadas entre otras necesidades que se necesite reportar en la empresa.

Por otro lado, en el artículo de (Niksa Mohammadi Bagheri, 2022) se habla de la problemática del proceso de identificación de los bolígrafos enfocándose en el color de estos. En su artículo detallan que enfocaron la solución a su problema usando las ventajas de la visión computacional para ayudar a detectar los patrones de colores en los bolígrafos. Para esto su propuesta fue el desarrollo de una estructura donde se pondría una cámara especializada que estaría apuntando hacia un recipiente donde se pondrían los bolígrafos. En este artículo se aprovecha las capacidades de la visión computacional para desarrollar un sistema un sistema que sea muy preciso y funcione en diferentes condiciones de luz para la identificación de bolígrafos.

De igual manera como se puede ver en el artículo de (Jianyu Lin, 2022) se puede implementar el uso de la visión computacional en las industrias de las automóviles para las piezas de estos mismos. En este artículo se detalla que se emplean generalmente cadenas de suspensión rígida para el almacenamiento de las piezas. La propuesta en este artículo es adaptar el reconocimiento de visión computacional con la cadena de suspensión. Esto permite un monitoreo en línea del nivel de inventario de piezas, resultando en una reducción del costo de gestión del inventario.

En el artículo de (Ashwary Anand, 2022), proponen una idea simple de manejo de inventario simplemente usando drones que vuelen por el almacén y escanean los códigos QR de las cajas. Ellos detallan que su proyecto está enfocado al uso de drones monoculares de bajo costo los cuales tienen equipado una cámara para realizar las tareas de gestión de almacén mediante el escaneo de los códigos. En su artículo detallan que los algoritmos de visión computacional tienen un papel crucial para la navegación del dron debido a que esto permite una localización de las cajas dentro del almacén más precisa.

Implementación de un sistema de Visión Computacional para la Gestión de un Almacén de Materia Prima en PUCMM: Una solución para la Industria 4.0

La automatización en la gestión de inventarios representa una serie de beneficios para las industrias que van desde la reducción de costos hasta la minimización de retrasos y errores, haciendo esto muy beneficioso para cualquier empresa. Si bien existen algunas implementaciones utilizando visión computacional para la gestión de inventario, estas consisten en su mayoría en sistemas estáticos, en ocasiones utilizando muchas cámaras, sin embargo, una alternativa menos costosa e igual de eficiente es utilizar un riel móvil que utilice una sola cámara para capturar todo el contenido del almacén.

Este nuevo acercamiento ha servido como idea de partida para la elaboración en la Pontificia Universidad Católica Madre y Maestra de un proyecto final de grado enfocado en la aplicación de técnicas de visión computacional para un sistema de control de inventario en almacenes de materia prima. En República Dominicana las industrias del tipo secundario que transforman la materia prima son de vital importancia, por lo que el manejo de los inventarios en los almacenes de materia prima es un crítico para su operación. De este modo, este proyecto busca aplicar este sistema simplificado de inspección de inventario mediante el uso de una cámara con capacidad de desplazamiento en un riel horizontal.

Esta implementación permitirá mantener un control en tiempo real del inventario con una mínima cantidad de cámaras y un sistema con un funcionamiento mecánico sencillo. Se realizará un sistema de administración apoyado en las técnicas de visión computacional para la identificación de los distintos productos a partir de códigos QR y el análisis de imágenes para el procesamiento de la captura de información según ocurra el desplazamiento de la cámara a través del riel. Logrando un sistema eficiente y robusto para la gestión de inventarios de almacenes de materia prima en tiempo real.

Referencias

Alonso, V., Dacal-Nieto, A., Barreto, L., Amaral, A., & Rivero, E. (2019). Industry 4.0 implications in machine vision metrology: An overview. Procedia Manufacturing, 41, 359–366. https://doi.org/10.1016/j.promfg.2019.09.020

Anand, A., Agrawal, S., Agrawal, S., Chandra, A., & Deshmukh, K. (2019). Grid-based localization stack for inspection drones towards automation of large scale warehouse systems. arXiv preprint arXiv:1906.01299. https://arxiv.org/abs/1906.01299

van Geest, M., Tekinerdogan, B., & Catal, C. (2021). Design of a reference architecture for developing smart warehouses in industry 4.0. Computers in industry, 124, 103343.
https://doi.org/10.1016/j.compind.2020.103343

van de Venn, H. W., & Mosaddegh, P. (2020). Development of Machine Vision System for Pen Parts Identification under Various Illumination Conditions in an Industry 4.0 Environment. 10.20944/preprints202004.0387.v1 

Lin, J., Yu, J., Pan, L., Chen, Z., Chen, Y., & Chen, Z. (2020). Design of Image Recognition System for rigid suspension chain inventory management. Journal of Physics: Conference Series, 1631, 012179. https://doi.org/10.1088/1742-6596/1631/1/012179

Vukićević, A., Mladineo, M., Banduka, N., & Mačužić, I. (2021). A smart Warehouse 4.0 approach for the pallet management using machine vision and Internet of Things (IoT): A real industrial case study. Advances in Production Engineering & Management16(3).
https://doi.org/10.14743/apem2021.3.401