Sistema de apuestas de gallos descentralizado

Figura ilustrativa relacionada al tema.

Dominigel Rodriguez Peña

Pontifica Universidad Católica Madre y Maestra, PUCMM

Introducción

Las peleas de gallos consisten en un combate entre dos gallos de un mismo género, las cuales se realizan dentro de una gallera o coliseo. (Pelea de Gallos) Las apuestas de gallos son una actividad popular en muchas partes del mundo. A pesar ser consideradas ilegales en ciertos países, en la República Dominicana las apuestas de gallos son una actividad legal y regulada por el gobierno. (Decreto N.º 250-99. Decreto que aprueba El Reglamento de la Comisión Nacional de Lidias de Gallos. 1999).

Mas allá de esto, las peleas de gallos en la República Dominicana son un evento tradicional, en donde se suelen atraer a muchos espectadores y a menudo se realizan apuestas sobre el resultado de la pelea. Aunque es una práctica arraigada culturalmente y considerada un deporte en el país, existe una falta de mecanismos que formalicen este deporte, estancando su expansión y posible internacionalización de juegos dominicanos, lo que, a la larga, podría favorecer a la economía dominicana.

Es crucial abordar estas deficiencias para mejorar la credibilidad de las apuestas, lo que impacta directamente a los participantes y a la sociedad en general al promover apuestas más justas y seguras.

Contexto

En las peleas de gallos se tiene una gran informalidad, en estas ha habido históricamente una falta de transparencia, confianza y seguridad para los participantes quedando esta última en base a la palabra de cada individuo como coloquialmente se llama “palabra de gallero”. Estos problemas se derivan de la ausencia de mecanismos que garanticen la equidad e integridad de las apuestas.

El sistema de apuestas de gallos en República Dominicana tiene distintas formas. Una de ellas consiste en tener un intermediario llamado “juez de malla”, el cual recibe todas las apuestas apostadas por ambas partes (en este caso, un jugador A y un jugador B) que deseen apostar en contrariedad para posteriormente entregarle los fondos al ganador y actuando como testigo de la promesa realizada.

El sistema tradicional genera 70 mil millones de pesos dominicanos anualmente entre todas las bancas de apuestas, esto sin contar lo generado por las galleras siendo parte importante de los 100 millones de pesos que se mueven diariamente en los juegos de azar en República Dominicana. (Diario, Bancas de Apuestas Tienen Ganancias de RD$70 mil mm Al Año 2015) (El Nacional, Juegos Azar rd mueven $100 Millones Diarios 2013)

Proyectos Relacionados

El mercado de los juegos de azar en internet y con la integración con criptomonedas ha permitido mover más de 50 billones solo en la plataforma de Stake.com, siendo un sitio de apuestas en línea. (Danckert, The secret australian origins of the world’s biggest crypto casino 2021).

En el artículo presentado en la conferencia International Conference on Blockchain Applications «Smart Contracts for Sports Betting: A Decentralized Approach» por M. Chen, S. Shen, y Z. Guo (2017), se propone un sistema de apuestas deportivas descentralizado basado en contratos inteligentes. Los autores describen cómo los contratos inteligentes pueden ser utilizados para automatizar el proceso de apuestas, eliminar la necesidad de intermediarios y garantizar la transparencia de las transacciones. El artículo también analiza los desafíos técnicos y legales asociados con la implementación de este tipo de sistema.

En el informe «Decentralized Gambling: A Survey of Blockchain-Based Applications» por A. Narayanan (2017), publicado por el Centro de Estudios Monetarios Internacionales, se proporciona una descripción general de las aplicaciones de blockchain para el juego descentralizado. El autor analiza diferentes tipos de aplicaciones, incluyendo plataformas de apuestas, juegos de azar y loterías. El informe también identifica los principales desafíos y oportunidades asociados con la descentralización del juego, y concluye que la tecnología blockchain tiene el potencial de revolucionar esta industria.

Solución Propuesta

Por esta razón, se desarrolló una aplicación que determina mediante visión computacional si el usuario ejecuta de manera ópt

Como solución a dicho problema, se propone la creación de una plataforma que permita gestionar el proceso de creación y finalización de peleas de gallos, permitiendo la apuesta de los participantes en cada pelea y la visualización de estas en vivo. Todo esto utilizando contratos inteligentes que sirven como reglas automáticas que se activaran cuando una de las reglas fijadas entre una de las dos partes realice alguna acción.

La adopción de tecnología emergente como el uso de criptomonedas representa una oportunidad para innovar en este campo, atrayendo nuevos participantes y modernizando esta práctica tradicional. En conclusión, se busca lograr atraer nuevos participantes y el crecimiento del mercado local, buscando nuevas personas que se integren sin necesidad de ir de forma presencial a la gallera.

Metodología

Para facilitar la lógica dentro de la plataforma web, se va a implementar cadena de bloques o “blockchain”. Este es un libro de contabilidad que permite el registro de transacciones, seguimiento y creación de reglas que se ejecutan de forma automática.  Mas específicamente dentro de este término, los contratos inteligentes se deben de ver como un conjunto de reglas definidas que están almacenadas en una cadena de bloques, se ejecutan cuando se cumplen las condiciones definidas, y que no son modificables y son autónomos. Estas condiciones se establecen utilizando una cadena de bloques o blockchain, la cual nos permite distribuir nuestro contrato a través de la red, asegurando que no se pueda modificar.

Resultados Obtenidos

Se realizó un desarrollo de un cliente web, basado en el tipo de implementación web SPA utilizando Vue3.js. Para el desarrollo de los contratos inteligentes, como se puede observar en la figura 19, se desarrollaron basándose RoostApp 49 en el patrón de diseño Factory. Este patrón nos permite generar otros contratos a partir de un contrato existente.

De esta manera se llego a obtener una aplicación móvil totalmente funcional, preparada para registrar galleras, registrar jugadas, ser transparente en la repartición de beneficios y segura e intuitiva.

Además, se entiende que se cuenta con una interfaz cómoda e intuitiva para nuevos usuarios como para veteranos y con una recopilación de datos fiable y eficiente para el análisis temporal como para posterior evaluación.

Conclusiones

Esto culminó en el desarrollo e implementación de una aplicación web funcional que permitía transacciones para múltiples usuarios y el uso eficiente de contratos inteligentes.

Se encontraron algunos desafíos inesperados, como el uso excesivo de gas para las transacciones, lo que nos llevó a optimizar los contratos para reducir costos operativos.

Una limitación importante fue la negativa de algunas de las plataformas que tienen los derechos de la mayoría de los coliseos en el país, a transmitir sus peleas en la plataforma. La colaboración con ellos sería crucial para la viabilidad económica del proyecto, ya que las galleras tradicionales carecen de la infraestructura necesaria.

Recomendaciones

Para mejorar la viabilidad y desarrollo de la aplicación, se recomienda integrar mejoras no contempladas inicialmente, como el uso de stablecoins para evitar la volatilidad del Ether y proteger las ganancias de los usuarios. Además, sería beneficioso montar un nodo de Ethereum propio para no depender de servicios de terceros, y utilizar herramientas como Truffle o Hardhat para el desarrollo, pruebas y despliegue de contratos inteligentes, lo que aumentaría la velocidad y eficiencia del desarrollo. Finalmente, se sugiere explorar nuevas formas de colaboración con GalleroSoy o entidades similares para asegurar la viabilidad económica y la disponibilidad de contenido relevante para la plataforma.

Referencias

 

  • Material design (no date) Material Design. Available at: https://m3.material.io (Accessed: 29 November 2023).

 

 

Dispositivo asistencial orientado a personas con discapacidades visuales implementando visión computacional

Andrés Mauricio Estrella Espejo y John Harold Peña Acosta

Pontifica Universidad Católica Madre y Maestra, PUCMM

Introducción

Los sentidos corporales son nuestros interpretadores del mundo que nos rodea. Los seres humanos tenemos cinco sentidos: la vista, el gusto, el olfato, el oído y el tacto que percibimos a través de ojos, lengua, nariz, oídos y piel, respectivamente. Según los investigadores Dr. L.D. Rosenblum y el Dr. Harold Stolovitch, La cantidad de información que cada uno de nuestros sentidos procesa al mismo tiempo en comparación con nuestros otros sentidos es la siguiente; 83% Vista, 11% Oído, 3.5% Olfato, 1.5% Tacto y 1% Gusto. Esto nos permite inferir que las personas con discapacidad visual son más propensas a tener dificultades para la percepción de información y además tienden a tener mayor dificultad en su vida cotidiana.

Por esto y otras razones, este proyecto se limitará a brindar solución a las problemáticas de identificación de dinero e identificación de obstáculos.

Contexto

En la República Dominicana (2014) se estima que “hay unas 33 mil personas, en edades comprendidas entre los 18 y 65 años, totalmente ciegas de ambos ojos, quienes representan el 0.34% de la población” (ver referencia 3, sección de referencias). Muchas de estas personas se enfrentan a diario a los retos identificados anteriormente.

Proyectos Relacionados

Para la solución de la problemática planteada, Robert K. Katzschmann desarrolló su propio sistema de equipos electrónicos denominado ALVU (Array of Lidars and Vibrotactile Units). Su dispositivo consta de 2 cinturones, uno con motores vibratorios que brindan retroalimentación y otro compuesto por un conjunto de 7 sensores LIDAR apuntando en todas direcciones.

Este producto también contiene un conjunto de sensores, en este caso ultrasónicos y sensores ToF (Time of Flight) y brinda retroalimentación de manera háptica mediante vibraciones. Otra clase de este tipo de proyectos buscan rediseñar el clásico bastón blanco y mejorarlo con sensores y motores que guían al usuario fuera de los obstáculos.

B. Li et al., en “Vision-Based Mobile Indoor Assistive Navigation Aid for Blind People,” detecta obstáculos dinámicos y ajusta la ruta planeada en tiempo real. Primero toma información geométrica de planos arquitectónicos y genera un mapa semántico formado por una capa global transitable en 2D y capas sensibles al contexto. Logra localizar al usuario diseñando un algoritmo de alineación de mapas para unir el archivo de descripción del área visual (ADF) y el mapa semántico. Usando la cámara RGB-D integrada, desarrolla un detector de obstáculos eficiente basado en un algoritmo de filtro Kalman de mapa con marca de tiempo (TSM-KF).

Solución Propuesta

La solución consiste en un dispositivo vestible, llevado en el pecho mediante un arnés. Contiene el hardware adecuado para poder ejecutar un repertorio de software que aumente la calidad de vida de las personas con discapacidades visuales haciendo uso de visión computacional.

El repertorio de software consta de una multitud de aplicaciones que asisten en tareas cotidianas, a modo de ejemplo, algunas de estas aplicaciones serían: lector de textos, desde etiqueta de alimentos hasta libros, navegador GPS, videollamada con una persona para asistencia al usuario en situaciones que requieran de una ayuda más minuciosa, identificador de cartas para juegos de mesa, entre algunos otros.

El proyecto se centra en soluciones con enfoque visual, apoyándose únicamente de sensores de imágenes. Se capturan imágenes del ambiente del usuario, el sistema procesa dichas imágenes y se brinda retroalimentación auditiva en base a los resultados.

El algoritmo extractor de características implementado en el proyecto es conocido como “Oriented FAST and Rotated BRIEF” (ORB), este fue elegido tras investigar comparativas de algoritmos de la misma categoría ya que brindaba el mejor rendimiento en la mayoría de los casos y también está bajo licencia de software libre.

El resultado del proyecto será un producto completamente funcional, que se describe como prototipo debido a que no tendrá un diseño industrial, listo para la venta en el mercado. Por igual, tampoco tendrá una distribución de energía eficiente que le permita estar encendido por muchas horas, si no lo necesario para desarrollo y pruebas.

Metodología

Este proyecto es en fundamento un proyecto de visión computacional. Muchos problemas pueden ser abordados por la visión computacional, por ejemplo: reconocimiento facial, lectura de caracteres, clasificación de imágenes, etc.

Por eso, como primer paso del modelo, las imágenes capturadas son tomadas como entrada inicial del sistema. Posteriormente, la imagen capturada se procesa para obtener como salida la denominación de algún billete o la identificación de algún obstáculo. Posteriormente, la conversión de las imágenes de color a escala de grises es útil porque simplifica la cantidad de información contenida en una imagen, permitiendo al sistema realizar más operaciones complejas en menos tiempo, para después implementar en el sistema la detección de bordes es a través de Canny Edge Detection, ya que este proporciona mejores resultados en comparación con otros métodos. La detección de bordes se utiliza en complemento con segmentación de imágenes para extraer un área de interés al cual se le realizan varias operaciones en etapas posteriores.

Resultados Obtenidos

En la figura superior se encuentra diagramado el flujo de operaciones que ejecuta el sistema cada ciclo. Algunos puntos que valen la pena destacar son los siguientes: es posible el cambio de modo de funcionamiento o el apagado del sistema de manera asíncrona. No es necesario esperar que algún audio se termine de reproducir para empezar a procesar la próxima imagen, ya que esta tarea es ejecutada en hilos distintos.

El usuario interactúa con el dispositivo mediante un solo botón físico y unos auriculares que se conectan automáticamente por bluetooth (si ya se habían conectado manualmente previamente) o se podrían conectar mediante la salida de audio de la Raspberry Pi. El botón se utiliza para encender el dispositivo (si el dispositivo esta apagado), cambiar de modo de funcionamiento y para apagar el dispositivo si se deja presionado por tres o más segundos. Toda la retroalimentación se le brinda al usuario de manera auditiva.

 En las pruebas de detección de billetes determinamos que el rendimiento bajo las mejores condiciones resulta en un tiempo promedio de respuesta de 4 segundos. Esta cantidad acomoda el tiempo que le toma al usuario posicionar el billete frente al sensor y el tiempo que podría tomarle al sensor enfocar la imagen al objetivo. A medida que empeora la iluminación del ambiente el rendimiento se torna inconsistente y el tiempo promedio de respuesta aumenta.

En las pruebas de distancia descubrimos que el sensor logra detectar y estimar con un margen de error de +-0.1m la distancia de objetos que se encuentran entre 0 y 15 metros de distancia del sensor. En la prueba de multitud obtuvimos un resultado inesperado, donde el rendimiento fue mejor en el ambiente de alta iluminación que en el de iluminación regular.

Conclusiones

Este proyecto ha demostrado ser eficaz en la implementación de soluciones de visión computacional para las tareas descritas en los objetivos del proyecto. La funcionalidad de detección de billetes funciona consistentemente y en tiempo real bajo condiciones ideales de iluminación, permitiendo a los usuarios identificar la denominación de los billetes dominicanos sin asistencia. La detección de obstáculos amplía el rango de detección de un invidente hasta 14 metros más allá de las dimensiones de su bastón, mejorando su percepción del entorno. El dispositivo es fácil de usar, tiene una curva de aprendizaje mínima y componentes pequeños que permiten su portabilidad.

Un resultado inesperado fue la mayor consistencia en la detección de billetes cuando están orientados por el anverso en lugar del reverso. Esto puede deberse a que los diseños de los billetes anversos contienen más elementos gráficos, facilitando la detección. En condiciones de iluminación inadecuadas, el desempeño del dispositivo disminuye, y la detección de obstáculos se ve afectada cuando los objetos se solapan. Además, el dispositivo no puede determinar la legitimidad de los billetes, y el estado físico de los billetes también afecta la precisión de la detección.

Recomendaciones

Para futuras mejoras del proyecto, se sugiere agregar una linterna para mejorar la detección de billetes en condiciones de poca iluminación y considerar la integración de un sensor IR o un sensor binocular con IR para mejorar la detección de obstáculos en baja iluminación. Incluir comandos por voz y rediseñar el sistema de retroalimentación para el módulo de detección de obstáculos también serían beneficiosos. Además, sería útil mejorar la distribución de calor de los componentes o agregar métodos de refrigeración, así como idear y desarrollar más modos de funcionalidad para el dispositivo.

Referencias

  • Rosenblum, See What I’m Saying: The Extraordinary Powers of Our Five Senses. Los Angeles, 2010.
  • A. Semary, S. M. Fadl, M. S. Essa, and A. F. Gad, “Currency recognition system for visually impaired: Egyptian banknote as a study case,” in 2015 5th International Conference on Information & Communication Technology and Accessibility (ICTA), 2015, pp. 1–6. doi: 10.1109/ICTA.2015.7426896.
  • “Ciegos no detectan marcas para no videntes en billetes dominicanos,” Diario Libre, Santo Domingo, Apr. 23, 2014. Accessed: Jul. 23, 2022. [Online]. Available: https://www.diariolibre.com/actualidad/ciegos-no-detectan-marcas-para-novidentes-en-billetes-dominicanos-JKDL577781
  • Zhang, W. Yan, and M. Kankanhalli, “Overview of currency recognition using deep learning,” Journal of Banking and Financial Technology, vol. 3, Jan. 2019, doi: 10.1007/s42786-018-00007-1.
  • Katzschmann, B. Araki, and D. Rus, “Safe Local Navigation for Visually Impaired Users With a Time-of-Flight and Haptic Feedback Device,” IEEE Transactions on Neural Systems and Rehabilitation Engineering, vol. PP, p. 1, Jan. 2018, doi: 10.1109/TNSRE.2018.2800665.
  • Katzschmann, B. Araki, and D. Rus, “Safe Local Navigation for Visually Impaired Users With a Time-of-Flight and Haptic Feedback Device,” IEEE Transactions on Neural Systems and Rehabilitation Engineering, vol. PP, p. 1, Jan. 2018, doi: 10.1109/TNSRE.2018.2800665.

Sistema de ayuda para la identificación de las patologias de la piel

Leslie Nicole Rodriguez Nuñez

Pontifica Universidad Católica Madre y Maestra, PUCMM

Introducción

La prevalencia de enfermedades de la piel demuestra lo comunes que son las patologías en la dermis y lo costoso que puede resultar el tratamiento en la industria. Desde condiciones leves como el acné hasta enfermedades más graves como el melanoma, los problemas dermatológicos afectan a millones de personas en todo el mundo, incrementando la demanda de atención médica especializada y de tratamientos efectivos. Además de los costos directos del tratamiento, estas enfermedades pueden tener un impacto significativo en la calidad de vida de los pacientes, afectando su bienestar físico, emocional y social. Por estas razones, se necesitan técnicas multifacéticas para abordar el aumento de los problemas de la piel y para implementar un tratamiento temprano que no solo mejore los resultados de salud, sino que también reduzca los costos asociados a tratamientos prolongados y complicaciones avanzadas.

Contexto

La prevalencia de enfermedades de la piel ha aumentado notablemente en los últimos años a escala mundial. Esta escalada ha atraído una atención significativa de investigadores, médicos y legisladores debido a su impacto en el bienestar general de las personas y la salud pública. Según la World Health Organization, en “Radiation: Ultraviolet (UV) radiation and skin cancer,” la incidencia de melanoma maligno desde principios de la década de 1970, ha aumentado considerablemente; por ejemplo, en promedio incrementó un 4% anual en los Estados Unidos. Numerosos estudios muestran una correlación entre los hábitos de exposición a los rayos UV de una persona, cambios climáticos, los rasgos genéticos y personales y su probabilidad de desarrollar un melanoma maligno. De acuerdo con la exposición del sol y los cambios climáticos en N. Balato, M. Megna, F. Ayala, A. Balato, M. Napolitano, and C. Patruno, en “Effects of climate changes on skin diseases,” se expone que el factor primario que influye en el proceso de fotocarcinogénesis es la cantidad de rayos UV recibidos en la superficie terrestre.

Proyectos Relacionados

Uno de los primeros artículos relacionados corresponde a Y. N. Fu’adah, N. C. Pratiwi, M. A. Pramudito, and N. Ibrahim, quienes realizaron el estudio titulado: “Convolutional Neural Network (CNN) for Automatic Skin Cancer Classification System”, en el cual se justifica el objetivo de la investigación debido a que el melanoma maligno es una afección provocada por modificaciones en las características de las células sanas de la piel para que se vuelvan malignas, lo que hace que las células se dividan sin control en formas anormales como resultado del daño en el ADN, además de que aborda los distintos pasos de integración en su red neuronal.

Por otra parte, en su reporte científico titulado “Skin cancer diagnosis using convolutional neural networks for smartphone images: A comparative study” de S. Medhat, H. Abdel-Galil, A. E. Aboutabl, and H. Saleh, compara diferentes técnicas de redes neuronales con imágenes tomadas por teléfono celular. En este, expone que los sistemas de diagnóstico ayudados por computadora para imágenes de cáncer de piel tomadas con teléfonos inteligentes pueden servir como un sistema de alerta para casos graves, mostrando la relevancia que tienen las lesiones de la piel y el uso de la tecnología que poseemos.

Por último, W. Gouda, N. U. Sama, G. Al-Waakid, M. Humayun, and N. Z. Jhanjhi en su artículo “Detection of skin cancer based on skin lesion images using deep learning” expone el uso de diferentes fuentes de datos comparando con el modelo de red neuronal empleando imágenes tomadas por teléfonos celulares.

Solución Propuesta

La solución que se plantea es crear un mecanismo que haga uso de una red neuronal para poder identificar lesiones de la piel. Este mecanismo sería un portal web donde el especialista de la piel sea capaz de subir la imagen que desea evaluar y como resultado se muestre el porcentaje de probabilidad de las lesiones.

Con relación al modelo, las lesiones que se proponen analizar son Melanoma, que es la clase a la cual se le piensa colocar más enfoque, Nevus (Lunares o verrugas) por su naturaleza común entre los seres humanos y carcinoma de células basales porque puede representar un objeto de confusión a la hora del diagnóstico.

Con el propósito de proporcionarle al usuario una interfaz gráfica comprensible, se creará un portal web, en el que el mecanismo deberá ser capaz de mostrar de una manera sencilla los porcentajes de las diferentes lesiones propuestas para que el especialista tome la decisión de los pasos a seguir con el paciente. En este portal, el paciente subirá las imágenes que desea evaluar y el dermatólogo decidirá aquellas que desea que sean evaluadas por el modelo.

Metodología

La composición del proyecto se divide en dos partes principales, la implementación del modelo de clasificación utilizando CNN para las patologías de la piel y la aplicación de este en un portal web para que pueda ser utilizado. En la primera parte, se plantea que el modelo se entrene con datos de diversas fuentes de información utilizando regularizadores, aumento de datos, funciones de activación, callbacks y técnicas para evitar el sobreajuste del modelo, para luego ser validado y testeado por una porción de los mismos datos y efectividad de este a través de métricas de evaluación.

Se plantea que el portal web reciba la imagen que se quiera evaluar, y luego de utilizar el modelo previamente creado, muestre las probabilidades de las diferentes patologías que el modelo es capaz de pronosticar en términos de porcentajes.

 

Resultados Obtenidos

Se estructuro una aplicación web capaz de, a través del entrenamiento pronfundo explicado, clasificar hasta cinco patologías de la piel que afectan a la población dominicana. Aplicando técnicas de overfitting y dropping, se asegura la exactitud y precisión del modelo para imágenes fuera del dataset.

 

Conclusiones

Debido al aumento de incidencias patológicas, la contaminación mundial y el incremento de la desinformación en las redes sociales en la República Dominicana, este proyecto ofrece una solución conveniente para pacientes con discapacidad, vida ajetreada o como preconsulta para determinar la necesidad de una consulta presencial.

Este sistema permite procesar imágenes de patologías de la piel, permitiendo a los expertos verificar y ofrecer los pasos que el paciente debe seguir, tomando medidas tempranas para evitar que las situaciones se agraven. Además, el sistema tiene potencial como herramienta de apoyo en centros médicos y establecimientos especializados en el cuidado de la piel, proporcionando retroalimentación a los pacientes a través de un portal accesible sin necesidad de una visita presencial, a menos que sea requerida por el profesional.

La solución propuesta también puede contribuir al avance de metodologías de preprocesamiento de información en la industria médica, utilizando visión computacional para la extracción y categorización de imágenes. Mediante una red neuronal convolucional y librerías como TensorFlow.

Un resultado inesperado fue la mayor consistencia en la detección de billetes cuando están orientados por el anverso en lugar del reverso. Esto puede deberse a que los diseños de los billetes anversos contienen más elementos gráficos, facilitando la detección. En condiciones de iluminación inadecuadas, el desempeño del dispositivo disminuye, y la detección de obstáculos se ve afectada cuando los objetos se solapan. Además, el dispositivo no puede determinar la legitimidad de los billetes, y el estado físico de los billetes también afecta la precisión de la detección.

Recomendaciones

A pesar de los grandes beneficios del sistema, todavía existen oportunidades de mejora de este para ofrecer una mejor calidad y presión del modelo. Un ejemplo 68 de esto es referente a la iluminación y calidad de las imágenes el cuál puede afectar considerablemente el desempeño del modelo y la predicción de las patologías en las que está entrenado, por lo tanto, podría ser necesario realizar varias pruebas o información sobre la iluminación y calidad de esta al usuario o en cambio, implementar algoritmos de corrección de imagen para poder asegurar una mayor calidad de las probabilidades.

Cabe recalcar que el sistema no pretende reemplazar el criterio profesional sino en ser una colaboración de este, por lo tanto, para colaborar con el crecimiento y apoyo mutuo entre la industria médica y el aprendizaje automático se recomienda agregar secciones de pago seguras que permitan al paciente saldar el costo correspondiente de la consulta y del mismo modo, que el profesional experto reciba remuneración por el trabajo que está realizando.

Tomando en cuenta que el sistema no utiliza ningún mecanismo para mejorar la calidad de la imágen, las probabilidades pueden verse afectadas por el mismo. Por consiguiente, por lo que se recomienda implementar un sistema para mejorar y manejar la calidad y resolución de las imágenes para que luego se sometan a evaluación y poder asegurar mejores resultados.

Referencias

  • World Health Organization, “Radiation: Ultraviolet (UV) radiation and skin cancer,” www.who.int, Oct. 16, 2017. https://www.who.int/news-room/questions-and-answers/item/radiation-ultraviolet-(uv )-radiation-and-skin-cancer
  • Y. N. Fu’adah, N. C. Pratiwi, M. A. Pramudito, and N. Ibrahim, “Convolutional Neural Network (CNN) for Automatic Skin Cancer Classification System,” IOP Conference Series: Materials Science and Engineering, vol. 982, p. 012005, Dec. 2020, doi: https://doi.org/10.1088/1757-899x/982/1/012005.
  • S. Medhat, H. Abdel-Galil, A. E. Aboutabl, and H. Saleh, “Skin cancer diagnosis using convolutional neural networks for smartphone images: A comparative study,” 72 Journal of Radiation Research and Applied Sciences, vol. 15, no. 1, pp. 262–267, Mar. 2022, doi: https://doi.org/10.1016/j.jrras.2022.03.008.
  • W. Gouda, N. U. Sama, G. Al-Waakid, M. Humayun, and N. Z. Jhanjhi, “Detection of Skin Cancer Based on Skin Lesion Images Using Deep Learning,” Healthcare, vol. 10, no. 7, p. 1183, Jun. 2022, doi: https://doi.org/10.3390/healthcare10071183.
  • Listín Diario, “Las enfermedades de la piel más comunes en el país; cómo prevenirlas y tratarlas,” Listindiario.com, Apr. 21, 2022. https://listindiario.com/la-republica/2022/04/21/718251/las-enfermedades-de-la-pielmas-comunes-en-el-pais-como-prevenirlas-y-tratarlas.html (accessed Jul. 27, 2023).

Sistema de supervisión para ejercicios de pesas libres con visión computacional

Jeferson Rosa Tejada y Luis Manuel Castro Herrera
Pontifica Universidad Católica Madre y Maestra, PUCMM

Introducción

El problema de las lesiones en los gimnasios es algo que ocurre frecuentemente alrededor del mundo, debido a la inexperiencia de los afiliados y muchas veces al desconocimiento o desinformación de cómo realizar el ejercicio apropiadamente.

Hay que recalcar que la incorrecta elaboración y el mal uso de esta conlleva un sinnúmero de problemas, que afectan a las personas de manera negativa, de una duración corta, mediana o hasta larga en el peor de los casos. Y aunque en la mayoría de las ocasiones se cuenta con una supervisión directa por un entrenador que ha de corregir la mala ejecución de los ejercicios, estas correcciones pueden llegar a ser subjetivas y escasas debido al personal limitado de las instalaciones.

Por eso es tan importante tercializar la corrección de la técnica, buscando avanzar hacia un futuro mas autónomo, correcto y seguro a través de, por ejemplo, un sistema de sistema de supervisión para ejercicios de pesas libres con visión computacional, como el que estaremos discutiendo en el presente artículo.

Contexto

Las lesiones en los gimnasios son más frecuentes que lo que nos damos cuenta. En todo el mundo, gracias a la ignorancia y falta de información muchas veces los ejecutores resultan realizando ejercicios inapropiadamente, desde aficionados en el gimnasio hasta incluso profesionales deportistas y fisicoculturistas. Es vital para todos involucrados evitar a toda costa las lesiones y malas prácticas de los ejercicios que fortalecen a estos atletas.

El cuerpo humano se mueve gracias a los músculos y las contracciones y relajaciones constantes de estos músculos. Algunos músculos pueden tirar de huesos para moverlos, pero no pueden hacer el movimiento contrario, por ello se cuenta de un par y trabajan en conjunto, estos son llamados extensores y flexores. Por ejemplo, el bíceps es un musculo flexor y se encuentra en la parte frontal del brazo permitiéndonos cierto movimiento y el tríceps se encuentra en la parte posterior o codo y es un extensor. Para doblar el brazo el bíceps se contrae, y cuando el bíceps se relaja y se contrae el tríceps entonces se endereza el brazo.

Las lesiones musculares son una de las más comunes causas que llevan a deportistas y otros profesionales a disminuir o incluso a interrumpir su entrenamiento y participación competitiva, ya que, estas lesiones y sus consecuencias pueden repetirse y empeorarse con la actividad motriz constante.

De acuerdo con un estudio y seguimiento realizado en República Dominicana en la ciudad de Santo Domingo, el medico ortopeda Marcelo Puello concuerda que un 50% de los practicantes de ejercitación física no realizaron una evaluación médica previa y terminaron por acudir a una consulta por lesiones. De entre estos también confirma Puello que diariamente cerca de la mitad de los lesionados son jóvenes deportistas de entre 15 a 30 años. Ortopedas especifican que las lesiones de rodilla, muñeca, espalda baja y tobillo son algunas de las más frecuentes y que la desinformación y el desconocimiento de las técnicas son su causa directa.  A falta de supervisión directa, lo mejor que se le puede ofrecer a esta generación tecnológica es una solución digital, por esto la necesidad de desarrollar un sistema con retroalimentación que sea de fácil utilización para el público.

Proyectos Relacionados

Un estudio estadounidense publicado en National Health Statistics Reports midió la incidencia de accidentes en un periodo de 3 años y descubrió que las actividades que más lesiones ocasionaron fueron, sorpresivamente, ejercicios generales (involucrando levantamiento de pesas en gimnasios).

En 2021, se identificó que al ejecutar el ejercicio de la sentadilla con frecuencia las personas no estaban conscientes de qué parte del cuerpo les molestaba o dolía y desarrollaron una propuesta recurriendo a la visión artificial y modelos matemáticos para analizar el movimiento de todo el ejercicio para así dar una valoración sobre si este se realiza correctamente comparándolo con modelos ejecutados por profesionales en el área.

Solución Propuesta

Funcionamiento ilustrativo del sistema

Por esta razón, se desarrolló una aplicación que determina mediante visión computacional si el usuario ejecuta de manera óptima el ejercicio de pesas libres evitando lesiones.

El proyecto estará dividido en varias partes principales: el área amplia para ejercitarse la cual idealmente contará con buena iluminación, espejo y una forma de retroalimentación donde la persona podrá realizar los ejercicios propuestos. Un sistema de procesamiento computacional de imágenes que funcionará para analizar a la persona en el área de ejercicios y evaluará su postura y ejecución del ejercicio. Finalmente, una base de datos de la persona la cual servirá no solo para almacenamiento de los datos personales y progreso de las personas que tengan acceso, pero también servirá para almacenamiento de los parámetros ideales de los ejercicios disponibles.

Metodología

Modelo interactivo del sistema.

Para llevar a cabo el proyecto en el estado actual contamos con tres trípodes a una altura de 1.3m, separados a una distancia de 2.5m del área de ejercicio donde el usuario se colocará. Cada trípode se encuentra a cada lado del usuario y uno de estos de frente. Montados en los trípodes se hallan las cámaras web que servirán de entrada de datos para el análisis computacional, las cámaras son rotadas 90 grados para finalizar en una posición vertical en la que favorece la captura más amplia del usuario, pero a la vez reduce el ruido visual. Las cámaras transmiten la información a través de extensores USB de alrededor de 4.5m directamente conectadas al computador personal que ejecuta las técnicas de procesamiento computacional de imágenes. Estas técnicas son ejecutadas gracias a un programa en lenguaje de alto nivel Python. Utilizando librerías como Mediapipe para poder realizar el seguimiento del cuerpo a partir de la información recibida de la cámara y mediante este poder analizar con los parámetros ideales como se realiza correctamente el ejercicio.

A la misma vez se toma información valiosa para registrar en la base de datos de lenguaje de consulta estructurada (SQL). También en esta base de datos se identifica el usuario inicialmente con un acceso único y se le da seguimiento a este. Con la información anterior analizada y registrada se devuelve al usuario retroalimentación visual y sugerencias para la ejecución exitosa del ejercicio de sentadillas. Si el usuario desea en cualquier momento puede consultar cómo debe ejecutar el ejercicio óptimamente gracias a videos pregrabados con profesionales e instrucciones textuales.

Resultados Obtenidos

En un ambiente controlado, hemos probado y evaluado el sistema, logrando una precisión media en el seguimiento de los movimientos del usuario. Aunque el sistema puede rastrear las posiciones y movimientos de un solo usuario con facilidad, presenta dificultades cuando hay múltiples usuarios en la escena. Dado que el sistema no está diseñado para múltiples usuarios, estamos trabajando en una solución más robusta para mantener el enfoque en el usuario objetivo.

Mapa de puntos del programa.

La retroalimentación e instrucciones de los movimientos del usuario se ha demostrado eficiente. Contando con instrucciones textuales y demostraciones visuales previas a la ejecución, así como retroalimentación visual en tiempo real precisa y respuesta del ejercicio recién realizado se ha demostrado más que suficiente ayuda para el usuario familiarizarse con el ejercicio y corregir su postura. 

Ejercicios disponibles.

Además, se entiende que se cuenta con una interfaz cómoda e intuitiva para nuevos usuarios como para veteranos y con una recopilación de datos fiable y eficiente para el análisis temporal como para posterior evaluación.

Conclusiones

El proyecto ha demostrado ser una solución efectiva para la corrección de técnicas y la prevención de lesiones en gimnasios pues la precisión en la detección de errores y la capacidad de proporcionar retroalimentación en tiempo real posicionan al sistema como una herramienta valiosa para los usuarios de gimnasios, independientemente de su nivel de experiencia. Proyectando una reducción significativa en el número de lesiones reportadas lo que valida la importancia de la correcta supervisión de ejercicios y el potencial de la tecnología de visión computacional para mitigar riesgos asociados con la mala ejecución de ejercicios.

Recomendaciones

El almacenamiento y análisis de datos de los usuarios no solo facilita un seguimiento personalizado, sino que también permite la mejora continua del sistema. Esta adaptabilidad es crucial para mantener la relevancia y efectividad del sistema a medida que evoluciona la tecnología y cambian las necesidades de los usuarios.

Dado el éxito del proyecto piloto, se recomienda la expansión del sistema a otros ejercicios y la integración con dispositivos móviles para aumentar la accesibilidad y facilidad de uso. Además, la incorporación de funciones adicionales, como la personalización de rutinas de ejercicio basadas en el análisis de datos históricos del usuario, podría mejorar aún más la experiencia del usuario.

Es importante recalcar que el programa esta pensado solo para 1 persona, sin interferencia de demás cuerpos. Esto, a la larga, se podría estructurar para seguir a un individuo a pesar de su entorno, aunque otras técnicas deben ser aplicadas.

Referencias

 P. Smith, «How to measure, report and verify soil carbon change to realise the potential of soil carbon sequestration for atmospheric greenhouse gas removal,» INSTITUTE FOR CARBON REMOVAL LAW AND POLICY, USA, 2019.


 A. S. Susanto B. Sulistyo, «Design and performance test of portable spectrometer using AS7265x multispectral sensor for detection of adulterated cane sugar in granulated coconut sugar,» AIP Conference Proceedings, USA, 2023.


 M. J.-L. F. R. J.-L. Andrés Fernando Jiménez-López, «Multispectral analysis of vegetation for remote sensing applications,» Iteckne, Colombia, 2015.

[1] T. Taylor, Muscular System, 2021 [En línea] Disponible: https://www.innerbody.com/image/musfov.html [Ultimo acceso: 2 abril 2023] [2] L. Hirsch, Huesos, Músculos y Articulaciones, 2019. [En línea] Disponible: https://kidshealth.org/en/parents/bones-muscles-joints.html [Ultimo acceso: 2 abril 2023] [3] N. M. .. P. P. d. L. Infante Ruiz, La resolución de problemas de Biomecánica Deportiva como actividad investigativa, Luz, vol. XX, nº 3, 2021.

[9] A. I. Dibujes Félix, Sistema electrónico de evaluación de postura de la espalda al realizar el ejercicio de sentadillas con barra libre usando algoritmos de aprendizaje autónomo en miembros del club de físico culturismo de la Universidad Técnica del Norte, 2018. [En línea]. Disponible: http://repositorio.utn.edu.ec/handle/123456789/8275. [Último acceso: 28 noviembre 2022].

 

Sistema para la detección enfermedades en cultivos de Arroz

Ilka Hernández y Patricia DiMassimo
Estudiantes Escuela de Ingeniería en Eléctrica, Campus Santiago
PUCMM

El arroz en República Dominicana

El cultivo del arroz es una actividad agrícola fundamental en muchos países del mundo, especialmente en República Dominicana, donde se consume en grandes cantidades y se cultiva extensamente. Sin embargo, la presencia de enfermedades y condiciones de estrés puede afectar significativamente la producción y calidad de los cultivos de arroz, lo que a su vez afecta la economía y la seguridad alimentaria las regiones donde se distribuye este producto. Por lo que, la detección temprana de estas enfermedades y condiciones de estrés es un desafío para los agricultores, ya que a menudo son difíciles de detectar a simple vista.

Para abordar este problema, se propone la implementación de un sistema de procesamiento de mapas multiespectrales e imágenes para la detección temprana de enfermedades y condiciones de estrés en cultivos de arroz.

En esta entrada de este blog de innovación se presentará la implementación de un sistema para la detección temprana de enfermedades en cultivos de arroz. El sistema desarrollado combina técnicas de visión computacional y aprendizaje de máquinas. Fue desarrollado un esquema de fusión de datos para la creación de modelos de naturaleza heterogénea.

La Digitalización en la Agricultura

La creciente intersección entre la tecnología y la agricultura ha revolucionado la manera en que se aborda los desafíos agrícolas en la actualidad. Uno de los avances más notables ha sido la aplicación de la inteligencia artificial (IA) en este campo. La capacidad de procesar grandes volúmenes de datos y extraer patrones significativos ha permitido optimizar la producción y la toma de decisiones agrícolas. La integración de sensores avanzados y microcontroladores como el ESP32, ha facilitado la recolección y el análisis de información crítica para el diagnóstico y prevención de enfermedades en cultivos, como el arroz. Esta revisión se enfoca en la evaluación de cómo la tecnología, especialmente la inteligencia artificial, ha impactado en la agricultura, con énfasis en la aplicación de sensores multiespectrales y microcontroladores en el reconocimiento temprano de enfermedades en hojas de arroz.

La combinación de tecnologías de medición multiespectral e inteligencia artificial ha dado lugar a soluciones novedosas en la detección de adulteración en productos agrícolas. Un ejemplo destacado es el desarrollo de un espectrómetro portátil que utiliza este sensor para evaluar la pureza del azúcar de coco y detectar la adulteración con azúcar de caña. La implementación de redes neuronales permitió una clasificación precisa de muestras adulteradas y puras, con una tasa de éxito del 100% en casos de azúcar de coco y un promedio superior al 90% para estimar la intensidad de la adulteración.

Diversos proyectos relacionados han abordado problemáticas similares en la detección y diagnóstico de enfermedades en cultivos, lo que amplía la comprensión de las aplicaciones y desafíos de la tecnología. Por ejemplo, un estudio se centró en la detección de malezas y la estimación de la salud de las vides utilizando el NDVI en combinación con el sensor multiespectral. Aunque enfrentaron desafíos de calibración y sesgos, estos proyectos reflejan la creciente importancia de las herramientas tecnológicas en la agricultura de precisión y subrayan la necesidad de investigación continua para superar obstáculos técnicos.

Solución Propuesta

La implementación del presente proyecto tiene como objetivo mejorar la producción de arroz al reducir los efectos negativos de las enfermedades y condiciones de estrés en los cultivos. En cuanto a la composición, las imágenes multiespectrales se obtendrían mediante la utilización del sensor multiespectral seleccionado que puede capturar la luz en diferentes longitudes de onda. Las mediciones multiespectrales capturadas por este sensor proporcionaron información detallada sobre el estado de salud de los cultivos de arroz.

Además, se utilizaron técnicas de procesamiento de imágenes para mejorar la calidad y precisión de los datos obtenidos de las mediciones multiespectrales. Estas técnicas incluyen la corrección de distorsiones en las imágenes, la eliminación de ruido y la normalización de los datos para garantizar una representación precisa de la salud de los cultivos. Este sistema combina la ciencia de la agricultura con la tecnología de la información y el aprendizaje automático, para proporcionar una solución integral y efectiva para la detección temprana de enfermedades y condiciones de estrés en los cultivos de arroz.

Para la creación del sistema físico, se utilizó la herramienta de CAD SolidWorks para diseñar dos cajas negras. Ambas cajas tienen las mismas dimensiones, pero con propósitos diferentes. La caja mostrada en la siguiente está diseñada para trabajar con el sensor multiespectral seleccionado y dos arreglos de LEDs. Su función es proporcionar un espectro de emisión que abarca un rango desde los 400 nm (ultravioleta) hasta los 750 nm (infrarrojo cercano). El objetivo de este diseño es captar el espectro reflejado por las hojas de arroz y utilizar esta información para determinar ciertas condiciones relacionadas con los niveles de hidratación de las hojas.

Se empleó un microcontrolador ESP32 para gestionar la activación y desactivación de los LEDs que emiten diversas frecuencias espectrales y que son dirigidos a las hojas de arroz. El ESP32 es una opción ligera pero altamente confiable para esta tarea. Con este microcontrolador, se estableció una comunicación con el sensor multiespectral utilizando el protocolo I2C. En la siguiente figura se muestra una imagen con la configuración de entrada y salida del microcontrolador elegido.

En la carcasa diseñada fueron acomodadas tanto la cámara como el sensor multiespectral seleccionado, permitiendo las capturas de hojas individuales de arroz para su caracterización. Se seleccionó el color negro para evitar el efecto de la reflexión y se colocaron LEDs específicos para las distintas frecuencias del espectro electromagnético que se deseaban caracterizar. En la siguiente imagen podemos ver un ejemplo de una imagen capturada.

Se analizó cada hoja en términos de valores de reflectancia y absorción en cada una de las 18 bandas del sensor (410nm, 435nm, 460nm, 485nm, 510nm, 535nm, 560nm, 585nm, 610nm, 645nm, 680nm, 705nm, 730nm, 760nm, 810nm, 860nm, 900nm, 940nm). Para lograrlo fue colocado un arreglo de 6 LEDs capaces de proporcionar las longitudes de onda mostradas con dirección a la hoja. En la siguiente figura se observa la respuesta capturada a partir del sensor multiespectral.

Metodología para el entrenamiento de los algoritmos de aprendizaje de máquina

A partir de estas imágenes se procedió a entrenar un modelo de clasificación basado en las redes neuronales convolucionales. AlexNet es un modelo de red neuronal convolucional considerado uno de los modelos más influyentes en el campo del aprendizaje profundo y fue uno de los primeros en demostrar un rendimiento notable en la tarea de clasificación de imágenes a gran escala. Las técnicas de aprendizaje por transferencia han permitido aprovechar las arquitecturas de estas redes neuronales convolucionales y adaptarla a una diversidad de aplicaciones. En nuestro caso, a la clasificación de enfermedades en hojas de arroz. Debajo se muestra la estructura de la red AlexNet entrenada usando el ambiente Matlab.

Resultados Obtenidos

La estrategia de procesamiento de imágenes en el dominio espacial para identificar manchas en hojas de arroz ha arrojado resultados sumamente prometedores. La elección de la técnica de segmentación basada en el color, combinada con operaciones de preprocesamiento como la conversión a escala de grises y la aplicación de operaciones de apertura, ha demostrado su capacidad para resaltar de manera excepcional las áreas de interés, es decir, las manchas en las hojas. La aplicación consecutiva del método de Otsu y su transformación inversa ha afinado aún más la precisión de la segmentación, contribuyendo a una separación nítida entre las manchas y el fondo de las hojas. Este enfoque en el dominio espacial ha culminado en una detección de enfermedades en las hojas de arroz más confiable y definida, al mismo tiempo que ha minimizado cualquier distorsión o ruido no deseado en las imágenes. La inherente flexibilidad de esta metodología ha permitido ajustar los parámetros de segmentación en función de las variaciones en las características de las manchas y los requisitos específicos del proyecto. En la figura siguiente se muestran los resultados del procesamiento utilizado.

A continuación se muestran los resultados del mejor modelo obtenido. Es importante recalcar que se utilizó una estrategia de entrenamiento cruzado, para evitar introducir sesgo al modelo planteado. La precisión promedio para todas las clases fue del 91.44%.

En el caso del sensor multiespectral, fue elegido un modelo basado en árboles aleatorios, donde se observa una capacidad importante del modelo de distinguir de las tres clases asignadas para la clasificación multiespectral. En la siguiente figura se muestra la matriz de confusión del modelo.

El desempeño obtenido por la estación de inspección mostró su viabilidad para cumplir los objetivos planteados para el presente proyecto, ofreciendo la posibilidad de implementar estrategias similares en distintos tipos de cultivos, y adicionalmente, la importancia que puede presentar la aplicación de técnicas de aprendizaje de máquina en la implementación de la agricultura de precisión.

Conclusiones

La elección de modelos y estrategias de entrenamiento es crucial para la clasificación de imágenes RGB y datos multiespectrales para aplicaciones de agricultura de precisión. La adaptabilidad del sistema desarrollado y su capacidad para detectar patrones anómalos pueden ser una herramienta de importancia en optimizar los procesos de gestión de cultivos.

Referencias

 P. Smith, «How to measure, report and verify soil carbon change to realise the potential of soil carbon sequestration for atmospheric greenhouse gas removal,» INSTITUTE FOR CARBON REMOVAL LAW AND POLICY, USA, 2019.


 A. S. Susanto B. Sulistyo, «Design and performance test of portable spectrometer using AS7265x multispectral sensor for detection of adulterated cane sugar in granulated coconut sugar,» AIP Conference Proceedings, USA, 2023.


 M. J.-L. F. R. J.-L. Andrés Fernando Jiménez-López, «Multispectral analysis of vegetation for remote sensing applications,» Iteckne, Colombia, 2015.

 

 

Interfaz Cerebro Computador para el control de un DRON tipo Cuatrimotor

James di Giacomo Rodríguez y Darío Ezequiel Núñez
Estudiantes Escuela de Ingeniería en Computación y Telemática, Campus Santiago
PUCMM

Tendencias del futuro: Interfaz Cerebro-Computador

En la década de 1970, el profesor Jacques Vidal introdujo el término «interfaz cerebro-computadora» (BCI, por sus siglas en inglés), planteando la idea de utilizar patrones de ondas cerebrales para controlar dispositivos externos, como computadoras. El control de drones a través de BCI es una extensión natural de esta investigación y ofrece nuevas oportunidades en términos de accesibilidad y control preciso de estos dispositivos.

El uso de interfaz cerebro-dron podría permitir a los operadores controlar drones de manera remota y precisa sin necesidad de una interfaz física, lo que reduciría el riesgo de exposición a peligros físicos, además, la interfaz cerebro-dron podría acelerar la prestación de ayuda en áreas afectadas por desastres naturales o conflictos, permitiendo una respuesta más rápida y precisa. De igual forma, este tipo de tecnología proporciona una alternativa de control para personas con dificultades físicas, lo que les permite superar sus limitaciones y tener mayor autonomía en el manejo de drones.

Sin embargo, a pesar de los beneficios potenciales, existen desafíos técnicos y prácticos que deben abordarse para una implementación efectiva y segura de esta tecnología. Estos desafíos incluyen la precisión y confiabilidad del control de drones a través de BCI, la seguridad cibernética para evitar intrusiones maliciosas y la protección de la privacidad y los derechos humanos de las personas afectadas por el uso de esta tecnología.

En esta entrada de este blog de innovación se presentará la implementación de un sistema para la creación de una interfaz cerebro-computador para el control de un DRON cuatrimotor. El sistema desarrollado muestra las interesantes posibilidades que ofrecen este tipo de interfases para simplificar la operación de dispositivos complejos y el acceso al uso de estos por personas con algún tipo de discapacidad motora. El sistema fue entrenado con diversos comandos y se validó su uso con un DRON de uso académico.

Desarrollo de los sistemas BCI

En la tesis titulada “Desarrollo de una interfaz cerebral utilizando herramientas IoT para el control de dispositivos ON-OFF orientado a personas con capacidades limitadas”, presentada por Luis Alberto Montalván Tandazo y Christian Fernando Quinte Caiza, en julio del año 2021, se aborda el tema del control de dispositivos electrónicos vía ondas cerebrales utilizando la diadema EMOTIV Insight 2.0, donde se le quiere facilitar el estilo de vida a las personas con ciertas limitaciones físicas, y por ende, brindarles comodidad y mejorar su modus vivendi en su día a día.

En ese mismo año, también se llevó a cabo un proyecto muy similar, titulado: “Desarrollo de un sistema BCI basado en redes neuronales y movimientos de la cabeza para el manejo de un ordenador”, el cual lleva por autor a Eddy Fabian Corrales Bastidas, donde se abarca esta idea, la cual se enfoca en el manejo de un ordenador en personas con movimiento reducido en sus extremidades superiores.

Por otro lado, en la tesis titulada “Implementación de un sistema de control para el manipulador Mitsubishi RV-2AJ, mediante ondas cerebrales empleando el sensor EMOTIV Insight”, presentada por Francisco Andrés Gómez Pineda y Stalin Gabriel Yaguana Torres, en julio del año 2018, se discute la problemática sobre la exclusión o limitación de acceso a tecnologías innovadoras de manipulación de robots para personas que no tienen conocimientos de programación de estos dispositivos o que tienen alguna discapacidad motriz. Por tanto, los autores plantean como solución a esta problemática, la implementación de un sistema que permita controlar los movimientos del brazo robótico Mitsubishi RV-2AJ de la marca Festo, utilizando señales cerebrales, mediante la interpretación de señales cerebrales recopiladas por la diadema EEG EMOTIV Insight 1.0, las cuales serán procesadas y analizadas a través de una tarjeta LattePanda, un dispositivo con capacidades de microcomputador y conectividad inalámbrica.

Descripción del Sistema Propuesto

El proyecto consiste en integrar un sistema de electroencefalograma (EEG) junto a un DRON, para que este sea manejado por medio de las ondas cerebrales que los seres humanos generamos cuando pensamos en una acción. Este sistema muestra un alternativa para ayudar al desarrollo de los sistemas BCI junto su interacción con los dispositivos IoT, vehículos aéreos no tripulados y cualquier dispositivo que sirva para facilitar la interacción de los humanos con los medios de transporte por interfaces cerebro–computador.

Por esto, el enfoque principal es emplear la tecnología del dispositivo EEG EMOTIV Insight 2.0 para contribuir a resolver el problema de la complejidad en la operación de drones. Se busca integrar el EMOTIV Insight 2.0 con el sistema de control del dron, estableciendo una conexión confiable y estable para permitir un control más intuitivo y preciso basado en las señales cerebrales del usuario. Debajo se muestra una imágen del EMOTIV Insight 2.0

Para la integración del DRON se eligió el sistema de BITCRAZ, el Crazyflie 2.1. Este es un pequeño DRON de código abierto desarrollado por Bitcraze. Es una versión mejorada y más avanzada de su predecesor, el Crazyflie 2.1 original. A pesar de su diminuto tamaño, el Crazyflie 2.1 está repleto de características y capacidades impresionantes. Este se puede programar utilizando lenguajes como Python y C, lo que brinda una gran flexibilidad para personalizar su comportamiento y desarrollar nuevas funciones. Debajo se muestra una imagen del DRON elegido.

El EMOTIVBCI es el software que permite enviar los datos de las señales tomadas por la diadema, para que así sean procesadas por la BCI y luego ser programadas para que el dispositivo ejecute la acción pensada. Se realizó una interfaz basada en Python para el tratamiento de los comandos de operación clasificados por el EMOTIVBCI y crear la interfaz con el API de control del DRON CrazyFlie 2.1.

Estructura del Sistema y Modo de Funcionamiento

En primera instancia, se conecta el Insight 2.0 mediante Bluetooth 5.0 al computador, luego el sujeto se coloca la diadema, se realiza una calibración de los sensores, de tal modo que la medidas de calidad para el software EMOTIVBCI sean 95% o mayor. Luego, mediante el EMOTIV Launcher, se inicia el software EMOTIVBCI , el cual es el encargado de los entrenamientos de los comandos mentales. Mediante la API de Cortex, se adquieren los datos EEG, utilizando las credenciales otorgadas por EMOTIV. Por otro lado, dentro de la API de Bitcraze, se programan las instrucciones necesarias para que el DRON Crazyflie 2.1 ejecute los comandos recibidos de la manera deseada. Ya teniendo esto listo, para comunicar ambas APIs, y enviar los comandos mentales generados por el Insight 2.0, se implementa un websocket en cada API. Por último, el aplicativo local, registra y muestra los comandos mentales que se están ejecutando en tiempo real por el sujeto, y los va mostrando en el computador. En la siguiente figura se muestra el diagrama en bloques del sistema.

La diadema Insight 2.0 utiliza Bluetooth 5.0 y software EMOTIV para controlarla. Para trabajar con el Cortex SDK y la API de Python, se necesita instalar dependencias. El DRON Crazyflie 2.1 también requiere un controlador y una máquina virtual . Un dongle de radio USB permite la conexión entre el DRON y la computadora, y el accesorio FlowDeck v2 asegura un vuelo estable con su sensor óptico de flujo. Las APIs se conectan a través de un socket IP y puerto. El dispositivo Insight 2.0 promedia comandos cada 0.125 segundos y envía la palabra más repetida. El código maneja la recepción y procesamiento de comandos, envía comandos a través del socket y utiliza hilos para la conexión y procesamiento. La comunicación a través del socket es esencial para la interacción entre el dispositivo Insight 2.0 y el DRON.

Resultados y limitaciones

Las pruebas realizadas mostraron que el sistema logró una precisión global del 85.3%. Para esto fueron realizados 68 ensayos, dando como resultado un total de 10 falsos negativos y 58 sesiones con comando detectados correctamente. Los resultados mostraron que el DRON fue capaz de recibir y ejecutar los comandos mentales enviados y generados por el Insight 2.0, según lo deseado por el usuario, demostrando así el cumplimiento total de los objetivos planteados.

En cuanto al desempeño del sistema, se observó que el tiempo de respuesta del DRON ante un comando mental fue en promedio de doce (12) segundos. Durante las pruebas de vuelo, se observó que el dron es altamente sensible a interferencias y cambios bruscos en el terreno. El Crazyradio 2.0 de Bitcraze opera en la frecuencia de 2,4GHz, compartida por muchos dispositivos de la red de la universidad, lo que provoca pérdida de control y colisiones del dron. Se reemplazaron varias hélices dañadas y se adquirieron repuestos adicionales para prevenir contratiempos.  Al integrar el Insight 2.0 con el Crazyflie 2.1, se notó un retraso de al menos tres segundos entre los comandos mentales y su ejecución debido a múltiples saltos entre APIs y procesamiento, así como la distancia al router.

Resultados Obtenidos

Después del desarrollo preliminar, se llevaron a cabo extensas pruebas y análisis para evaluar la efectividad de los métodos y algoritmos empleados en el análisis de las deficiencias en la caminata de los pacientes. Estos se centraron en la verificación y validación de los resultados obtenidos para garantizar la precisión y confiabilidad del sistema. Además, se realizaron ajustes y optimizaciones para adaptar el sistema a diferentes perfiles de pacientes y condiciones.

Se diseñó una interfaz de usuario para la visualización de datos, que incluía gráficos y tablas para presentar resultados de manera clara. Se realizaron pruebas exhaustivas para validar la precisión y confiabilidad del sistema, ajustando según fuera necesario para mejorar la exactitud del análisis. En la siguiente figura se muestra la interfaz del aplicativo WEB, este permite la configuración de umbrales para los procesos de detección y la visualización de la reportería por paciente. Debajo se muestra una secuencia de imágenes en el que el DRON sigue un comando a partir de la interfaz BCI, trasladándose desde la izquierda hacia la derecha.

Conclusiones

Este trabajo ha demostrado las funcionalidades que ofrecen las interfaz BCI para expandir la integración del control de distintos tipos de dispositivos tanto con aplicaciones civiles como de asistencia médica. Es importante destacar los retos que debieron ser superados para la integración de los distintos esquemas temporales de respuesta del sistema BCI frente a la recepción de comandos por parte de la API del DRON. Todo esto demuestra que es necesario el seguir explorando el desarrollo de estas interfaces BCI para su aprovechamiento en aplicaciones futuras.

Referencias

J. Wolpaw y E. W. Wolpaw, Brain-Computer Interfaces: Principles and Practice. Oxford University Press, 2012.


G. Pfurtscheller, B. Graimann y B. Allison, Brain-computer interfaces: Revolutionizing human-computer interaction. Heidelberg: Springer, 2010.


Millán, J.R., Rupp, R., Müller-Putz, G.R., Murray-Smith, R., Giugliemma, C., Tangermann, M., Vidaurre, C., Cincotti, F., Kübler, A., Leeb, R., Neuper, C., Müller, K.R. (2010). Combining Brain-Computer Interfaces and Assistive Technologies: State-of-the-Art and Challenges. Frontiers in Neuroscience, 4, 161. doi: 10.3389/fnins.2010.00161


Lebedev, M.A., Nicolelis, M.A.L. (2006). Brain-Machine Interfaces: Past, Present, and Future. Trends in Neurosciences, 29(9), 536-546. doi: 10.1016/j.tins.2006.07.004


McFarland, D.J., Wolpaw, J.R. (2011). Brain-Computer Interfaces for Communication and Control. Communications of the ACM, 54(5), 60-66. doi: 10.1145/1941487.1941506

 

 

Sistema para el análisis de la Caminata en procesos de Terapia Física

Albert Jerez y Diana Diplán
Estudiantes Escuela de Ingeniería en Computación y Telemática, Campus Santiago
PUCMM

Ser físicamente funcional

Las lesiones musculoesqueléticas representan una carga considerable para la salud y el bienestar global. Desde atletas de élite hasta individuos con estilos de vida activos, estas lesiones tienen un impacto devastador en la calidad de vida y la funcionalidad. Más allá del dolor físico, las lesiones podrían conducir a discapacidades a largo plazo, limitando la capacidad para trabajar, participar en actividades diarias e incluso disfrutar de recreaciones normales a nivel social.

Ante este desafío identificado y con el apoyo del departamento de Terapia Física de la Pontificia Universidad Católica Madre y Maestra (PUCMM) se busca abordar la necesidad de desarrollar herramientas y tecnologías innovadoras para una evaluación precisa y una intervención temprana en el análisis de la caminata. El objetivo siendo prevenir lesiones, mejorar los resultados del tratamiento y fomentar la salud y calidad de vida de las personas.

En esta entrada de este blog de innovación se presentará la implementación de un sistema para la el análisis de la caminata en procesos de terapia física. El sistema desarrollado cuenta con técnicas de visión computacional que permiten crear toda una reportería que asista al especialista en la evaluación del proceso de caminata de un paciente. El sistema agrega la data de sensores inerciales así como el uso de cámaras para la obtención de los reportes propuestos.

Integración de Tecnología en los procesos de Terapia Física

De acuerdo con F.R. Andrea Ramos, en «La importancia de una valoración en Fisioterapia», una de las áreas más afectadas por las lesiones musculoesqueléticas es la caminata. La capacidad de caminar eficientemente y sin dolor era fundamental para la movilidad y la independencia. Sin embargo, las lesiones en pies, tobillos y piernas alteran significativamente la biomecánica de la marcha, resultando en dolor crónico, discapacidad y una disminución de la calidad de vida. Además, las lesiones relacionadas con la marcha aumentan el riesgo de desarrollar problemas de salud más graves, como osteoartritis y enfermedades cardiovasculares, lo que podría tener consecuencias devastadoras a largo plazo para la salud y el bienestar general.

Sabiendo esto, en el estudio realizado por E. BV. llamado “Evaluación del control postural a través de Microsoft Azure Kinect DK: Un estudio de evaluación”, se compararon las trayectorias de movimiento del Kit Kinect utilizado con un sistema 3D estándar de seguimiento de alta precisión, relacionándolo a una posible solución. Veintiséis sujetos realizaron ejercicios específicos para su evaluación. El Kit Kinect demostró un seguimiento preciso de las articulaciones principales durante movimientos laterales, con un Error Cuadrático Medio (RMSE) de aproximadamente 0.2cm para ejercicios laterales y hacia adelante, y de 0.47cm para equilibrio. El Error Absoluto Medio angular osciló entre 5 y 15 grados para articulaciones superiores, mientras que las inferiores mostraron mayores errores. Se observaron mejores resultados en movimientos lentos. El estudio destaca el potencial del enfoque en base al Kit Kinect para la rehabilitación en el hogar, especialmente en la evaluación del control postural.

Otro bajo que busca analizar el proceso de movimiento del cuerpo humano es el presentado por  Y. Wang, S. Liu. Y S. Zhang. En el mismo se propone un algoritmo eficiente de reconocimiento de gestos manuales (HGR) para aplicaciones de interfaz humano-máquina (HMI) basados en el sensor BNO055. Utilizando datos de este sensor y considera su naturaleza temporal, lo que mejora el rendimiento de reconocimiento. La técnica de transformadas discretas de ondículas (DTW) es aplicada, mostrando que ofrece buenos resultados, pero su complejidad dificulta el aprendizaje en tiempo real. El algoritmo que implementaron el HGR, se basa en una red neuronal de energía de columna restringida (RCE) con un esquema de aprendizaje simple. Al reemplazar la métrica de la RCE con la distancia DTW mejora el reconocimiento de gestos con datos temporales y admite el aprendizaje en tiempo real. En pruebas con una FPGA, alcanzaron una precisión del 98.6% y soportaron operaciones en tiempo real a 150 MHz, lo que son resultados prometedores en el contexto del desarrollo del sistema.

Estos trabajos ponen el relieve dos puntos importantes: la importancia de la analítica del movimiento humano y la dificultad en procesar este tipo de datos. Por lo que el presente trabajo es un aporte importante en el desarrollo de este tipo de sistemas y en el estudio de diversas metodologías que puedan apoyar en el desarrollo de los procesos de fisioterapia.

Solución Propuesta

La solución propuesta para el análisis de la marcha en terapia física implicó el uso de tecnología de seguimiento de movimiento y un software de análisis de datos. Mediante el empleo de microcontroladores como el ESP32 (Lolin32) y un acelerómetro BNO055, colocados en diversas partes del cuerpo del paciente se busca poder medir el movimiento y la posición tridimensional durante la el proceso de caminata (marcha). El software de análisis procesó y visualiza los datos recopilados para mostrar patrones de movimiento precisos y objetivos durante la caminata. Esto buscando proporcionar a los fisioterapeutas una evaluación detallada y objetiva de la marcha de cada paciente, permitiéndoles diseñar un tratamiento personalizado y efectivo. En la siguiente figura se muestra el diagrama en bloque para la integración de todos los elementos a ser utilizados en el sistema propuesto.

Para la parte de visión computacional, se desarrolló un sistema automático de análisis de la marcha utilizando la librería MediaPipe. Esta herramienta permitiría una evaluación más eficiente y precisa de la marcha de los pacientes en terapia física. Al automatizar este proceso, se busca reducir el tiempo necesario para la evaluación inicial y mejorar la precisión de los diagnósticos, lo que a su vez conduciría a tratamientos más efectivos y una recuperación más rápida y completa para los pacientes en fisioterapia. En última instancia, se espera que este proyecto contribuya significativamente al bienestar y la calidad de vida de los pacientes en rehabilitación.

MediaPipe es una biblioteca de código abierto desarrollada por Google, especializada en análisis y procesamiento de datos de visión por computadora, ofreciendo seguimiento de movimientos y detección de objetos en tiempo real, así como mediciones precisas de velocidad, longitud del paso, cadencia y equilibrio durante la caminata. Luego de implementada, esta librería permitió capturar imágenes precisas y detalladas del movimiento del paciente durante la marcha, con la capacidad de capturar imágenes en 3D utilizando sensores de profundidad avanzados. En la siguiente imágen se aprecia la capacidad de MediaPipe de capturar puntos específicos del cuerpo, en este caso los hombros.

Metodología

El desarrollo del sistema de análisis de deficiencias en la marcha se llevó a cabo mediante un enfoque metodológico que abarcó desde la configuración inicial hasta la implementación práctica. Se inició con la configuración de los componentes hardware y la instalación del software de análisis de datos, seguido de pruebas preliminares para calibrar los sensores y ajustar su sensibilidad y precisión. El desarrollo del software implicó la configuración de algoritmos de seguimiento de movimiento y la visualización de datos en tiempo real. Esta metodología queda esquematizada en la siguiente imagen.

Se integraron  un total de tres cámaras de alta resolución para capturar imágenes en 3D del movimiento del paciente, estableciendo protocolos para la sincronización y captura de datos en tiempo real. Adicionalmente, se hizo uso de unos guantes para integrar los sensores del tipo acelerómetro seleccionados junto con el microcontrolador. Esto permitió obtener la medición de la aceleración en las cuatros extremidades del paciente, lo que brinda posibilidad de aplicar técnicas de análisis basadas en fusión de datos de distinta naturaleza. En la figura siguiente se muestra el sensor utilizado para la creación de este sistema de captura.

Resultados Obtenidos

Después del desarrollo preliminar, se llevaron a cabo extensas pruebas y análisis para evaluar la efectividad de los métodos y algoritmos empleados en el análisis de las deficiencias en la caminata de los pacientes. Estos se centraron en la verificación y validación de los resultados obtenidos para garantizar la precisión y confiabilidad del sistema. Además, se realizaron ajustes y optimizaciones para adaptar el sistema a diferentes perfiles de pacientes y condiciones.

Se diseñó una interfaz de usuario para la visualización de datos, que incluía gráficos y tablas para presentar resultados de manera clara. Se realizaron pruebas exhaustivas para validar la precisión y confiabilidad del sistema, ajustando según fuera necesario para mejorar la exactitud del análisis. En la siguiente figura se muestra la interfaz del aplicativo WEB, este permite la configuración de umbrales para los procesos de detección y la visualización de la reportería por paciente. 

Se llevaron a cabo pruebas simuladas y estudios con pacientes reales, bajo la supervisión de profesionales de la salud. Los resultados obtenidos fueron analizados y comparados con evaluaciones manuales realizadas por fisioterapeutas experimentados, demostrando la capacidad del sistema para detectar y cuantificar deficiencias específicas en la marcha. Debajo se muestra un ejemplo de una gráfica de captura de movimiento.

El sistema fue configurado para detectar las siguientes anomalía:

  • Inclinación excesiva de hombros
  • Declive de los codos
  • Diferencia de alineación entre las muñecas
  • Diferencia de alineación entre las rodillas
  • Desalineación en la cadera
  • Separación anormal de rodillas
  • Inclinación de la columna

Conclusiones

El sistema ofrece varias ventajas clínicas, incluida su capacidad para detectar patrones anómalos en la marcha de los pacientes y su potencial en la monitorización continua en entornos clínicos. Además, su adaptabilidad y facilidad de uso lo hacen una herramienta prometedora para la evaluación y el seguimiento de pacientes en rehabilitación. Las perspectivas futuras incluyen la aplicación del sistema en investigaciones adicionales para mejorar aún más su precisión y funcionalidad, así como su integración en entornos clínicos para mejorar la calidad de vida y el bienestar de los pacientes con deficiencias de movimiento.

La adaptabilidad del sistema, su capacidad para detectar patrones anómalos y su potencial en la monitorización continua de pacientes en entornos clínicos, junto con su aplicabilidad en investigaciones futuras, destacan como aspectos prometedores para su utilización.

Referencias

Antico, M., Balletti, N., Laudato, G., Lazich, A., Notarantonio, M., Oliveto, R., Ricciardi, S., Scalabrino, S., & Simeone, J. (2021). Postural Control Assessment via Microsoft Azure Kinect DK: An evaluation study. Computer Methods and Programs in Biomedicine, 209, 106324. https://doi.org/10.1016/j.cmpb.2021.106324

 

 

Sistema de Monitoreo Industrial de Temperatura (SMIT)

Starlyn Peña
Estudiantes Escuela de Ingeniería en Computación y Telemática, Campus Santiago
PUCMM

Desastres en Tiempos de Pandemia: Origen de SMIT

A finales del año 2019 se identificó un nuevo virus en Wuhan, China, marcando un acontecimiento sin precedentes en la historia moderna humana. La subsiguiente pandemia, conocida como Covid-19, mantuvo al mundo en vilo durante casi dos años y, aún en la actualidad, se siguen tomando medidas preventivas para frenar su propagación en ambientes laborales. Esto ha llevado a que muchas empresas tengan protocolos establecidos para detectar síntomas de enfermedades contagiosas entre sus empleados que puedan afectar tanto la salud del personal como la productividad de la empresas. Debido a su alto grado de contagio el Covid-19 marcó un hito importante en el establecimiento de estos protocolos sanitarios, pero enfermedades como el dengue, la gripe estacional u otras infecciones pueden de igual manera presentar un impacto importante para el personal de una empresa.

Estas enfermedades comparten un síntoma común: la posibilidad de presentar fiebre. La fiebre queda definida como el síntoma que se produce cuando la temperatura corporal supera los 38 °C. Esto abre la posibilidad de aplicar  diversas técnicas y tecnologías para tomar las medidas preventivas adecuadas en caso de que una persona posea síntomas febriles y sea portadora de alguna enfermedad contagiosa. Sin embargo, algunas de estos métodos no son muy precisos en el resultado. Por lo tanto, aunque el COVID19 actualmente no nos azote tan de lleno, es necesario en el entorno industrial un método eficiente para cuando se necesita obtener la temperatura de los trabajadores, contribuyendo a la seguridad y salud generales. Debido a esto, se desarrolla SMIT, nuestro tema de discusión en el presente artículo.

En esta entrada de este blog de innovación se presentará la implementación de un sistema para la detección de síntomas febriles mediante el uso de visión computacional y algoritmos de aprendizaje de máquina. El sistema desarrollado cuenta con los aplicativos administrativos necesarios para la identificación de los empleados y el manejo de notificaciones de detección. Adicionalmente, se considera el uso de un sistema de calibración interno de referencia para aumentar la precisión del sistema propuesto.

Marco conceptual: Detección de Síntomas Febriles en entornos industriales

En su artículo (H. D. Septama, M. Komarudin, A. Yudamson, T. Yulianti, M. Pratama and T. P. Zuhelmi, 2021), señala el hecho de que múltiples lugares utilizan personal equipado con pistolas termómetro para medir la temperatura corporal de los visitantes, pese a que esta práctica tiene inconvenientes, ya que implica contacto cercano entre el personal y los visitantes, lo que puede propiciar la propagación del virus. Como solución presenta un sistema de bajo costo para la medición rápida de la temperatura corporal sin contacto, utilizando una cámara térmica integrada con una barrera. Por lo tanto, no se necesita personal para medir la temperatura corporal, ya que los visitantes pueden verificarla de manera independiente, teniendo una precisión en la temperatura del personal de un 98.75%.

En adición, en el artículo de (S. D. Khirade and A. B. Patil, 2015) se discute el hecho de que el procesamiento de imágenes se emplea en la detección de enfermedades en plantas, abarcando pasos como la adquisición de imágenes, preprocesamiento de imágenes, segmentación de imágenes, extracción de características y clasificación. Se exploran los métodos utilizados para detectar enfermedades en plantas mediante imágenes de sus hojas. Además, en nuestro provecho, se profundiza en algunos algoritmos de segmentación y extracción de características.

Siguiendo la misma línea de procesamiento, en el escrito de los autores (Ragavesh Dhandapani1 y Sara Marhoon Humaid Al-Ghafri, 2022) se utiliza un sistema de detección de objetos basado en visión por computadora para reconocer mascarillas faciales y autenticar certificados de vacunación en tiempo real a través de un kit Jetson Xavier. El proceso comprende la captura de video en tiempo real y su posterior procesamiento, que implica la detección facial mediante un clasificador Haar-Cascade y la codificación facial. Luego, se emplea un modelo de aprendizaje profundo pre-entrenado para ubicar la clase objetivo (mascarilla) en el fotograma.

Todos estos trabajos resaltan la oportunidad de mejora en los sistemas de monitoreo de temperatura si se integran tecnologías referentes a procesamiento en el borde, reconocimiento facial, seguimiento de objetos y técnicas estadísticas para robustecer la medición de los sistemas de medición de temperatura sin contacto.

Descripción del Sistema Propuesto

A partir del diagrama mostrado se evidencia la integración de los distintos componentes que brindan el acercamiento basado en computación en el borde para el sistema propuesto. Siendo el corazón del sistema el sistema de procesamiento Jetson AGX Xavier. Este dispositivo en un dispositivo heterogéneo de procesamiento que incluye procesadores de la familia ARM junto con un núcleo de procesamiento gráfico de propósito general (GPGPU, por sus siglas en inglés) pensado para acelerar la ejecución de algoritmos de aprendizaje de máquina y procesos de visión computacional. Adicionalmente, una cámara termográfica de alta precisión Hikvision DS-2TD2617-10/QA

La Implementación de técnicas de procesamiento de imágenes constituye un paso crucial en la operación del sistema. Utilizando técnicas avanzadas como segmentación e identificación, se busca extraer información pertinente al separar las áreas de interés de las no deseadas. Como se puede ver en la imagen, la computadora en el borde elegida presenta un tamaño reducido y su consumo de potencia (menos de 65W) hace que sea idónea para este tipo de aplicaciones. Cuenta con una capacidad teórica máxima de procesamiento de 11 TFLOPS.

En el procesamiento de imágenes, se capturan los frames de la cámara IP termográfica y se procesan para adaptar los algoritmos. Se convierten del espacio de color BGR al RGB y se implementa un algoritmo de detección de rostros. Se obtienen los puntos de referencia, como la ubicación de los ojos y la boca, y se escala la resolución de los videos para ajustarlos. Luego, se localiza el rostro detectado en el STREAM de la cámara termográfica para inicializar el algoritmo de seguimiento y se estiman las temperaturas corporales utilizando un Black Body Calibrator (BBC) y la intensidad del píxel correspondiente al punto identificado del canal lagrimal del ojo. En la figura siguiente se muestra la metodología propuesta para el SMIT.

En cuanto al sensor de temperatura, se utiliza un sensor del tipo resistivo para la medición de la temperatura (RTD) con un amplificador MAX31865 y un ESP32. La RTD se conecta al MAX38165 según las especificaciones del fabricante y se establece la comunicación entre el sensor y la ESP32 mediante el protocolo SPI. Luego, se programa la comunicación utilizando una librería proporcionada por el fabricante.

Resultados Obtenidos

La Implementación de Técnicas de Procesamiento constituye un paso crucial en la operación del sistema. Utilizando técnicas avanzadas como segmentación e identificación, se busca extraer información pertinente al separar las áreas de interés de las no deseadas. El poder detectar marcadores fiduciarios es un punto clave para este proyecto, porque permite identificar las regiones en donde es necesario evaluar la intensidad de los pixeles y compararlo con el punto de referencia provisto por el BBC. En la siguiente imagen se muestra la capacidad del algoritmo, al ser ejecutado en la Jetson AGX Xavier, de detectar un rostro y construir la malla de referencia con los marcadores fiduciarios.

La Aplicación de Monitoreo (Web) representa la interfaz donde la información procesada cobra relevancia práctica. Al recibir y analizar la información, esta aplicación determina si una persona supera la temperatura establecida. En caso afirmativo, emite notificaciones al personal de seguridad, permitiendo la implementación de medidas adecuadas. La misma fue desarrollada bajo el framework minimalista Flask en PYTHON, lo que permite que la ejecución del aplicativo también quede en el mismo equipo para computación en el borde.

Una funcionalidad que fue agregada al sistema es la capacidad de asociar un ID de empleado a un rostro. Adicionalmente, se detecta un estado de ERROR en caso de que el empleado no pueda ser identificado por llevar una mascarilla o en caso de que lleve gafas oscuras. Es importante recalcar que este sistema está pensado para ser utilizado en un ambiente post pandemia, por lo que se puede aplicar el sistema en zonas donde los empleados deban bajar sus mascarillas antes de cruzar, creando la relación ID de empleado con temperatura.

Esta plataforma WEB implementa un sistema de login para acceder al sistema y permite visualizar información relevante como el monitoreo del personal, el estado del sistema y reportes de datos. Se pueden configurar límites de temperatura, escala de visualización, cantidad máxima de rostros detectados, entre otros parámetros. También se pueden crear, modificar y eliminar empleados y usuarios según los permisos correspondientes.

Conclusiones

El sistema exhibe un buen desempeño durante la noche o en entornos con iluminación reducida, donde aun con ausencia de luz de fondo el algoritmo de detección facial logra funcionar adecuadamente. Además, se destaca por su excepcional precisión, con un margen de error mínimo de tan solo 0.5 °C, una cifra notablemente inferior en comparación con otros sistemas. Es crucial destacar la importancia de considerar cuidadosamente el entorno de aplicación en donde sea instalado el sistema, especialmente en ambientes donde la iluminación pueda saturar la imagen, ya que este factor puede influir significativamente en los resultados.

Este sistema SMIT emerge como un proyecto innovador, preciso, fácil de utilizar y seguro. Su desarrollo responde a la necesidad crítica de monitorear la salud en entornos industriales, ofreciendo una herramienta eficaz y de utilidad.

Referencias

 M. K. A. Y. T. Y. M. P. T. Z. H. Septama, «Low Cost Non-Contact Rapid Body Temperature Screening using Thermal Camera for Early Detection of Covid-19 Suspect,» Bandung, 2021.

Gelir, «Image processing for quantitative measurement of e/m in the undergraduate laboratory,» 2019. NVIDIA, «NVIDIA,» 25 Marzo 2019. [En línea]. Available: https://www.nvidia.com/enus/autonomous-machines/embedded-systems/jetson-agx-xavier. [Último acceso: 22 Noviembre 2022].

Alonso, V., Dacal-Nieto, A., Barreto, L., Amaral, A., & Rivero, E. (2019). Industry 4.0 implications in machine vision metrology: An overview. Procedia Manufacturing, 41, 359–366. https://doi.org/10.1016/j.promfg.2019.09.020

Sharma, K. Shanmugasundaram and S. K. Ramasamy, «FAREC — CNN based efficient face recognition technique using Dlib,» 2016 International Conference on Advanced Communication Control and Computing Technologies (ICACCCT), Ramanathapuram, India, 2016, pp. 192-195, doi: 10.1109/ICACCCT.2016.7831628.