Your browser doesn't support javascript.
loading
Show: 20 | 50 | 100
Results 1 - 20 de 32
Filter
1.
Rev. bras. med. esporte ; 30: e2022_0020, 2024. graf
Article in English | LILACS-Express | LILACS | ID: biblio-1449755

ABSTRACT

ABSTRACT Introduction: As the World Health Organization declared the novel coronavirus as a pandemic in March 2020, physical therapy is more difficult to execute, and social distancing is mandatory in the healthcare sector. Objective: In physical therapy, an online video analysis software that provides real-time graphic and numerical information about the patient's movement executions without direct personal contact would mean a significant improvement in eHealth treatment. Methods: We have developed a software layer on top of OpenPose human body position estimation software that can extract the time series of angles of arbitrary body parts using the output coordinates from OpenPose processing the data recorded by two cameras simultaneously. To validate the procedure of determining the joint angles using the Openpose software we have used the Kinovea software. Results: The comparison of the determined maximal knee angle in our and the Kinovea software, which is widely used in biomechanical measurements, was not significantly different (2.03±1.06°, p<0.05) Conclusion: This indicates, that the developed software can calculate the appropriate joint angles with the accuracy that physiotherapy treatments require. As, to our knowledge no such software yet exists, with the help of this software development, therapists could control and correct the exercises in real-time, and also from a distance, and physical therapy effectiveness could be increased. Level of Evidence II; Experimental, comparative.


RESUMEN Introducción: Como la Organización Mundial de la Salud declaró el nuevo coronavirus como una pandemia en marzo de 2020, la fisioterapia es más difícil de ejecutar, el distanciamiento social es obligatorio en el sector de la salud. Objetivo: En la práctica de fisioterapia un software de análisis de vídeo online que proporcione información gráfica y numérica en tiempo real sobre las ejecuciones de movimiento del paciente sin contacto personal directo supondría una mejora significativa en el tratamiento de la eSalud. Métodos: Fue desarrollado una capa de software sobre el software de estimación de posición del cuerpo humano OpenPose que puede extraer la serie temporal de ángulos de partes arbitrarias del cuerpo utilizando las coordenadas de salida de OpenPose procesando los datos registrados por dos cámaras simultáneamente. Para validar el procedimiento de determinación de los ángulos articulares mediante el software Openpose fue utilizado el software Kinovea. Resultados: La comparación del ángulo máximo de rodilla determinado en nuestro software y Kinovea, que es ampliamente utilizado en mediciones biomecánicas, no fue significativamente diferente (2,03±1,06°, p<0,05). Conclusión: Esto indica que el software desarrollado puede calcular los ángulos articulares adecuados con la precisión que requieren los tratamientos de fisioterapia. Dado que aún no existe dicho software, con la ayuda de este desarrollo de software, los terapeutas podrían controlar y corregir los ejercicios en tiempo real, y también a distancia, y se podría aumentar la eficacia de la fisioterapia. Nivel de Evidencia II; Experimental, comparativo.


RESUMO Introdução: Como a Organização Mundial da Saúde declarou o novo coronavírus como pandemia em março de 2020, a fisioterapia é mais difícil de executar, o distanciamento social é obrigatório no setor de saúde. Objetivo: Na prática da fisioterapia, um software de análise de vídeo online que fornece informações gráficas e numéricas em tempo real sobre as execuções de movimento do paciente sem contato pessoal direto significaria uma melhora significativa no tratamento eHealth. Métodos: Desenvolveu-se uma camada de software em cima do software de estimativa de posição do corpo humano OpenPose que pode extrair as séries temporais de ângulos de partes do corpo arbitrárias usando as coordenadas de saída do OpenPose processando os dados gravados por duas câmeras simultaneamente. Para validar o procedimento de determinação dos ângulos articulares utilizando o software Openpose utilizou-se o software Kinovea. Resultados: A comparação do ângulo máximo do joelho determinado em nosso e no software Kinovea, amplamente utilizado em medidas biomecânicas, não foi significativamente diferente (2,03±1,06°, p<0,05) Conclusão: Isso indica que o software desenvolvido pode calcular os ângulos articulares adequados com a precisão que os tratamentos de fisioterapia exigem. Como esse software ainda não existe, com a ajuda do desenvolvimento desse software, os terapeutas puderam controlar e corrigir os exercícios em tempo real, e também à distância, aumentando a eficácia da fisioterapia. Nível de Evidência II; Experimental, comparativo.

2.
Rev. cuba. inform. méd ; 15(2)dic. 2023.
Article in Spanish | LILACS-Express | LILACS | ID: biblio-1536291

ABSTRACT

En las últimas décadas, las imágenes fotoacústicas han demostrado su eficacia en el apoyo al diagnóstico de algunas enfermedades, así como en la investigación médica, ya que a través de ellas es posible obtener información del cuerpo humano con características específicas y profundidad de penetración, desde 1 cm hasta 6 cm dependiendo en gran medida del tejido estudiado, además de una buena resolución. Las imágenes fotoacústicas son comparativamente jóvenes y emergentes y prometen mediciones en tiempo real, con procedimientos no invasivos y libres de radiación. Por otro lado, aplicar Deep Learning a imágenes fotoacústicas permite gestionar datos y transformarlos en información útil que genere conocimiento. Estas aplicaciones poseen ventajas únicas que facilitan la aplicación clínica. Se considera que con estas técnicas se pueden proporcionar diagnósticos médicos confiables. Es por eso que el objetivo de este artículo es proporcionar un panorama general de los casos donde se combina el Deep Learning con técnicas fotoacústicas.


In recent decades, photoacoustic imaging has proven its effectiveness in supporting the diagnosis of some diseases as well as in medical research, since through them it is possible to obtain information of the human body with specific characteristics and depth of penetration, from 1 cm to 6 cm depending largely on the tissue studied, in addition to a good resolution. Photoacoustic imaging is comparatively young and emerging and promises real-time measurements, with non-invasive and radiation-free procedures. On the other hand, applying Deep Learning to photoacoustic images allows managing data and transforming them into useful information that generates knowledge. These applications have unique advantages that facilitate clinical application. It may be possible with these techniques to provide reliable medical diagnoses. That is why the aim of this article is to provide an overview of cases combining Deep Learning with photoacoustic techniques.

3.
CienciaUAT ; 17(2): 181-196, ene.-jun. 2023. tab, graf
Article in Spanish | LILACS-Express | LILACS | ID: biblio-1447828

ABSTRACT

RESUMEN La evapotranspiración de referencia (ETo) es una variable hidrológica de gran importancia en el manejo del riego. Su estimación se realiza con la ecuación de Penman-Montieth (PM), que requiere de muchas variables meteorológicas, las cuales, a veces, no se encuentran disponibles. Dado que la ETo es una variable no lineal y compleja, en los últimos años han surgido métodos alternativos para su estimación, como las redes neuronales artificiales (RNA). El objetivo del presente trabajo fue estimar la evapotranspiración de referencia (ETo) usando la ecuación de Penman-Montieth, a fin de desarrollar modelos de redes neuronales artificiales (RNA) que permitan predecir la ETo en regiones con información climatológica limitada, y su vez comparar el desempeño de tres modelos de RNA: FFNN, ERNN y NARX. Se utilizó información diaria durante el periodo 1 de enero de 2007 al 31 de diciembre de 2018, de las estaciones meteorológicas ENP8 y ENP4 de la CDMX. Se realizó un análisis de correlación y el análisis de sensibilidad de Garson para estudiar 2 casos (red estática FFNN y redes dinámicas: ERNN y NARX) usando 3 modelos de RNA: 1) RNA con 6 entradas: radiación solar (Rad), temperatura máxima y mínima (Tmax, Tmin), humedad relativa máxima y mínima (HRmax, HRmin) y velocidad del viento (u); y 2) RNA con 2 entradas (Rad y Tmax). La variable de salida fue la ETo calculada con la ecuación de PM. En todos los casos, las 3 RNA fueron muy parecidas, la diferencia más notable es que las redes dinámicas (ERNN y NARX) requieren de menor número de iteraciones para llegar al desempeño óptimo. Las RNA entrenadas, únicamente con Rad y Tmax como entradas, fueron capaces de predecir la ETo en el largo plazo, durante 440 d, en otra estación meteorológica cercana (ENP4), con eficiencias mayores al 90 %.


ABSTRACT Reference evapotranspiration (ETo) is a hydrological variable of great importance in irrigation management. Its estimation is carried out with the Penman-Montieth (PM) equation that requires many meteorological variables and that are sometimes not available. Since ETo is a nonlinear and complex variable, in recent years alternative methods have emerged for its estimation, such as artificial neural networks (ANN). The objective of this work was to estimate the reference evapotranspiration (ETo) using the Penman-Montieth equation, in order to develop artificial neural network (ANN) models that allow ETo to be predicted in regions with limited climatological information, and in turn to compare the performance of three RNA models: FFNN, ERNN and NARX. Daily informtion was used during the January 1, 2007 to December 31, 2018 period, for the ENP8 and ENP4 meteorological stations in Mexico city. Based on the correlation analysis and the Garson sensitivity analysis, 2 cases were studied for the 3 ANN models: 1) ANN with 6 inputs: solar radiation (Rad), maximum and minimum temperature (Tmax, Tmin), maximum and minimum relative humidity (RHmax, RHmin), and wind speed (u), and 2) RNA with 2 inputs (Rad and Tmax). The output variable was the ETo, calculated with the PM equation. In all cases, the performance of the 3 ANNs was very similar. The most notable difference is that the dynamic networks (ERNN and NARX) require fewer iterations to achieve the optimum performance. ANNs trained only with radiation and maximum temperature as inputs were able to predict a long-term ETo for 440 at another nearby meteorological station (ENP4), with efficiencies greater than 90 %.

4.
Rev. cuba. inform. méd ; 14(2): e519, jul.-dic. 2022. tab, graf
Article in Spanish | LILACS, CUMED | ID: biblio-1408542

ABSTRACT

Este trabajo propone un sistema de diagnóstico del trastorno depresivo para el Centro de Salud Juan Pablo II. En este centro los especialistas aplican como método de evaluación el cuestionario BDI-II (Inventario de Depresión de Beck), que limita el proceso de diagnóstico porque solo contempla la sumatoria de un puntaje como resultado final. Por lo tanto, para mejorar el método de evaluación se propone la construcción de un modelo de diagnóstico basado en redes neuronales y la adaptación del cuestionario BDI-II recopilando ítems del cuestionario asociados a sus respectivos factores establecidos: emocional, cognitivo, físico y de motivación siendo las variables de entrada de la primera capa. El modelo tiene tres capas ocultas y finalmente se obtendrá una capa de salida con el diagnostico general y específico que detallará el resultado del paciente a fin de que el especialista realice un plan personalizado de tratamiento que se ajuste mejor a las necesidades del paciente(AU)


This work proposes a diagnostic system for depressive disorder for the Juan Pablo II Health Center where the specialists apply the BDI-II questionnaire (Beck's Depression Inventory) as evaluation method, which limits the diagnostic process because it only contemplates the sum of a score as a final result. Therefore, to improve the evaluation method, the construction of a diagnostic model based on neural networks and the adaptation of the BDI-II collecting questionnaire items associated with their respective established factors: emotional, cognitive, physical and motivation, being the input variables of the first layer, having three hidden layers and finally an output layer will be sought with the general and specific diagnosis that details the result of the patient so that the specialist can make a personalized treatment plan that better adjusts to the patient needs(AU)


Subject(s)
Humans , Male , Female , Medical Informatics Applications , Surveys and Questionnaires , Neural Networks, Computer , Depressive Disorder/diagnosis , Peru
5.
Article in Spanish | LILACS-Express | LILACS | ID: biblio-1536159

ABSTRACT

En este trabajo consideramos 148 semioquímicos reportados para la familia Scarabaeidae, cuya estructura química fue caracterizada empleando un conjunto de 200 descriptores moleculares de cinco clases distintas. La selección de los descriptores más discriminantes se realizó con tres técnicas: análisis de componentes principales, por cada clase de descriptores, bosques aleatorios y Boruta-Shap, aplicados al total de descriptores. A pesar de que las tres técnicas son conceptualmente diferentes, seleccionan un número de descriptores similar de cada clase. Propusimos una combinación de técnicas de aprendizaje de máquina para buscar un patrón estructural en el conjunto de semioquímicos y posteriormente realizar la clasificación de estos. El patrón se estableció a partir de la alta pertenencia de un subconjunto de estos metabolitos a los grupos que fueron obtenidos por un método de agrupamiento basado en lógica difusa, C-means; el patrón descubierto corresponde a las rutas biosintéticas por las cuales se obtienen biológicamente. Esta primera clasificación se corroboró con el empleo de mapas autoorganizados de Kohonen. Para clasificar aquellos semioquímicos cuya pertenencia a una ruta no quedaba claramente definida, construimos dos modelos de perceptrones multicapa, los cuales tuvieron un desempeño aceptable.


In this work we consider 148 semiochemicals reported for the family Scarabaeidae, whose chemical structure was characterized using a set of 200 molecular descriptors from five different classes. The selection of the most discriminating descriptors was carried out with three different techniques: Principal Component Analysis, for each class of descriptors, Random Forests and Boruta-Shap, applied to the total of descriptors. Although the three techniques are conceptually different, they select a similar number of descriptors from each class. We proposed a combination of machine learning techniques to search for a structural pattern in the set of semiochemicals and then perform their classification. The pattern was established from the high belonging of a subset of these metabolites to the groups that were obtained by a grouping method based on fuzzy C-means logic; the discovered pattern corresponds to the biosynthetic pathway by which they are obtained biologically. This first classification was corroborated with Kohonen's self-organizing maps. To classify those semiochemicals whose belonging to a biosynthetic pathway was not clearly defined, we built two models of Multilayer Perceptrons which had an acceptable performance.


Neste trabalho consideramos 148 semioquímicos reportados para a família Scarabaeidae, cuja estrutura química foi caracterizada usando um conjunto de 200 descritores moleculares de 5 classes diferentes. A seleção dos descritores mais discriminantes foi realizada com três técnicas diferentes: Análise de Componentes Principais, para cada classe de descritores, Florestas Aleatórias e Boruta-Shap, aplicadas a todos os descritores. Embora as três técnicas sejam conceitualmente diferentes, elas selecionaram um número semelhante de descritores de cada classe. Nós propusemos uma combinação de técnicas de aprendizado de máquina para buscar um padrão estrutural no conjunto de semioquímicos e então realizar sua classificação. O padrão foi estabelecido a partir da alta pertinência de um subconjunto desses metabólitos aos grupos que foram obtidos por um método de agrupamento baseado em lógica fuzzy, C-means; o padrão descoberto corresponde às rotas biossintéticas pelas quais eles são obtidos biologicamente. Essa primeira classificação foi corroborada com o uso dos mapas auto-organizados de Kohonen. Para classificar os semioquímicos cuja pertença a uma rota não foi claramente definida, construímos dois modelos de Perceptrons Multicamadas que tiveram um desempenho aceitável.

6.
Rev. adm. pública (Online) ; 56(3): 426-440, mai.-jun. 2022. tab, graf
Article in Portuguese | LILACS | ID: biblio-1387590

ABSTRACT

Resumo A evasão fiscal é a consequência da prática da sonegação. Apenas no Brasil, estima-se que ela corresponda a 8% do PIB. Com isso, os governos necessitam de sistemas inteligentes para apoiar os auditores fiscais na identificação de sonegadores. Tais sistemas dependem de dados sensíveis dos contribuintes para o reconhecimento dos padrões, que são protegidos por lei. Com isso, o presente trabalho apresenta uma solução inteligente, capaz de identificar os perfis de potenciais sonegadores com o uso apenas de dados abertos, públicos, disponibilizados pela Receita Federal e pelo Conselho Administrativo Tributário do Estado de Goiás, entre outros cadastros públicos. Foram gerados três modelos que utilizaram os recursos Random Forest, Redes Neurais e Grafos. Em validação depois de melhorias finas, foi possível obter acurácia superior a 98% na predição do perfil inadimplente. Por fim, criou-se uma solução de software visual para uso e validação pelos auditores fiscais do estado de Goiás.


Resumen La evasión fiscal es la consecuencia de la práctica de la defraudación tributaria. En Brasil, se estima que corresponde al 8% del PIB. Por lo tanto, los gobiernos necesitan y utilizan sistemas inteligentes para ayudar a los agentes de hacienda a identificar a los defraudadores fiscales. Dichos sistemas se basan en datos confidenciales de los contribuyentes para el reconocimiento de patrones, que están protegidos por ley. Este trabajo presenta una solución inteligente, capaz de identificar perfiles de potenciales defraudadores fiscales, utilizando únicamente datos públicos abiertos, puestos a disposición por la Hacienda Federal y por el Consejo Administrativo Tributario del Estado de Goiás, entre otros registros públicos. Se generaron tres modelos utilizando random forest y neural networks. En la validación después de finas mejoras, fue posible obtener una precisión superior al 98% en la predicción del perfil moroso. Finalmente, se creó una solución de software visual para uso y validación por parte de los auditores fiscales del estado de Goiás.


Abstract Tax evasion is the practice of the non-payment of taxes. In Brazil alone, it is estimated as 8% of GDP. Thus, governments must use intelligent systems to support tax auditors to identify tax evaders. Such systems seek to recognize patterns and rely on sensitive taxpayer data that is protected by law and difficult to access. This research presents a smart solution, capable of identifying the profile of potential tax evaders, using only open and public data, made available by the Brazilian internal revenue service, the administrative council of tax appeals of the State of Goiás, and other public sources. Three models were generated using Random Forest, Neural Networks, and Graphs. The validation after fine improvements offered an accuracy greater than 98% in predicting tax evading companies. Finally, a web-based solution was created to be used and validated by tax auditors of the State of Goiás.


Subject(s)
Taxes , Artificial Intelligence
7.
Rev. argent. cardiol ; 90(2): 137-140, abr. 2022. graf
Article in Spanish | LILACS-Express | LILACS | ID: biblio-1407129

ABSTRACT

RESUMEN Introducción: Las técnicas de inteligencia artificial han demostrado tener un gran potencial en el área de la cardiología, especialmente para identificar patrones imperceptibles para el ser humano. En este sentido, dichas técnicas parecen ser las adecuadas para identificar patrones en la textura del miocardio con el objetivo de identificar y cuantificar la fibrosis. Objetivos: Proponer un nuevo método de inteligencia artificial para identificar fibrosis en imágenes cine de resonancia cardíaca. Materiales y métodos: Se realizó un estudio retrospectivo observacional en 75 sujetos del Sanatorio San Carlos de Bariloche. El método propuesto analiza la textura del miocardio en las imágenes cine CMR (resonancia magnética cardíaca) mediante el uso de una red neuronal convolucional que determinar el daño local del tejido miocárdico. Resultados: Se observó una precisión del 89% para cuantificar el daño tisular local en el conjunto de datos de validación y de un 70% para el conjunto de prueba. Además, el análisis cualitativo realizado muestra una alta correlación espacial en la localización de la lesión. Conclusiones: El método propuesto permite identificar espacialmente la fibrosis únicamente utilizando la información de los estudios de cine de resonancia magnética nuclear, mostrando el potencial de la técnica propuesta para cuantificar la viabilidad miocárdica en un futuro o estudiar la etiología de las lesiones.


ABSTRACT Background: Artificial intelligence techniques have demonstrated great potential in cardiology, especially to detect imperceptible patterns for the human eye. In this sense, these techniques seem to be adequate to identify patterns in the myocardial texture which could lead to characterize and quantify fibrosis. Purpose: The aim of this study was to postulate a new artificial intelligence method to identify fibrosis in cine cardiac magnetic resonance (CMR) imaging. Methods: A retrospective observational study was carried out in a population of 75 subjects from a clinical center of San Carlos de Bariloche. The proposed method analyzes the myocardial texture in cine CMR images using a convolutional neural network to determine local myocardial tissue damage. Results: An accuracy of 89% for quantifying local tissue damage was observed for the validation data set and 70% for the test set. In addition, the qualitative analysis showed a high spatial correlation in lesion location. Conclusions: The postulated method enables to spatially identify fibrosis using only the information from cine nuclear magnetic resonance studies, demonstrating the potential of this technique to quantify myocardial viability in the future or to study the etiology of lesions.

8.
Medicina (B.Aires) ; 82(supl.1): 2-5, mar. 2022. graf
Article in Spanish | LILACS-Express | LILACS | ID: biblio-1375885

ABSTRACT

Resumen La neurociencia moderna aborda el problema de funcionamiento global del cerebro para poder comprender los procesos neurobiológicos que subyacen a las funciones mentales, y especialmente, a la consciencia. La actividad cerebral está basada en el intercambio de información entre neuronas a través de contactos llamados sinapsis. Las neuronas forman redes de conexión entre ellas (circuitos), que están dedicados a procesar una parcela específica de información (visual, auditiva, motora…). Los circuitos establecen redes entre ellos, combinando diferentes modalidades de información para generar lo que conocemos como actividad mental. El estudio de las conexiones entre regiones corticales, que se ha llamado conectoma, está siendo abordado mediante técnicas de neuroimagen como la resonancia magnética nuclear, que aportan datos sobre la densidad de conexiones del cerebro. La capacidad del cerebro de crear nuevas conexiones en función de la experiencia (plasticidad cerebral), sugiere que el conectoma es una estructura dinámica en constante interacción con estímulos externos e internos. La pregunta sobre si el conocimiento del conectoma de un individuo nos per mitiría predecir su conducta parece que todavía no tiene respuesta clara, porque no conocemos los parámetros físicos que ligan la complejidad de las conexiones del cerebro con la aparición de las funciones mentales y de la consciencia. Por el momento, parece que la compleja e impredecible conducta no es el simple resultado de procesos lineales de interacción neuronal. La incertidumbre prima al determinismo, lo que abre la puerta a la posibilidad de un mecanismo cuántico para explicar la consciencia.


Abstract Modern neuroscience addresses the problem of the global functioning of the brain in order to understand the neurobiological processes that underlie mental functions, and especially, consciousness. Brain activity is based on the exchange of infor mation between neurons through contacts or synapses. Neurons form networks of connection between them (circuits), which are dedicated to processing a specific type of information (visual, auditory, motor…). The circuits establish networks among themselves, combining different modalities of information to generate what we know as mental activity. The study of connections between cortical regions, which has been called connectome, is being approached through neuroimaging techniques such as nuclear magnetic resonance that provide data on the density of connections in the brain. The brain's ability to create new connections based on experience (brain plasticity) suggests that the connectome is a dynamic structure in constant interaction with external and internal stimuli. The question about whether knowledge of an individual's connectome would allow us to predict his or her behavior seems to have no clear answer yet, because we do not know the physical parameters that link the complexity of the brain's connections with the appearance of mental functions and consciousness. At the moment, it seems that the complex and unpredictable behavior is not the simple result of linear processes of neuronal interaction. Uncertainty prevails over determinism, which opens the door to the possibility of a quantum mechanism to explain consciousness.

9.
rev. udca actual. divulg. cient ; 24(2): e1917, jul.-dic. 2021. tab, graf
Article in Spanish | LILACS-Express | LILACS | ID: biblio-1361222

ABSTRACT

RESUMEN La presencia del tizón tardío o gota en el cultivo de papa afecta directamente el crecimiento de la planta y el desarrollo del tubérculo, por ello, es importante la detección temprana de la enfermedad. Actualmente, la aplicación de redes neuronales convolucionales es una oportunidad orientada a la identificación de patrones en la agricultura de precisión, incluyendo el estudio del tizón tardío, en el cultivo de papa. Este estudio describe un modelo de aprendizaje profundo capaz de reconocer el tizón tardío en el cultivo de papa, por medio de la clasificación de imágenes de las hojas. Se utilizó, en la aplicación de este modelo, el conjunto de datos aumentado de PlantVillage, para entrenamiento. El modelo propuesto ha sido evaluado a partir de métricas de rendimiento, como precisión, sensibilidad, puntaje F1 y exactitud. Para verificar la efectividad del modelo en la identificación y la clasificación del tizón tardío y comparado en rendimiento con arquitecturas. como AlexNet, ZFNet, VGG16 y VGG19. Los resultados experimentales obtenidos con el conjunto de datos seleccionado mostraron que el modelo propuesto alcanza una exactitud del 90 % y un puntaje F1, del 91 %. Por lo anterior, se concluye que el modelo propuesto es una herramienta útil para los agricultores en la identificación del tizón tardío y escalable a plataformas móviles, por la cantidad de parámetros que lo comprenden.


ABSTRACT The presence of late blight in potato crops directly affects plant growth and tuber development; therefore, early detection of the disease is important. Currently, the application of convolutional neural networks is an opportunity oriented to the identification of patterns in precision agriculture, including the study of late blight in potato crops. This study describes a deep learning model capable of recognizing late blight in potato crops by means of leaf image classification. The PlantVillage augmented dataset was used in the application of this model for training. The proposed model has been evaluated from performance metrics such as precision, sensitivity, F1 score, and accuracy; to verify the effectiveness of the model in the identification and classification of late blight and compared in performance with architectures such as AlexNet, ZFNet, VGG16, and VGG19. The experimental results obtained with the selected data set showed that the proposed model achieves an accuracy of 90 % and an F1 score of 91 %. Therefore, it is concluded that the proposed model is a useful tool for farmers in the identification of late blight and scalable to mobile platforms due to the number of parameters that comprise it.

10.
Vive (El Alto) ; 4(12): 624-633, dic. 2021. ilus., tab.
Article in Spanish | LILACS | ID: biblio-1390561

ABSTRACT

Se estima que en 2019 murieron alrededor de 1,4 millones de personas infectadas por tuberculosis, gran parte de ellos en países en desarrollo. Si la tuberculosis se hubiera diagnosticado oportunamente se habría evitado la muerte de las personas infectadas. Uno de los métodos de detección de tuberculosis más relevante es el análisis de radiografías del tórax; sin embargo, contar con profesionales altamente capacitados para el diagnóstico de la tuberculosis en todos los centros de salud es imposible en los países emergentes, este es uno de los principales motivos de que este método no sea ampliamente usado. En las últimas décadas las redes neuronales han tenido un papel muy relevante en la solución de problemas de la sociedad y en especial en el sector salud. Se ha empleado tres algoritmos de aprendizaje profundo reconocidos en el desarrollo de visión computacional que son VGG19, MobileNet e InceptionV3, se ha logrado obtener resultados muy auspiciosos para la detección de la tuberculosis. Caso especial ha sido MobileNet que ha destacado entre las demás, dando resultados importantes en las diferentes métricas de evaluación empleadas. Además, MobileNet cuenta con una arquitectura menos compleja y los pesos obtenidos después del entrenamiento son muy menores en comparación de los otros dos algoritmos. Se concluye que MobileNet es el algoritmo de Deep Learning más eficiente a comparación de VGG19 e InceptionV3, cuenta con mejor precisión para la detección de la tuberculosis y; el costo computación y tiempo de procesamiento es significativamente menor.


It is estimated that around 1.4 million people infected with tuberculosis died in 2019, most of them in developing countries. If tuberculosis had been diagnosed in time, the death of infected people would have been prevented. One of the most relevant tuberculosis detection methods is the analysis of chest radiographs; However, having highly trained professionals for the diagnosis of tuberculosis in all health centers is impossible in emerging countries, this is one of the main reasons why this method is not widely used. In recent decades, neural networks have played a very relevant role in solving problems in society and especially in the health sector. Three recognized Deep Learning algorithms have been used in the development of computational vision that are VGG19, MobileNet and InceptionV3, it has been possible to obtain very auspicious results for the detection of tuberculosis. MobileNet has been a special case, which has stood out among the others, giving important results in the different evaluation metrics used. In addition, MobileNet has a less complex architecture and the weights obtained after training are very less compared to the other two algorithms. It is concluded that MobileNet is the most efficient Deep Learning algorithm compared to VGG19 and InceptionV3, it has better precision for the detection of tuberculosis and the computational cost and processing time is significantly lower.


Estima-se que cerca de 1,4 milhão de pessoas infectadas com tuberculose morreram em 2019, a maioria delas em países em desenvolvimento. Se a tuberculose tivesse sido diagnosticada a tempo, a morte de pessoas infectadas teria sido evitada. Um dos métodos de detecção de tuberculose mais relevantes é a análise de radiografias de tórax; No entanto, ter profissionais altamente capacitados para o diagnóstico da tuberculose em todos os centros de saúde é impossível nos países emergentes, esse é um dos principais motivos pelo qual esse método não é amplamente utilizado. Nas últimas décadas, as redes neurais têm desempenhado um papel muito relevante na resolução de problemas na sociedade e principalmente no setor da saúde. Três algoritmos de aprendizado profundo reconhecidos foram usados no desenvolvimento da visão computacional que são VGG19, MobileNet e InceptionV3, sendo possível obter resultados muito auspiciosos para a detecção da tuberculose. A MobileNet tem sido um caso especial, que tem se destacado entre os demais, apresentando resultados importantes nas diferentes métricas de avaliação utilizadas. Além disso, o MobileNet possui uma arquitetura menos complexa e os pesos obtidos após o treinamento são muito menores em comparação com os outros dois algoritmos. Conclui-se que o MobileNet é o algoritmo de aprendizado profundo mais eficiente em comparação ao VGG19 e ao InceptionV3, possui melhor precisão para detecção de tuberculose e; o custo de computação e o tempo de processamento são significativamente menores.


Subject(s)
Tuberculosis , X-Rays , Algorithms
11.
Article in Spanish | LILACS, CUMED | ID: biblio-1408108

ABSTRACT

Este artículo tuvo como propósito caracterizar el texto libre disponible en una historia clínica electrónica de una institución orientada a la atención de pacientes en embarazo. La historia clínica electrónica, más que ser un repositorio de datos, se ha convertido en un sistema de soporte a la toma de decisiones clínicas. Sin embargo, debido al alto volumen de información y a que parte de la información clave de las historias clínicas electrónicas está en forma de texto libre, utilizar todo el potencial que ofrece la información de la historia clínica electrónica para mejorar la toma de decisiones clínicas requiere el apoyo de métodos de minería de texto y procesamiento de lenguaje natural. Particularmente, en el área de Ginecología y Obstetricia, la implementación de métodos del procesamiento de lenguaje natural podría ayudar a agilizar la identificación de factores asociados al riesgo materno. A pesar de esto, en la literatura no se registran trabajos que integren técnicas de procesamiento de lenguaje natural en las historias clínicas electrónicas asociadas al seguimiento materno en idioma español. En este trabajo se obtuvieron 659 789 tokens mediante los métodos de minería de texto, un diccionario con palabras únicas dado por 7 334 tokens y se estudiaron los n-grams más frecuentes. Se generó una caracterización con una arquitectura de red neuronal CBOW (continuos bag of words) para la incrustación de palabras. Utilizando algoritmos de clustering se obtuvo evidencia que indica que palabras cercanas en el espacio de incrustación de 300 dimensiones pueden llegar a representar asociaciones referentes a tipos de pacientes, o agrupar palabras similares, incluyendo palabras escritas con errores ortográficos. El corpus generado y los resultados encontrados sientan las bases para trabajos futuros en la detección de entidades (síntomas, signos, diagnósticos, tratamientos), la corrección de errores ortográficos y las relaciones semánticas entre palabras para generar resúmenes de historias clínicas o asistir el seguimiento de las maternas mediante la revisión automatizada de la historia clínica electrónica(AU)


The purpose of this article was to characterize the free text available in an electronic health record of an institution, directed at the care of patients in pregnancy. More than being a data repository, the electronic health record (HCE) has become a clinical decision support system (CDSS). However, due to the high volume of information, as some of the key information in EHR is in free text form, using the full potential that EHR information offers to improve clinical decision-making requires the support of methods of text mining and natural language processing (PLN). Particularly in the area of gynecology and obstetrics, the implementation of PLN methods could help speed up the identification of factors associated with maternal risk. Despite this, in the literature there are no papers that integrate PLN techniques in EHR associated with maternal follow-up in Spanish. Taking into account this knowledge gap, in this work a corpus was generated and characterized from the EHRs of a gynecology and obstetrics service characterized by treating high-risk maternal patients. PLN and text mining methods were implemented on the data, obtaining 659 789 tokens and a dictionary with unique words given by 7 334 tokens. The characterization of the data was developed from the identification of the most frequent words and n-grams and a vector representation of embedding words in a 300-dimensional space was performed using a CBOW (Continuous Bag of Words) neural network architecture. The embedding of words allowed to verify by means of Clustering algorithms, that the words associated to the same group can come to represent associations referring to types of patients, or group similar words, including words written with spelling errors. The corpus generated and the results found lay the foundations for future work in the detection of entities (symptoms, signs, diagnoses, treatments), correction of spelling errors and semantic relationships between words to generate summaries of medical records or assist the follow-up of mothers through the automated review of the electronic health record(AU)


Subject(s)
Humans , Female , Pregnancy , Natural Language Processing , Electronic Health Records
12.
Rev. argent. cardiol ; 89(5): 435-446, oct. 2021. tab, graf
Article in Spanish | LILACS-Express | LILACS | ID: biblio-1356921

ABSTRACT

RESUMEN Introducción: En el contexto de la insuficiencia cardíaca (IC) existen scores de riesgo para evaluar la mortalidad por cualquier causa durante el primer año, con áreas bajo la curva ROC que oscilan entre 0,59 y 0,80. Objetivo: Desarrollar y validar un modelo basado en algoritmos de redes neuronales (RN) destinado a mejorar el rendimiento de los modelos tradicionales para predecir mortalidad a corto y mediano plazo de pacientes con IC aguda. Material y métodos: Se analizó una base de datos con 181 variables de 483 pacientes con IC aguda en un hospital de comunidad de la Ciudad de Buenos Aires (junio de 2005-junio de 2019). Se utilizaron 25 variables para calcular 5 modelos de riesgo validados para predecir la mortalidad a 30 días, 6 meses y un año: EFFECT, ADHERE, GWTG-HF, 3C-HF y ACUTE-HF. Resultados: La edad media fue 78 ± 11,1años, 58% eran varones, el 35% de las IC eran de etiología isquémico necrótica, y la fracción de eyección media fue 52% (35-60). En término de discriminación a 30 días, fueron mejores el score EFFECT (ROC: 0,68) y el 3C-HF (ROC: 0,67) que el ACUTE- HF (ROC: 0,54). A los 6 meses y al año, el score EFFECT (ROC: 0,69 y 0,69) superó al ADHERE (ROC: 0,53 y 0,56) (p=0,011 y p = 0,003, respectivamente), y los scores EFFECT GWRG-HF (ROC: 0,68 y 0,66) y 3C-HF (ROC: 0,67 y 0,67) superaron al score ACUTE-HF (ROC: 0,53 y 0,56). De los algoritmos de RN los mejores resultados se obtuvieron con un perceptrón multicapa (PMC) con dos capas ocultas. Se usó una RN de arquitectura de capas 24-9-7-2 con los siguientes resultados: ROC: 0,82, valor predictivo negativo (VPN) 93,2% y valor predictivo positivo (VPP) 66,7% para mortalidad a 30 días; ROC: 0,87, VPN: 89,1% y VPP: 78,6% para mortalidad a 6 meses; y ROC: 0,85, VPN: 85,6% y VPP: 78,9% para mortalidad al año. En términos de discriminación, los algoritmos de RN superaron a los scores tradicionales ( p <0,001). Los factores que obtuvieron ≥50% de importancia estandarizada para predecir la mortalidad a los 30 días fueron en orden descendente la creatinina sérica, la hemoglobina, la frecuencia respiratoria, la urea, el sodio, la edad y la presión arterial sistólica. Agregaron capacidad pronóstica la clase III-IV NYHA y la demencia para mortalidad a 6 meses, y la frecuencia cardíaca y la disfunción renal crónica para mortalidad al año. Conclusiones: Los modelos con algoritmos de RN fueron significativamente superiores a los scores de riesgo tradicionales en nuestros pacientes con IC. Estos hallazgos constituyen una hipótesis de trabajo a validar con una mayor muestra de casos y en forma multicéntrica.


ABSTRACT Background: Heart failure (HF) risk scores to assess all-cause mortality during the first year have areas under the ROC curve (AUC) ranging between 0.59 and 0.80 Objective: To develop and validate a neural network (NN) algorithm-based model to improve traditional scores' performance for predicting short- and mid-term mortality of patients with acute HF. Methods: A prospective clinical database was analyzed including 483 patients admitted with diagnosis of acute HF in a coronary care unit community hospital of Buenos Aires, between June 2005 and June 2019. Among 181 demographic, laboratory, treatment and follow-up variables, only 25 were selected to calculate five acute heart failure risk scores aimed to predict 30-day, 6-month and 1-year mortality: EFFECT, ADHERE, GWTG-HF, 3C-HF, and ACUTE-HF. Results: Mean age was 78 ± 11.1 years, 58% were men, 35% had ischemic necrotic HF and median left ventricular ejection fraction was 52% (35-60). At 30 days, the EFFECT score (AUC:0.68) and the 3C-HF score (AUC: 0.68) showed better performance than the ACUTE-HF score (AUC: 0.54). At 6-month and 1-year follow-up, the EFFECT score (ROC: 0.69 and 0.69) outperformed the ADHERE score (AUC: 0.53 and 0.56), and EFFECT (AUC: 0.69 and 0.69), GWRG-HF (AUC = 0.68 and 0.66), and 3C-HF (AUC:0.67 and 0.67) scores outperformed the ACUTE-HF score (AUC:0.53 and 0.56). The best results with NN algorithms were obtained with a two-hidden layer multilayer perceptron. A 24-9-7-2-layer architecture NN was used with the following results: AUC: 0.82, negative predictive value (NPV) 93.2% and positive predictive value (PPV) 66.7% for 30-day mortality; AUC: 0.87, NPV: 89.1% and PPV: 78,6% for 6-month mortality; and AUC: 0.85, NPV: 85.6% and PPV: 78.9% for 1-year mortality. In terms of discrimination, NN algorithms outperformed all the traditional scores (p <0.001). For this algorithm, the most influential factors in descending order that scored ≥50% normalized importance to predict 30-day mortality were serum creatinine, hemoglobin, respiratory rate, blood urea nitrogen, serum sodium, age and systolic blood pressure. Also, NYHA functional class III-IV and dementia added prognostic capacity to 6-month mortality, and heart rate and chronic kidney disease to 1-year mortality. Conclusions: The models with NN algorithms were significantly superior to traditional risk scores in our population of patients with HF. These findings constitute a working hypothesis to be validated with a larger and multicenter sample of cases.

13.
Rev. bras. med. esporte ; 27(spe2): 83-86, Apr.-June 2021. tab, graf
Article in English | LILACS | ID: biblio-1280091

ABSTRACT

ABSTRACT Athletes' psychological control ability directly affects competitions. Therefore, it is necessary to supervise the athletes' game psychology. Athletes' game state supervision model is constructed through the facial information extraction algorithm. The homography matrix and the calculation method are introduced. Then, two methods are introduced to solve the rotation matrix from the homography matrix. After the rotation matrix is solved, the method of obtaining the facial rotation angle from the rotation matrix is introduced. The two methods are compared in the simulation data, and the advantages and disadvantages of each algorithm are analyzed to determine the method used in this paper. The experimental results show that the model prediction accuracy reaches 70%, which can effectively supervise the psychological state of athletes. This research study is of great significance to improve the performance of athletes in competitions and improve the application of back propagation (BP) neural network algorithm.


RESUMO A capacidade de controle psicológico de atletas afeta diretamente as competições. Portanto, é muito necessário supervisionar a psicologia de jogo desses indivíduos. O modelo de supervisão do estado de jogo dos atletas é construído através do algoritmo de extração de informações faciais. A matriz de homografia e o método de cálculo são introduzido. Em seguida, são introduzidos dois métodos para resolver a matriz de rotação a partir da matriz de homografia. Após a resolução da matriz de rotação, introduz-se o método de obtenção do ângulo de rotação facial a partir dessa matriz. Os dois métodos são comparados nos dados da simulação, e as vantagens e desvantagens de cada algoritmo são analisadas para determinar o método utilizado neste estudo. Os resultados experimentais mostram que a precisão da previsão do modelo atinge 70%, sendo possível efetivamente supervisionar o estado psicológico dos atletas. O presente estudo é de grande importância para melhorar o desempenho dos atletas em competições e melhorar a aplicação do algoritmo de rede neural backpropagation (BP).


RESUMEN La capacidad de control psicológico de atletas afecta directamente las competencias. Por lo tanto, es muy necesario supervisar la psicología de juego de esos individuos. El modelo de supervisión del estado de juego de los atletas es construido por medio del algoritmo de extracción de informaciones faciales. La matriz de homografía y el método de cálculo son introducidos. Enseguida, son introducidos dos métodos para resolver la matriz de rotación a partir de la matriz de homografía. Después de la resolución de la matriz de rotación, se introduce el método de obtención del ángulo de rotación facial a partir de esa matriz. Los dos métodos son comparados en los datos de la simulación, y las ventajas y desventajas de cada algoritmo son analizadas para determinar el método utilizado en este estudio. Los resultados experimentales muestran que la precisión de la previsión del modelo alcanza 70%, siendo posible efectivamente supervisar el estado psicológico de los atletas. El presente estudio es de gran importancia para mejorar el desempeño de los atletas en competencias y mejorar la aplicación del algoritmo de red neuronal backpropagation (BP).


Subject(s)
Humans , Neural Networks, Computer , Athletic Performance/psychology , Athletes/psychology , Algorithms
14.
Arch. cardiol. Méx ; 91(1): 58-65, ene.-mar. 2021. tab, graf
Article in English | LILACS | ID: biblio-1152861

ABSTRACT

Abstract Objective: The aim of this study was to develop, train, and test different neural network (NN) algorithm-based models to improve the Global Registry of Acute Coronary Events (GRACE) score performance to predict in-hospital mortality after an acute coronary syndrome. Methods: We analyzed a prospective database, including 40 admission variables of 1255 patients admitted with the acute coronary syndrome in a community hospital. Individual predictors included in GRACE score were used to train and test three NN algorithm-based models (guided models), namely: one- and two-hidden layer multilayer perceptron and a radial basis function network. Three extra NNs were built using the 40 admission variables of the entire database (unguided models). Expected mortality according to GRACE score was calculated using the logistic regression equation. Results: In terms of receiver operating characteristic area and negative predictive value (NPV), almost all NN algorithms outperformed logistic regression. Only radial basis function models obtained a better accuracy level based on NPV improvement, at the expense of positive predictive value (PPV) reduction. The independent normalized importance of variables for the best unguided NN was: creatinine 100%, Killip class 61%, ejection fraction 52%, age 44%, maximum creatine-kinase level 41%, glycemia 40%, left bundle branch block 35%, and weight 33%, among the top 8 predictors. Conclusions: Treatment of individual predictors of GRACE score with NN algorithms improved accuracy and discrimination power in all models with respect to the traditional logistic regression approach; nevertheless, PPV was only marginally enhanced. Unguided variable selection would be able to achieve better results in PPV terms.


Resumen Objetivo: El objetivo fue desarrollar, entrenar y probar diferentes modelos basados en algoritmos de redes neuronales (RN) para mejorar el rendimiento del score del Registro Global de Eventos Coronarios Agudos (GRACE) para predecir la mortalidad hospitalaria después de un síndrome coronario agudo. Métodos: Analizamos una base de datos prospectiva que incluía 40 variables de ingreso de 1255 pacientes con síndrome coronario agudo en un hospital comunitario. Las variables incluidas en la puntuación GRACE se usaron para entrenar y probar tres algoritmos basados en RN (modelos guiados), a saber: perceptrones multicapa de una y dos capas ocultas y una red de función de base radial. Se construyeron tres RN adicionales utilizando las 40 variables de admisión de toda la base de datos (modelos no guiados). La mortalidad esperada según el GRACE se calculó usando la ecuación de regresión logística. Resultados: En términos del área ROC y valor predictivo negativo (VPN), casi todos los algoritmos RN superaron la regresión logística. Solo los modelos de función de base radial obtuvieron un mejor nivel de precisión basado en la mejora del VPN, pero a expensas de la reducción del valor predictivo positivo (VPP). La importancia normalizada de las variables incluidas en la mejor RN no guiada fue: creatinina 100%, clase Killip 61%, fracción de eyección 52%, edad 44%, nivel máximo de creatina quinasa 41%, glucemia 40%, bloqueo de rama izquierda 35%, y peso 33%, entre los 8 predictores principales. Conclusiones: El tratamiento de las variables del score GRACE mediante algoritmos de RN mejoró la precisión y la discriminación en todos los modelos con respecto al enfoque tradicional de regresión logística; sin embargo, el VPP solo mejoró marginalmente. La selección no guiada de variables podría mejorar los resultados en términos de PPV.


Subject(s)
Humans , Male , Female , Middle Aged , Aged , Algorithms , Registries , Neural Networks, Computer , Hospital Mortality , Acute Coronary Syndrome/mortality , Prognosis , Databases, Factual
15.
Rev. Psicol. Saúde ; 11(2): 171-183, maio-ago. 2019. ilus
Article in English | LILACS-Express | LILACS | ID: biblio-1020436

ABSTRACT

The focus of modern neuroscience on cognitive processes has relegated to behavior the epiphenomenal status of neural processing and the difficulties generated by this interpretation have encouraged the use of computational models. However, the implementation based on inferred cognitive constructs has been inefficient. The objective of this work was to review the concept of behavior by a selectionist approach and propose a connectionist computational model that operates integrally with its neurophysiological bases. The behavioral phenomenon was functionally defined and described at different levels of analysis. Functional levels make it possible to understand why behavioral phenomena exist, while topographic levels describe how morphophysiological mechanisms implement the response. The connectionist notions of PDP ANNs formalizes the proposal. The model stands out for contextualizing neural processing as part of the response, addressing the behavioral phenomenon as a whole that needs to be explained in its most different levels of analysis.


O enfoque das neurociências modernas nos processos cognitivos tem relegado ao comportamento o status de epifenômeno do processamento neural e as dificuldades geradas por essa interpretação incentivaram o uso de modelos computacionais. Entretanto, a implementação pautada em construtos cognitivos inferidos tem sido ineficiente. Foi objetivo desse trabalho revisar o conceito de comportamento pelo viés selecionista para se propor um modelo computacional conexionista que opere integradamente com suas bases neurofisiológicas. O fenômeno comportamental foi definido funcionalmente e descrito em diferentes níveis de análise. Os níveis funcionais possibilitam entender o porquê do fenômeno comportamental, enquanto que os níveis topográficos descrevem como os mecanismos morfofisiológicos implementam a resposta. A formalização do modelo foi realizada com noções conexionistas de RNAs de PDP. O modelo se destaca por contextualizar o processamento neural como parte da resposta, tratando o fenômeno comportamental como um todo que precisa ser explicado em seus mais diferentes níveis de análise.


El enfoque de las neurociencias modernas en los procesos ha relegado al comportamiento el status de epifenómeno del procesamiento neural y las dificultades generadas por esa interpretación incentivaron el uso de modelos computacionales. Sin embargo, la implementación pautada en construcciones cognoscitivas inferidas ha sido ineficiente. Fue objetivo de ese trabajo revisar el concepto de conducta por el sesgo seleccionista para proponer un modelo computacional conexionista que opere íntegramente con sus bases neurofisiológicas. El fenómeno conductual fue definió funcionalmente y descrito en diferentes niveles de análisis. Los niveles funcionales posibilitan entender el porqué del fenómeno conductual, mientras que los niveles topográficos describen cómo los mecanismos morfofisiológicos implementan la respuesta. La formalización del modelo fue realizada con nociones conectivistas de RNAs de PDP. El modelo se destaca por contextualizar el procesamiento neural como parte de la respuesta, tratando el fenómeno conductual como un todo que necesita ser explicado en sus más diferentes niveles de análisis.

16.
Rev. lasallista investig ; 16(1): 187-200, ene.-jun. 2019. tab, graf
Article in Spanish | LILACS-Express | LILACS | ID: biblio-1094022

ABSTRACT

Resumen Introducción. El propósito de esta investigación es analizar el riesgo crediticio de una institución financiera no vigilada por la Superintendencia Financiera de Colombia en torno a un modelo scoring que permita determinar el incumplimiento de los clientes correspondiente a su cartera de consumo. Objetivo. Confrontar el poder de pronosticación de dos modelos scoring obtenidos a través de regresión logística y red neuronal. Materiales y métodos. Los modelos se desarrollan con base en una muestra de 43.086 obligaciones correspondiente a una cartera de consumo, utilizando las técnicas estadísticas de regresión logística y red neuronal. La primera está enmarcada en el grupo de los modelos lineales generalizados, los cuales utilizan una función logit y son útiles para modelar probabilidades referentes a un evento en función de otras variables, mientras que la segunda son modelos computacionales cuyo objetivo es resolver problemas utilizando relaciones ya estipuladas y para ello utiliza una muestra base del proceso que se ampara en el éxito del autoaprendizaje producto del entrenamiento. Resultados. Para ambos modelos se logra una precisión del 71% en la base de entrenamiento y del 72 % en la base de comprobación, sin embargo, a pesar de obtener resultados similares, la regresión logística arrojó la menor tasa de malos en la zona de aceptación. Conclusión. Las dos técnicas utilizadas son adecuadas para el estudio y predicción de la probabilidad de incumplimiento de un cliente correspondiente a una cartera de consumo, lo anterior, respaldado por el alto índice de eficacia predictiva en ambos modelos.


Abstract Introduction. The purpose of this research is to analyze the credit risk of a financial institution not supervised by the Financial Superintendence of Colombia around a scoring model that allows determining the default of clients corresponding to their consumer portfolio. Objective. Confront the forecasting power of two scoring models obtained through logistic regression and neural network. Materials and methods. The models are developed based on a sample of 43,086 obligations corresponding to a consumer portfolio, using the statistical techniques of logistic regression and neural network. The first is framed in the group of generalized linear models, which use a logit function and are useful for modeling probabilities related to an event based on other variables; while the second consists in computational models whose objective is to solve problems using relationships already stipulated, employing for this purpose a base sample of the process that is based on the success of the self-learning resulting from training. Results. For both models, an accuracy of 71 % in the training base and 72 % in the testing base is achieved. However, despite obtaining similar results, the logistic regression yielded the lowest rate of bad in the acceptance zone. Conclusion. The two techniques used are suitable for the study and prediction of the probability of default of a client corresponding to a consumer portfolio; the foregoing is supported by the high index of predictive effectiveness in both models.


Resumo Introdução. O propósito de esta pesquisa é analisar o risco creditício de uma instituição financeira não vigilada pela Superintendência Financeira da Colômbia em torno de um modelo scoring que permita determinar o incumprimento dos clientes correspondentes à sua carteira de consumidores. Objetivo. Confrontar o poder de previsão de dois modelos scoring obtidos através de regressão logística e rede neuronal. Materiais e métodos. Os modelos desenvolvam-se com base em uma amostra de 43.086 obrigações correspondentes à una carteira de consumidores, utilizando as técnicas estatísticas de regressão logística e rede neuronal. A primeira está enquadrada no grupo dos modelos lineais generalizados, os quais utilizam uma função logit e são úteis para modelar probabilidades referentes à um evento em função de outras variáveis, em quanto que, a segunda são modelos computacionais cujo objetivo é resolver problemas utilizando relações já estipuladas e para isso utiliza-se uma amostra base do processo que ampara-se no sucesso do autoaprendizagem produto do treinamento. Resultados. Para ambos os modelos se consegue uma precisão do 71% na base do treinamento e do 72% na base da comprovação, mas, não obstante isso, a pesar de obterem resultados semelhantes, a regressão logística mostrou a menor taxa ruim na zona de aceitação. Conclusão. As duas técnicas utilizadas são adequadas para o estudo e previsão da probabilidade do incumprimento de um cliente correspondente à una carteira de consumidores, o que precede, respaldado pelo alto índice de eficiência preditiva em ambos os modelos.

17.
Rev. chil. nutr ; 45(3): 216-222, set. 2018. tab, graf
Article in Spanish | LILACS | ID: biblio-959483

ABSTRACT

RESUMEN El objetivo del artículo fue lustrar mediante modelos de predicción microbiológica, la probabilidad de conformidad del producto terminado, estimando el ciclo de vida de la leche en polvo una vez que ha sido reconstituida, enfocado en los aspectos fisicoquímicos y microbiológicos (Bacillus cereus), por medio del modelo cinético de Arrhenius, con redes neuronales artificiales, entrenadas para pronosticar productos conformes respecto a la bacteria. A través del algoritmo de la red neuronal, se concluyó que, una vez la leche en polvo ha sido reconstituida debe mantenerse refrigerada entre 4°C y 6°C, para obtener una vida útil alrededor de los 19 días, pronosticando el 98% de productos conformes.


ABSTRACT The aim of this paper was to show a microbiological prediction model to determine the probability of conformity in products and estimate the life cycle of reconstituted powdered milk, focusing on the physicochemical and microbiological aspects of Bacillus cereus. We used the kinetic model Arrhenius, built under artificial neural networks designed to measure conformity to Bacillus cereus products. Using the neural network algorithm, we found that once milk powder was reconstituted, the temperature should be between 4°C and 6°C to obtain a lifespan around 19 days and 98% conformity.


Subject(s)
Food Quality , Dried Full-Cream Milk , Bacillus cereus , Food Microbiology , Nerve Net
18.
Vitae (Medellín) ; 25(3): 120-127, 2018. Ilustraciones
Article in English | LILACS, COLNAL | ID: biblio-995054

ABSTRACT

Background: The production quality of rice is highly depended on the drying process as drying weakens the rice kernel. A look at the production process of rice in the industry was taken. The drying of rice influences the storage capacity of the grain, the energy consumption, the final mass of the grain and the percentage of whole grains at the end of the process. Objective: The main objective was to analyse the drying of rice by making an artificial neural network to model and simulate it. Methods: The modeling of a rice drying process using neural networks was presented. These models are suitable to be used in combination with model-based control strategies in order to improve the drying process. The implementation, preprocessing and data retrieval for the design of an artificial neural system was analyzed. Controlling the drying factors is of major importance. Feedforward and dynamic neural networks were compared based on their performance. Results: It was concluded that when some part of the dataset is given as training, even with one dataset, a back-propagation network simulates very well the other parts of the drying curve. It can be said that the approximations done by the networks to obtain a nonlinear model of the rice drying process are quiet good. Conclusions: Firstly, because of the too little data available for training, the networks were not as good as expected. More data is needed to realy have a powerfull network capable of approximated very well the drying curve. Secondly, a backpropagation network can be a good solution for modelling and for use in a controller if more data is available, in contrast a linear network gave bad results. thirdly, a network with little number of layers is the best option. A perfect mapping from the input to the output is impossible due the differences in each test and the imperfect sensors.


Antecedentes: la calidad de producción del arroz depende en gran medida del proceso de secado, ya que el secado debilita el grano de arroz. Se estudió el proceso de producción de arroz en la industria. El secado del arroz influye en la capacidad de almacenamiento del grano, el consumo de energía, la masa final del grano y el porcentaje de granos totales al final del proceso. Objetivo: El objetivo principal fue analizar el secado del arroz diseñando una red neuronal artificial para modelarlo y simularlo. Métodos: Se presentó el modelado de un proceso de secado de arroz utilizando redes neuronales. Estos modelos son adecuados para ser utilizados en combinación con estrategias de control basadas en modelos para mejorar el proceso de secado. Se analizó la implementación, el pre-procesamiento y la recuperación de datos para el diseño de un sistema neuronal artificial. Controlar los factores de secado es de gran importancia. Las redes neuronales avanzadas y dinámicas se compararon en función de su rendimiento. Resultados: se llegó a la conclusión de que cuando una parte del conjunto de datos se proporciona como entrenamiento, incluso con un conjunto de datos, una red de propagación inversa simula muy bien las otras partes de la curva de secado. Las aproximaciones hechas por las redes para obtener un modelo no lineal del proceso de secado del arroz son bastante buenas. Conclusión: En primer lugar, debido a la poca información disponible para el entrenamiento, las redes no fueron tan buenas como se esperaba. Se necesitan más datos para tener realmente una red potente capaz de aproximar muy bien la curva de secado. En segundo lugar, una red de propagación hacia atrás puede ser una buena solución para modelar y usar en un controlador si hay más datos disponibles, en contraste, una red lineal arrojó malos resultados. En tercer lugar, una red con poca cantidad de capas es la mejor opción. Un mapeo perfecto de la entrada a la salida es imposible debido a las diferencias en cada prueba y los sensores imperfectos


Subject(s)
Humans , Oryza , Desiccation , Neural Networks, Computer , Nonlinear Dynamics
19.
Orinoquia ; 21(supl.1): 64-75, jul.-dic. 2017. tab, graf
Article in Spanish | LILACS-Express | LILACS | ID: biblio-1091541

ABSTRACT

Resumen La clasificación de cobertura del suelo es importante para estudios de cambio climático y monitoreo de servicios ecosistémicos. Los métodos convencionales de clasificación de coberturas se realizan mediante la interpretación visual de imágenes satelitales, lo cual es costoso, dispendioso e impreciso. Implementar métodos computacionales permite generar clasificación de coberturas en imágenes satelitales de manera automática, rápida, precisa y económica. Particularmente, los métodos de aprendizaje automático son técnicas computacionales promisorias para la estimación de cambios de cobertura del suelo. En este trabajo se presenta un método de aprendizaje automático basado en redes neuronales convolucionales de arquitectura tipo ConvNet para la clasificación automática de coberturas del suelo a partir de imágenes Landsat 5 TM. La ConvNet fue entrenada a partir de las anotaciones manuales por medio de interpretación visual sobre las imágenes satelitales con las que los expertos generaron el mapa de cobertura del parque nacional el Tuparro, de los Parques Nacionales Naturales de Colombia. El modelo de validación se realizó con datos de los mapas de coberturas del Amazonas colombiano realizado por el Sistema de Información Ambiental de Colombia. Los resultados obtenidos de la diagonal de la matriz de confusión de la exactitud promedio fue de 83.27% en entrenamiento y 91.02% en validación; para la clasificación en parches entre Bosques, áreas con vegetación herbácea y/o arbustiva, áreas abiertas sin o con poca vegetación y aguas continentales.


Abstract Land cover classification is important for studies of climate change and monitoring of ecosystem services. Conventional coverage classification methods are performed by the visual interpretation of satellite imagery, which is expensive and inaccurate. Implementing computational methods could generate procedures to classify coverage in satellite images automatically, quickly, accurately and economically. Particularly, automatic learning methods are promising computational methods for estimating soil cover changes. In this work we present an automatic learning method based on convolutional neural networks of ConvNet type architecture for the automatic classification of soil coverings from Landsat 5 TM images. The ConvNet was trained from the manual annotations by means of visual interpretation on the satellite images with which the experts generated the map of Tuparro national park, of National Natural Park of Colombia. The validation model was performed with data from the Colombian Amazon cover maps made by the Colombian Environmental Information System. The results obtained from the diagonal of the confusion matrix of the average accuracy were 83.27% in training and 91.02% in validation; for the classification in patches between forests, areas with herbaceous and / or shrub vegetation, open areas with or without vegetation and Inland waters.


Resumo A classificação da cobertura da terra é importante para estudos de mudanças climáticas e monitoramento dos serviços dos ecossistemas. Os métodos convencionais de classificação de cobertura são feitos através da interpretação visual de imagens de satélite, que é caro, dispendioso e impreciso. Implementar métodos computacionais poderia gerar procedimentos de classificação de cobertura em imagenes de satélite de forma automática, rápida, precisa e econômica. Particularmente, métodos de aprendizado de máquina são promissores métodos computacionais para estimar a cobertura do solo mudanças. Neste artigo apresentamos um método de aprendizado de máquina baseado em convolutional neural tipo ConvNet rede de arquitetura para a classificação automática de cobertura do solo a partir de Landsat 5 imagens TM. O ConvNet foi treinado desde anotações manuais através da interpretação visual das imagens de satélite que os especialistas geraram o mapa de cobertura do Parque Nacional Tuparro, Colômbia Parque Nacional Natural. A validação do modelo foi realizada com cobertura de mapa de dados da Amazônia colombiana pelo Sistema de Informação Ambiental da Colômbia. Os resultados da diagonal da matriz de confusão da precisão média foi de 83,27% e Formação e 91,02% na validação; para a classificação em manchas entre florestas, áreas com vegetação herbácea e / ou arbusto, áreas abertas com poucamou nenhuma vegetação águas interiores.

20.
Medisan ; 21(6)jun. 2017. ilus
Article in Spanish | LILACS | ID: biblio-894615

ABSTRACT

Se realizó un estudio observacional y descriptivo, de tipo ecológico, en el municipio de Santiago de Cuba, en el año 2015, con el propósito de identificar la existencia de patrones espaciales respecto a la infestación por Stegomyia aegypti y así desarrollar un análisis pronóstico espacial al respecto. Para ello se utilizaron variables simples y complejas, resumidas y con utilización de paradigmas de la complejidad (redes neuronales y gestión geoespacial). Se observó que la dispersión aleatoria de Stegomyia aegypti condiciona patrones difusos de la infestación, mayormente definida por la dinámica social, más que por las propias características biológicas del vector. De igual modo, la utilización de la Epidemiología panorámica proveyó nuevas aristas de conocimientos en el análisis del problema


An observational, descriptive and ecological study was carried out in Santiago de Cuba, in the year 2015, with the purpose of identifying the existence of space patterns regarding the Stegomyia aegypti infestation and in this way developing a space prognosis analysis in this respect. Thus, summarized simple and complex variables were used, as well as complexity paradigms (neuronal nets and geospace management). It was observed that the randomized dispersion of Stegomyia aegypti conditions diffuse patterns of the infestation, mostly defined by the social dynamics, more than by the common biological characteristics of the vector. In the same way, the use of the panoramic Epidemiology provided new edges of knowledge in the analysis of the problem


Subject(s)
Animals , Environmental Hazards , Aedes , Vector Control of Diseases , Ecological Damage , Entomology/methods , Spatial Analysis , Artificial Intelligence , Epidemiology, Descriptive , Disease Vectors , Observational Study
SELECTION OF CITATIONS
SEARCH DETAIL