Your browser doesn't support javascript.
loading
Show: 20 | 50 | 100
Results 1 - 20 de 2.698
Filter
1.
Rev. bras. med. esporte ; 29(spe1): e2022_0194, 2023. tab, graf
Article in English | LILACS | ID: biblio-1394852

ABSTRACT

ABSTRACT Introduction In medicine, Deep Learning is a type of machine learning that aims to train computers to perform human tasks by simulating the human brain. Gait recognition and gait motion simulation is one of the most interesting research areas in the field of biometrics and can benefit from this technological feature. Objective To use Deep Learning to format and validate according to the dynamic characteristics of gait. Methods Gait was used for identity recognition, and gait recognition based on kinematics and dynamic gait parameters was performed through pattern recognition, including the position and the intensity value of maximum pressure points, pressure center point, and pressure ratio. Results The investigation shows that the energy consumption of gait as modeled analyzed, and the model of gait energy consumption can be obtained, which is comprehensively affected by motion parameters and individual feature parameters. Conclusion Real-time energy measurement is obtained when most people walk. The research shows that the gait frequency and body parameters obtained from the tactile parameters of gait biomechanics can more accurately estimate the energy metabolism of exercise and obtain the metabolic formula of exercise. There is a good application prospect for assessing energy metabolism through the tactile parameters of gait. Level of evidence II; Therapeutic studies - investigating treatment outcomes.


RESUMO Introdução Na medicina, o aprendizado profundo é um tipo de aprendizado de máquina que visa treinar computadores para a realização de tarefas humanas simulando o cérebro humano. O reconhecimento da marcha e a simulação do movimento de marcha são um dos pontos de maior interesse da investigação no campo da biometria e pode ser beneficiado com esse recurso tecnológico. Objetivo Utilizar o aprendizado profundo para formatar e validar, de acordo com as características dinâmicas da marcha. Métodos A marcha foi utilizada para o reconhecimento da identidade, e o reconhecimento da marcha baseado na cinemática e parâmetros dinâmicos de marcha foi realizado através do reconhecimento de padrões, incluindo a posição e o valor de intensidade dos pontos de pressão máxima, ponto central de pressão e relação de pressão. Resultados A investigação mostra que o consumo de energia da marcha como modelado analisado, e o modelo de consumo de energia da marcha pode ser obtido, o qual é afetado de forma abrangente pelos parâmetros de movimento e pelos parâmetros de características individuais. Conclusão A medição de energia em tempo real é obtida quando a maioria das pessoas caminha. A investigação mostra que a frequência da marcha e os parâmetros corporais obtidos a partir dos parâmetros tácteis da biomecânica da marcha podem estimar com maior precisão o metabolismo energético do exercício e obter a fórmula metabólica do exercício. Há uma boa perspectiva de aplicação para avaliar o metabolismo energético através dos parâmetros tácteis da marcha. Nível de evidência II; Estudos terapêuticos - investigação dos resultados do tratamento.


RESUMEN Introducción En medicina, el aprendizaje profundo es un tipo de aprendizaje que pretende entrenar a los ordenadores para que realicen tareas humanas simulando el cerebro humano. El reconocimiento de la marcha y la simulación de su movimiento es uno de los puntos más interesantes de la investigación en el campo de la biometría y puede beneficiarse de este recurso tecnológico. Objetivo Utilizar el aprendizaje profundo para formatear y validar según las características dinámicas de la marcha. Métodos Se utilizó la marcha para el reconocimiento de la identidad, y el reconocimiento de la marcha basado en la cinemática y los parámetros dinámicos de la marcha se realizó mediante el reconocimiento de patrones, incluyendo la posición y el valor de la intensidad de los puntos de presión máxima, el punto de presión central y la relación de presión. Resultados La investigación muestra que el consumo de energía de la marcha, tal y como se analizó, y el modelo de consumo de energía de la marcha se puede obtener, que es ampliamente afectado por los parámetros de movimiento y los parámetros de las características individuales. Conclusión La medición de la energía en tiempo real se obtiene cuando la mayoría de la gente camina. La investigación muestra que la frecuencia de la marcha y los parámetros corporales obtenidos a partir de los parámetros táctiles de la biomecánica de la marcha pueden estimar con mayor precisión el metabolismo energético del ejercicio y obtener la fórmula metabólica del mismo. Existe una buena perspectiva de aplicación para evaluar el metabolismo energético a través de los parámetros táctiles de la marcha. Nivel de evidencia II; Estudios terapéuticos - investigación de los resultados del tratamiento.


Subject(s)
Humans , Energy Metabolism/physiology , Gait Analysis , Biomechanical Phenomena , Algorithms
2.
Rev. bras. med. esporte ; 29(spe1): e2022_0198, 2023. tab, graf
Article in English | LILACS | ID: biblio-1394847

ABSTRACT

ABSTRACT Introduction Many countries have increased their investments in human resources and technology for the internal development of competitive sports, leading the world sports scene to increasingly fierce competition. Coaches and research assistants must place importance on feedback tools for frequent training of college athletes, and deep learning algorithms are an important resource to consider. Objective To develop and validate a swarm algorithm to examine the fitness of athletes during periods of competition. Methods Based on the swarm intelligence algorithm, the concept, composition, and content of physical exercises were analyzed. Combined with the characteristics of events, the body function files and the comprehensive evaluation system for high-level athletes were established. Results The insight was obtained that the constant mastery of the most advanced techniques and tactics by athletes is an important feature of modern competitive sports. Physical fitness is not only a valuable asset for athletes but also one of the keys to success in competition. Conclusion Fitness has become an increasingly prominent issue in competition, and the scientific training of contemporary competitive sports has been increasingly refined. Level of evidence II; Therapeutic studies - investigation of treatment outcomes.


RESUMO Introdução Muitos países aumentaram seus investimentos em recursos humanos e tecnologia para o desenvolvimento interno de esportes competitivos, levando o cenário esportivo mundial a uma disputa cada vez mais acirrada. Treinadores e assistentes de pesquisa devem dar importância às ferramentas de feedback para o treinamento frequente dos atletas universitários e os algoritmos de aprendizado profundo são um importante recurso a ser levado em consideração. Objetivo Desenvolver e validar um algoritmo de enxame para examinar o condicionamento físico dos atletas em períodos de competição. Métodos Com base no algoritmo de inteligência de enxame, o conceito, composição e conteúdo de exercícios físicos foram analisados. Combinado com as características dos eventos, os arquivos de funções corporais e o sistema abrangente de avaliação de atletas de alto nível foram estabelecidos. Resultados Obteve-se a percepção de que o constante domínio das técnicas e táticas mais avançadas pelos atletas é uma característica importante dos esportes competitivos modernos. A aptidão física não é apenas um ativo valioso para os atletas, mas também uma das chaves para o sucesso nas competições. Conclusão A aptidão física tem se tornado cada vez mais um problema proeminente na competição, sendo o treinamento científico dos esportes competitivos contemporâneos cada vez mais aperfeiçoado. Nível de evidência II; Estudos terapêuticos - investigação dos resultados do tratamento.


RESUMEN Introducción Muchos países han aumentado sus inversiones en recursos humanos y tecnología para el desarrollo interno del deporte de competición, lo que ha llevado al panorama deportivo mundial a una competencia cada vez más feroz. Los entrenadores y asistentes de investigación deben dar importancia a las herramientas de retroalimentación para el entrenamiento frecuente de los atletas universitarios y los algoritmos de aprendizaje profundo son un recurso importante a tener en cuenta. Objetivo Desarrollar y validar un algoritmo de enjambre para examinar el estado físico de los atletas durante los periodos de competición. Métodos A partir del algoritmo de inteligencia de enjambre, se analizó el concepto, la composición y el contenido de los ejercicios físicos. En combinación con las características de los eventos, se establecieron los archivos de funciones corporales y el sistema de evaluación integral de los atletas de alto nivel. Resultados Se obtuvo la conclusión de que el dominio constante de las técnicas y tácticas más avanzadas por parte de los atletas es una característica importante de los deportes de competición modernos. La forma física no sólo es un activo valioso para los deportistas, sino también una de las claves del éxito en las competiciones. Conclusión La aptitud física se ha convertido en una cuestión cada vez más importante en la competición, y el entrenamiento científico de los deportes de competición contemporáneos es cada vez mejor. Nivel de evidencia II; Estudios terapéuticos - investigación de los resultados del tratamiento.


Subject(s)
Humans , Adult , Young Adult , Algorithms , Exercise/physiology , Athletic Performance/physiology , Deep Learning , Athletic Injuries , Sports/physiology , Muscle Strength , Athletes
3.
Rev. bras. med. esporte ; 29(spe1): e2022_0199, 2023. tab, graf
Article in English | LILACS | ID: biblio-1394846

ABSTRACT

ABSTRACT Introduction Nowadays, more people are concerned with physical exercise and swimming competitions, as a major sporting event, have become a focus of attention. Such competitions require special attention to their athletes and the use of computational algorithms assists in this task. Objective To design and validate an algorithm to evaluate changes in vital capacity and blood markers of athletes after swimming matches based on combined learning. Methods The data integration algorithm was used to analyze changes in vital capacity and blood acid after combined learning swimming competition, followed by the construction of an information system model to calculate and process this algorithm. Results Comparative experiments show that the neural network algorithm can reduce the calculation time from the original initial time. In the latest tests carried out in about 10 seconds, this has greatly reduced the total calculation time. Conclusion According to the model requirements of the designed algorithm, practical help has been demonstrated by building a computational model. The algorithm can be optimized and selected according to the calculation model according to the reality of the application. Level of evidence II; Therapeutic studies - investigation of treatment outcomes.


RESUMO Introdução Atualmente, mais pessoas preocupam-se com o exercício físico e as competições de natação, como evento esportivo de destaque, tornou-se foco de atenção. Tais competições exigem atenção especial aos seus atletas e o uso de algoritmos computacionais auxiliam nessa tarefa. Objetivo Projetar e validar um algoritmo para avaliação das alterações da capacidade vital e marcadores sanguíneos dos atletas após os jogos de natação baseados no aprendizado combinado. Métodos O algoritmo de integração de dados foi usado para analisar as mudanças de capacidade vital e ácido sanguíneo após competição de natação de aprendizado combinado, seguido à construção de um modelo de sistema de informação para calcular e processar esse algoritmo. Resultados Experiências comparativas mostram que o algoritmo de rede neural pode reduzir o tempo de cálculo a partir do tempo inicial original. Nos últimos testes levados à cabo em cerca de 10 segundos, isto reduziu muito o tempo total de cálculo. Conclusão De acordo com os requisitos do modelo do algoritmo projetado, foi demonstrada a ajuda prática pela construção de um modelo computacional. O algoritmo pode ser otimizado e selecionado de acordo com o modelo de cálculo, segundo a realidade da aplicação. Nível de evidência II; Estudos terapêuticos - investigação dos resultados do tratamento.


RESUMEN Introducción Hoy en día, cada vez más personas se preocupan por el ejercicio físico y las competiciones de natación, como evento deportivo destacado, se han convertido en un foco de atención. Estas competiciones requieren una atención especial para sus atletas y el uso de algoritmos computacionales ayuda en esta tarea. Objetivo Diseñar y validar un algoritmo para evaluar los cambios en la capacidad vital y los marcadores sanguíneos de los atletas después de los partidos de natación basado en el aprendizaje combinado. Métodos Se utilizó el algoritmo de integración de datos para analizar los cambios de la capacidad vital y la acidez de la sangre tras la competición de natación de aprendizaje combinado, seguido de la construcción de un modelo de sistema de información para calcular y procesar este algoritmo. Resultados Los experimentos comparativos muestran que el algoritmo de la red neuronal puede reducir el tiempo de cálculo con respecto al tiempo inicial. En las últimas pruebas realizadas en unos 10 segundos, esto redujo en gran medida el tiempo total de cálculo. Conclusión De acuerdo con los requisitos del modelo del algoritmo diseñado, se ha demostrado la ayuda práctica mediante la construcción de un modelo computacional. El algoritmo puede optimizarse y seleccionarse según el modelo de cálculo en función de la realidad de la aplicación. Nivel de evidencia II; Estudios terapéuticos - investigación de los resultados del tratamiento.


Subject(s)
Humans , Swimming/physiology , Algorithms , Biomarkers/analysis , Deep Learning , Athletic Performance/physiology , Athletes
4.
Rev. bras. med. esporte ; 29(spe1): e2022_0197, 2023. tab, graf
Article in English | LILACS | ID: biblio-1394845

ABSTRACT

ABSTRACT Introduction The recent development of the deep learning algorithm as a new multilayer network machine learning algorithm has reduced the problem of traditional training algorithms easily falling into minimal places, becoming a recent direction in the learning field. Objective Design and validate an artificial intelligence model for deep learning of the resulting impacts of weekly load training on students' biological system. Methods According to the physiological and biochemical indices of athletes in the training process, this paper analyzes the actual data of athletes' training load in the annual preparation period. The characteristics of athletes' training load in the preparation period were discussed. The value, significance, composition factors, arrangement principle and method of calculation, and determination of weekly load density using the deep learning algorithm are discussed. Results The results showed that the daily 24-hour random sampling load was moderate intensity, low and high-intensity training, and enhanced the physical-motor system and neural reactivity. Conclusion The research shows that there can be two activities of "teaching" and "training" in physical education and sports training. The sports biology monitoring research proves to be a growth point of sports training research with great potential for expansion for future research. Level of evidence II; Therapeutic studies - investigation of treatment outcomes.


RESUMO Introdução O recente desenvolvimento do algoritmo de aprendizado profundo como um novo algoritmo de aprendizado de máquina de rede multicamadas reduziu o problema dos algoritmos de treinamento tradicionais, que facilmente caiam em locais mínimos, tornando-se uma direção recente no campo do aprendizado. Objetivo Desenvolver e validar um modelo de inteligência artificial para aprendizado profundo dos impactos resultantes dos treinos semanais de carga sobre o sistema biológico dos estudantes. Métodos De acordo com os índices fisiológicos e bioquímicos dos atletas no processo de treinamento, este artigo analisa os dados reais da carga de treinamento dos atletas no período anual de preparação. As características da carga de treinamento dos atletas no período de preparação foram discutidas. O valor, significância, fatores de composição, princípio de arranjo e método de cálculo e determinação da densidade de carga semanal usando o algoritmo de aprendizado profundo são discutidos. Resultados Os resultados mostraram que a carga diária de 24 horas de amostragem aleatória foi de intensidade moderada, treinamento de baixa densidade e alta intensidade, e o sistema físico-motor e a reatividade neural foram aprimorados. Conclusão A pesquisa mostra que pode haver duas atividades de "ensino" e "treinamento" na área de educação física e no treinamento esportivo. A pesquisa de monitoramento da biologia esportiva revela-se um ponto de crescimento da pesquisa de treinamento esportivo com grande potencial de expansão para pesquisas futuras. Nível de evidência II; Estudos terapêuticos - investigação dos resultados do tratamento.


RESUMEN Introducción El reciente desarrollo del algoritmo de aprendizaje profundo como un nuevo algoritmo de aprendizaje automático de red multicapa ha reducido el problema de los algoritmos de entrenamiento tradicionales, que caen fácilmente en lugares mínimos, convirtiéndose en una dirección reciente en el campo del aprendizaje. Objetivo Desarrollar y validar un modelo de inteligencia artificial para el aprendizaje profundo de los impactos resultantes del entrenamiento de la carga semanal en el sistema biológico de los estudiantes. Métodos De acuerdo con los índices fisiológicos y bioquímicos de los atletas en el proceso de entrenamiento, este artículo analiza los datos reales de la carga de entrenamiento de los atletas en el período de preparación anual. Se analizaron las características de la carga de entrenamiento de los atletas en el periodo de preparación. Se analizan el valor, el significado, los factores de composición, el principio de disposición y el método de cálculo y determinación de la densidad de carga semanal mediante el algoritmo de aprendizaje profundo. Resultados Los resultados mostraron que la carga diaria de 24 horas de muestreo aleatorio era de intensidad moderada, de baja densidad y de alta intensidad de entrenamiento, y que el sistema físico-motor y la reactividad neural mejoraban. Conclusión La investigación muestra que puede haber dos actividades de "enseñanza" y "formación" en la educación física y el entrenamiento deportivo. La investigación sobre el seguimiento de la biología del deporte demuestra ser un punto de crecimiento de la investigación sobre el entrenamiento deportivo con un gran potencial de expansión para futuras investigaciones. Nivel de evidencia II; Estudios terapéuticos - investigación de los resultados del tratamiento.


Subject(s)
Humans , Algorithms , Computational Biology/methods , Athletic Performance/physiology , Deep Learning , Physical Education and Training/methods
5.
RECIIS (Online) ; 16(4): 820-836, out.-dez. 2022.
Article in Portuguese | LILACS | ID: biblio-1411130

ABSTRACT

Youtubers são influenciadores digitais que utilizam como plataforma principal o YouTubeeconseguem se relacionar com o seu público, objetivando reverter suas interações em ganhos monetários. Entretanto, a plataforma YouTube é consideravelmente administrada por algoritmos que carecem de precisão, quanto ao seu funcionamento, e sofrem repentinas modificações, tornando o exercício da profissão um constante desafio para esses criadores de conteúdos. Logo, o presente trabalho tem por objetivo apresentar um recorte dos resultados obtidos em um estudo para dissertação de mestrado profissional em psicologia, que, a partir da análise de conteúdo, articulou as verbalizações de seis youtubers entrevistados com a literatura atual disponível. Foi possível identificar que, mesmo naqueles que têm experiência nessa atividade, o algoritmo do YouTube ainda provoca inquietações por sua falta de transparência, sua imprevisibilidade e sua volatilidade, as quais podem vir a resultar em prejuízos à saúde mental dos sujeitos que não estejam preparados para tal ofício.


Youtubers are digital influencers who use Youtube as their main platform. They are able to engage with their audience aiming to turn their interactions into monetary gains. However, the YouTube platform is considerably managed by algorithms that lack precision in terms of their functioning and are suddenly modified, making the exercise of the profession a constant challenge for these content creators. Therefore, this article aims to present some of the results obtained through a study for a dissertation of professional master's degree in psychology that, based on content analysis, articulated the verbalizations of six you-tubers interviewed with the current literature available. It was possible to identify that, even for those who have experience in this activity, the YouTube algorithm still causes concerns with regard to its lack of transparency, its unpredictability and its volatility, which may result in damage to mental health of those who are not prepared for this activity.


Los youtubers son personas influyentes que usan YouTube como su plataforma principal y son capaces de interactuar con su audiencia, con el objetivo de convertir sus interacciones en numerarios. Sin embargo, la plataforma YouTube es de manera considerable manejada por algoritmos que carecen de precisión en cuanto a su funcionamiento y sufren cambios repentinos, haciendo del ejercicio de la profesión un desafío constante para estos creadores de contenido. Por lo tanto, el presente trabajo tiene como objetivo presentar un recorte de los resultados obtenidos en un estudio para una disertación de grado académico de magíster en psicología, que, a partir del análisis de contenido, articuló las verbalizaciones de seis youtubersentrevistados con la literatura actual disponible. Fue posible identificar que, incluso para aquellos que tienen experiencia en esta actividad, el algoritmo de YouTube sigue siendo motivo de preocupación por su falta de transparencia, su imprevisibilidad y su volatilidad, lo que puede resultar en daños a la salud mental de los sujetos que no están preparados para tal trabajo.


Subject(s)
Humans , Mental Health , Internet , Social Networking , Occupational Groups , Stress, Psychological , Volatilization , Algorithms , Occupational Stress
7.
Rev. Círc. Argent. Odontol ; 80(231): 6-13, jul. 2022. ilus, tab, graf
Article in Spanish | LILACS | ID: biblio-1391619

ABSTRACT

Este trabajo tuvo como objetivo conocer la fiabilidad de la impresora 3D (i3D) aditiva por Matriz de Proceso Digital de Luz (MDLP) Hellbot modelo Apolo®, a través de verificar la congruencia dimensional entre las mallas de modelos impresos (MMi) y su correspondiente archivo digital de origen (MMo), obtenido del software de planificación ortodontica Orchestrate 3D® (O3D). Para determinar su uso en odontología y sus posibilidades clínicas, fue comparada entre cinco i3D de manufactura aditiva, dos DLP, dos por estereolitografía (SLA) y una por Depósito de Material Fundido (FDM). La elección de las cinco i3D se fundamentó en su valor de mercado, intentando abarcar la mayor diversidad argentina disponible. Veinte modelos fueron impresos con cada i3D y escaneados con Escáner Intraoral (IOS) Carestream modelo 3600® (Cs3600). Las 120 MMi fueron importadas dentro del programa de ingeniería inversa Geomagic® Control X® (Cx) para su análisis 3D, consistiendo en la superposición de MMo con cada una de las MMi. Luego, una evaluación cualitativa de la desviación entre la MMi y MMo fue realizada. Un análisis estadístico cuidadoso fue realizado obteniendo como resultado comparaciones en 3d y 2d. Las coincidencias metrológicas en la superposición tridimensional permitieron un análisis exhaustivo y fácilmente reconocible a través de mapas colorimétricos. En el análisis bidimensional se plantearon planos referenciados dentariamente desde la MMo, para hacer coincidir las mediciones desde el mismo punto de partida dentaria. Los resultados fueron satisfactorios y muy alentadores. Las probabilidades de obtener rangos de variabilidad equivalentes a +/- 50µm fueron de un 40,35 % y de +/- 100µm un 71,04 %. Por lo tanto, te- niendo en cuenta las exigencias de congruencia dimensional clínicas de precisión y exactitud a las cuales es sometida nuestra profesión odontológica, se evitan problemas clínicos arrastrados por los errores dimensionales en la manufactura (Cam) (AU)


The objective of this study was to determine the reliability of the Hellbot Apollo® model additive 3D printer (i3D) by Matrix Digital Light Processing (MDLP) by verifying the dimensional congruence between the printed model meshes (MMi) and their corresponding digital source file (MMo), obtained from the Orchestrate 3D® (O3D) orthodontic planning software. A comparison was made between five i3D of additive manufacturing, two DLP, two by stereolithography (SLA), and one by Fused Material Deposition (FDM), to determine its use in dentistry and its clinical possibilities. The choice of the five i3D was based on their market value, trying to cover most of the Argentinean diversity available. Twenty models were printed with each i3D and scanned with Carestream Intraoral Scanner (IOS) model 3600® (Cs3600). The 120 MMi were imported into the reverse engineering program Geomagic® Control X® (Cx) for 3D analysis, consisting of overlaying MMo with each MMi. Then, a qualitative evaluation of the deviation between MMi and MMo. Also, a careful statistical analysis was performed, resulting in 3d and 2d comparisons. Metrological coincidences in three-dimensional overlay allowed a comprehensive and easily recognizable analysis through colorimetric maps. In the two-dimensional analysis, dentally referenced planes were proposed from the MMo, to match the measurements from the same dental starting point. The results were satisfactory and very encouraging. The probabilities of obtaining ranges of variability equivalent to +/- 50µm were 40.35 % and +/- 100µm 71.04 %. Therefore, considering the demands of clinical dimensional congruence, precision, and accuracy to which our dental profession it is subjected, clinical problems caused by dimensional errors in manufacturing (Cam) are avoided (AU)


Subject(s)
Models, Dental , Printing, Three-Dimensional , Stereolithography , Orthodontics/methods , In Vitro Techniques , Algorithms , Software , Image Interpretation, Computer-Assisted/methods , Data Interpretation, Statistical , Evaluation Studies as Topic
8.
Arch. argent. pediatr ; 120(3): 209-216, junio 2022. tab, ilus
Article in Spanish | LILACS, BINACIS | ID: biblio-1368241

ABSTRACT

La laringe se localiza en la encrucijada aerodigestiva; cualquier patología que la comprometa tendrá repercusión en la respiración, la deglución y/o la voz. Se divide en tres regiones: la supraglotis (comprende la epiglotis, las bandas ventriculares y los ventrículos laríngeos), la glotis (espacio limitado por las cuerdas vocales) y la subglotis (zona más estrecha de la vía aérea pediátrica y único punto rodeado en su totalidad por cartílago: el anillo cricoides). La obstrucción laríngea se puede presentar como una condición aguda potencialmente fatal o como un proceso crónico. El síntoma principal es el estridor inspiratorio o bifásico. La etiología varía mucho según la edad y puede ser de origen congénito, inflamatorio, infeccioso, traumático, neoplásico o iatrogénico. Se describen las patologías que ocasionan obstrucción laríngea con más frecuencia o que revisten importancia por su gravedad, sus síntomas orientadores para el diagnóstico presuntivo, los estudios complementarios y el tratamiento.


The larynx is at the aerodigestive crossroads; any pathology that involves it will have an impact on breathing, swallowing and/or the voice. It`s divided into three regions: supraglottis (includes epiglottis, ventricular bands and laryngeal ventricles), glottis (space limited by the vocal cords) and subglottis (narrowest area of pediatric airway and the only point of larynx completely surrounded by cartilage: the cricoid ring). Laryngeal obstruction can present as a potentially fatal acute condition or as a chronic process. The main symptom is inspiratory or biphasic stridor. The etiology varies widely according to age and it may be of congenital, inflammatory, infectious, traumatic, neoplastic or iatrogenic origin. We describe the pathologies that cause laryngeal obstruction, either those that occur very often or those which are important for their severity, their guiding symptoms to the presumptive diagnosis, additional studies and treatment.


Subject(s)
Humans , Child , Pediatrics , Laryngeal Diseases/diagnosis , Laryngeal Diseases/etiology , Airway Obstruction/etiology , Larynx/pathology , Algorithms , Laryngeal Diseases/therapy
9.
Medwave ; 22(3): e002100, 29-04-2022.
Article in English, Spanish | LILACS | ID: biblio-1368124

ABSTRACT

INTRODUCCIÓN: Bogotá cuenta con un sistema de emergencias médicas de ambulancias públicas y privadas que responden a incidentes de salud. No se conoce, sin embargo, su suficiencia en cantidad, tipo y ubicación de recursos demandados. OBJETIVOS: A partir de los datos del sistema de emergencias médicas de Bogotá, Colombia, se buscó primero caracterizar la respuesta pre hospitalaria en paro cardiaco. Luego, con el modelo se buscó determinar cuál sería el menor número de recursos necesarios para responder antes de ocho minutos, teniendo en cuenta su ubicación, número y tipo. MÉTODOS: Se obtuvo una base de datos de incidentes reportados en registros administrativos de la autoridad sanitaria distrital de Bogotá (de 2014 a 2017). A partir de esa información, se diseñó un modelo híbrido basado en la simulación de eventos discretos y algoritmos genéticos para establecer la cantidad, tipo y ubicación geográfica de recursos, conforme a frecuencias y tipología de los eventos. RESULTADOS: De la base de datos, Bogotá presentó 938 671 envíos de ambulancias en el período. El 47,4% de prioridad alta, 18,9% media y 33,74% baja. El 92% de estos correspondieron a 15 de 43 códigos de emergencias médicas. Los tiempos de respuesta registrados fueron mayores a lo esperado, especialmente en paro cardiaco extra hospitalario (mediana de 19 minutos). En el modelo planteado, el mejor escenario requirió al menos 281 ambulancias, medicalizadas y básicas en proporción de 3:1 respectivamente para responder en tiempos adecuados. CONCLUSIONES: Los resultados sugieren la necesidad de incrementar los recursos que responden a estos incidentes para acercar estos tiempos de respuesta a las necesidades de nuestra población.


INTRODUCTION: Bogotá has a Medical Emergency System of public and private ambulances that respond to health incidents. However, its sufficiency in quantity, type and location of the resources demanded is not known. OBJECTIVE: Based on the data from the Medical Emergency System of Bogotá, Colombia, we first sought to characterize the prehospital response in cardiac arrest and determine with the model which is the least number of resources necessary to respond within eight minutes, taking into account their location, number, and type. METHODS: A database of incidents reported in administrative records of the district health authority of Bogotá (2014 to 2017) was obtained. Based on this information, a hybrid model based on discrete event simulation and genetic algorithms was designed to establish the amount, type and geographic location of resources according to the frequencies and typology of the events. RESULTS: From the database, Bogotá presented 938 671 ambulances dispatches in the period. 47.4% high priority, 18.9% medium and 33.74% low. 92% of these corresponded to 15 of 43 medical emergency codes. The response times recorded were longer than expected, especially in out-of-hospital cardiac arrest (median 19 minutes). In the proposed model, the best scenario required at least 281 ambulances, medicalized and basic in a 3:1 ratio, respectively, to respond in adequate time. CONCLUSIONS: Results suggest the need for an increase in the resources that respond to these incidents to bring these response times to the needs of our population.


Subject(s)
Humans , Emergency Medical Services , Time Factors , Algorithms , Ambulances , Colombia
10.
Rev. Hosp. Ital. B. Aires (2004) ; 42(1): 12-20, mar. 2022. graf, ilus, tab
Article in Spanish | LILACS, BINACIS, UNISALUD | ID: biblio-1368801

ABSTRACT

Introducción: determinar la causa de muerte de los pacientes internados con enfermedad cardiovascular es de suma importancia para poder tomar medidas y así mejorar la calidad su atención y prevenir muertes evitables. Objetivos: determinar las principales causas de muerte durante la internación por enfermedades cardiovasculares. Desarrollar y validar un algoritmo para clasificar automáticamente a los pacientes fallecidos durante la internación con enfermedades cardiovasculares Diseño del estudio: estudio exploratorio retrospectivo. Desarrollo de un algoritmo de clasificación. Resultados: del total de 6161 pacientes, el 21,3% (1316) se internaron por causas cardiovasculares; las enfermedades cerebrovasculares representan el 30,7%, la insuficiencia cardíaca el 24,9% y las enfermedades cardíacas isquémicas el 14%. El algoritmo de clasificación según motivo de internación cardiovascular vs. no cardiovascular alcanzó una precisión de 0,9546 (IC 95%: 0,9351-0,9696). El algoritmo de clasificación de causa específica de internación cardiovascular alcanzó una precisión global de 0,9407 (IC 95%: 0,8866-0,9741). Conclusiones: la enfermedad cardiovascular representa el 21,3% de los motivos de internación de pacientes que fallecen durante su desarrollo. Los algoritmos presentaron en general buena performance, particularmente el de clasificación del motivo de internación cardiovascular y no cardiovascular y el clasificador según causa específica de internación cardiovascular. (AU)


Introduction: determining the cause of death of hospitalized patients with cardiovascular disease is of the utmost importance in order to take measures and thus improve the quality of care of these patients and prevent preventable deaths. Objectives: to determine the main causes of death during hospitalization due to cardiovascular diseases.To development and validate a natural language processing algorithm to automatically classify deceased patients according to their cause for hospitalization. Design: retrospective exploratory study. Development of a natural language processing classification algorithm. Results: of the total 6161 patients in our sample who died during hospitalization, 21.3% (1316) were hospitalized due to cardiovascular causes. The stroke represent 30.7%, heart failure 24.9%, and ischemic cardiac disease 14%. The classification algorithm for detecting cardiovascular vs. Non-cardiovascular admission diagnoses yielded an accuracy of 0.9546 (95% CI 0.9351, 0.9696), the algorithm for detecting specific cardiovascular cause of admission resulted in an overall accuracy of 0.9407 (95% CI 0.8866, 0.9741). Conclusions: cardiovascular disease represents 21.3% of the reasons for hospitalization of patients who die during hospital stays. The classification algorithms generally showed good performance, particularly the classification of cardiovascular vs non-cardiovascular cause for admission and the specific cardiovascular admission cause classifier. (AU)


Subject(s)
Humans , Artificial Intelligence/statistics & numerical data , Cerebrovascular Disorders/mortality , Myocardial Ischemia/mortality , Heart Failure/mortality , Hospitalization , Quality of Health Care , Algorithms , Reproducibility of Results , Factor Analysis, Statistical , Mortality , Cause of Death , Electronic Health Records
11.
J. health med. sci. (Print) ; 8(1): 53-56, ene.-mar. 2022.
Article in Spanish | LILACS | ID: biblio-1395768

ABSTRACT

En estadística existen dos enfoques básicos, la estadística frecuentista que es la corriente principal y la estadística bayesiana. La mayoría de los principales métodos estadísticos son frecuentistas siendo el enfoque bayesiano más desconocido entre los investigadores. En el presente artículo se exponen los fundamentos lógicos del enfoque bayesiano y su uso mediante un ejemplo de aplicación. En este contexto, más que presentar un debate entre la lógica clásica y la bayesiana, se pretende mostrar de manera introductoria las enormes posibilidades que el enfoque bayesiano puede aportar a la investigación en las Ciencias de la Salud.


In the stadistic field there are two basic approaches, the Frequentist Statistics which is the primary one, and the Bayesian Statistics. The most used statistical methods are the Frequentist methods, being the Bayesian approach the most popular among researchers. In this article, the logical basis of the Bayendian approach and its use are exposed through an application example. In this context, rather than presenting a debate between the classic and the Bayensian logic, it is intended to demonstrate in an introductory method the considerable possibilities how Bayesian approach can contribute to Health and Sciences research.


Subject(s)
Bayes Theorem , Health Sciences/education , Algorithms , Models, Statistical
12.
Acta Paul. Enferm. (Online) ; 35: eAPE003966, 2022. tab, graf
Article in Portuguese | LILACS, BDENF | ID: biblio-1393707

ABSTRACT

Resumo Objetivo Desenvolver um algoritmo para avaliação perineal na assistência ao parto e aferir sua aplicabilidade e acurácia utilizando um protótipo de sistema de suporte à decisão. Métodos Pesquisa aplicada de desenvolvimento tecnológico, constituída pela construção de algoritmo, avaliação por profissionais com expertise na área, criação de um protótipo de Sistema de Apoio à Decisão usando ferramentas on-line e avaliação de sua aplicabilidade e acurácia durante a assistência a 305 partos realizados por enfermeiros. Os dados foram analisados por estatística descritiva, teste Qui-quadrado e exato de Fisher além do coeficiente de Kappa para avaliar a concordância entre o procedimento indicado pelo sistema e o realizado pelo profissional. Resultados Houve concordância entre a sugestão do algoritmo e a decisão do profissional em 93,1% dos partos; em 6,9% o profissional decidiu caminhos opostos ao recomendado. Os profissionais que optaram por seguir a sugestão do algoritmo obtiveram como desfecho a integridade perineal ou a ocorrência de lacerações de 1°grau. Os que optaram por não seguir a recomendação houve ocorrência de lacerações de 2º ou 3º graus em 28,6% das parturientes. Já na análise de acurácia, o algoritmo sugeriu que a episiotomia deveria ser realizada em 45 dos 305 partos assistidos. Verificou-se associação entre divergências de conduta e número de eventos adversos (p=0,001). Conclusão O algoritmo mostrou-se ferramenta útil para a avaliação perineal na assistência ao parto.


Resumen Objetivo Desarrollar un algoritmo para la evaluación perineal en la asistencia al parto y determinar su aplicabilidad y precisión utilizando un prototipo de sistema para respaldar la decisión. Métodos Investigación aplicada de desarrollo tecnológico, constituida mediante la construcción del algoritmo, evaluación de profesionales con experiencia en el área, creación de un prototipo de Sistema para Respaldar la Decisión usando herramientas en línea y evaluación de su aplicabilidad y precisión durante la atención a 305 partos realizados por enfermeros. Los datos fueron analizados mediante estadística descriptiva, prueba χ2 de Pearson y prueba exacta de Fisher, además del coeficiente Kappa para evaluar la concordancia entre el procedimiento indicado por el sistema y el realizado por el profesional. Resultados Hubo concordancia entre la sugerencia del algoritmo y la decisión del profesional en el 93,1 % de los partos, en el 6,9 % el profesional decidió un camino opuesto al recomendado. Los profesionales que optaron por seguir la sugerencia del algoritmo obtuvieron como resultado la integridad perineal o episodios de desgarro de primer grado. Los que optaron por no seguir la recomendación, tuvieron episodios de desgarros de segundo y tercer grado en el 28,6 % de las parturientas. Por otro lado, en el análisis de precisión, el algoritmo sugirió que la episiotomía debería ser realizada en 45 de los 305 partos atendidos. Se verificó relación entre divergencias de conducta y número de eventos adversos (p=0,001). Conclusión El algoritmo demostró ser una herramienta útil para la evaluación perineal en la atención a partos.


Abstract Objective To develop an algorithm for perineal assessment in childbirth care and assess its applicability and accuracy using a decision support system prototype. Methods This is applied research of technological development, consisting of the construction of an algorithm, assessment by professionals with expertise in the area, creation of a Decision Support System prototype using online tools and assessment of its applicability and accuracy during care for 305 childbirths performed by nurses. Data were analyzed using descriptive statistics, chi-square and Fisher's exact tests, in addition to the Kappa coefficient to assess the agreement between the procedure indicated by the system and that performed by professionals. Results There was agreement between the algorithm's suggestion and professional decision in 93.1% of childbirths. In 6.9%, professionals decided opposite paths to the recommended one. The professionals who chose to follow the algorithm's suggestion had perineal integrity or the occurrence of first-degree tear as an outcome. Those who chose not to follow the recommendation had second- or third-degree tears in 28.6% of parturient women. In the accuracy analysis, the algorithm suggested that episiotomy should be performed in 45 of the 305 assisted childbirths. There was an association between divergences in conduct and the number of adverse events (p=0.001). Conclusion The algorithm proved to be a useful tool for perineal assessment in childbirth care.


Subject(s)
Humans , Female , Pregnancy , Perineum/physiopathology , Labor, Obstetric , Decision Support Systems, Clinical , Lacerations , Labor Presentation , Natural Childbirth , Algorithms , Episiotomy
13.
Rev. Fac. Odontol. (B.Aires) ; 37(85): 41-48, 2022. ilus, tab, graf
Article in Spanish | LILACS | ID: biblio-1402386

ABSTRACT

El objetivo del presente estudio fue evaluar la lectura e interpretación de códigos QR grabados con láser, sobre soportes metálicos adaptados, en prótesis den-tales acrílicas sometidas a injurias térmicas y ácidas. Se confeccionaron 150 prótesis de acrílico termopo-limerizable: 120 prótesis fueron expuestas a la acción de temperaturas de 200ºC, 400ºC, 800ºC y 1000ºC durante 30, 60 y 120 minutos (Grupo 1). Este grupo se dividió en un subgrupo 1.A, que incluyó 60 prótesis con el código QR grabado sobre un soporte de cromo cobalto adaptado en el acrílico, y un subgrupo 1.B, con 60 aparatos protésicos que portaban en su estruc-tura un soporte de acero para bandas de ortodoncia con el código QR. Las 30 prótesis remanentes confor-maron el Grupo 2 y se dividieron en subgrupo 2.A (15 prótesis con el soporte de cromo cobalto), y subgrupo 2.B (15 prótesis con el soporte de acero para bandas de ortodoncia), todas sumergidas en ácido clorhídrico al 40 % a temperatura ambiente, durante 30, 60 y 120 minutos. Los análisis estadísticos para comparación entre grupos e inter-grupos fueron ANOVA y prueba de Tukey, todos con nivel de significancia p<0,05. En el Grupo 1, la lectura positiva de los códigos QR fue del 75 % para el subgrupo 1.A, y 12 % en el subgrupo 1.B. Para el Grupo 2, la lectura positiva de los códigos QR resultó en un 66 % en el subgrupo 2.A, y 0 % para el subgrupo 2.B. Se concluyó que pese a los efectos vulnerantes de los agentes físicos y químicos sobre el acrílico, bajo ciertas condiciones es posible leer e interpretar códigos QR grabados con láser sobre so-portes metálicos adaptados en la estructura protéti-ca, representando una alternativa para la identificación humana (AU)


The objective was to evaluate the reading and interpretation of laser-engraved QR codes on metal supports adapted to acrylic dental prostheses subjected to thermal and acid insults. Were made 150 thermo-curing acrylic prostheses, 120 prostheses were exposed to the action of temperatures of 200ºC, 400ºC, 800ºC and 1000ºC for 30, 60 and 120 minutes (Group 1). This group was divided into a subgroup 1.A that included 60 prostheses with the QR code engraved on a cobalt chromium support adapted to the acrylic and a subgroup 1.B with the other half of the prosthetic appliances, which had in their structure a support of steel for orthodontic bands with QR code. The 30 remaining prostheses made up Group 2 and were divided into subgroup 2.A (15 prostheses with cobalt chromium support) and subgroup 2.B (15 prostheses with steel support for orthodontic bands) all submerged in hydrochloric acid 40% at room temperature, for 30, 60 and 120 minutes. The statistical analyzes for groups comparison and between groups were ANOVA and Tukey's test, all with a significance level of p <0.05. In Group 1, the positive reading of the QR codes was 75% for Subgroup 1.A and 12% in subgroup 1.B. For Group 2, the positive reading of the QR codes resulted in 66% in subgroup 2.A and 0% for subgroup 2.B. Conclusion: Despite the damaging effects of physical and chemical agents on acrylic, under certain conditions it is possible to read and interpret laser-engraved QR codes on metal supports adapted to the prosthetic structure, which may represent an alternative for human identification (AU)


Subject(s)
Algorithms , Forensic Anthropology , Denture Identification Marking , Lasers , Acrylic Resins , Analysis of Variance , Data Interpretation, Statistical , Computer Security , Dental Prosthesis , Hydrochloric Acid
14.
J. health inform ; 14(1): 26-34, 20220000.
Article in English | LILACS | ID: biblio-1370952

ABSTRACT

Objective: Identify the risk of patients with Chronic Chagas Cardiomyopathy (CCC) to prevent them from having Sudden Cardiac Death (SCD). Methods: We developed an SCD prediction system using a heterogeneous dataset of chagasic patients evaluated in 9 state-of-the-art machine learning algorithms to select the most critical clinical variables and predict SCD in chagasic patients even when the interval between the most recent exams and the SCD event is months or years. Results: 310 patients were analyzed, being 81 (14,7%) suffering from SCD. In the study, Balanced Random Forest showed the best performance, with AUC:80.03 and F1:75.12. Due to their high weights in the machine learning classifiers, we suggest Holter - Non-Sustained Ventricular Tachycardia, Total Ventricular Extrasystoles, Left Ventricular Systolic Diameter, Syncope, and Left Ventricular Diastolic Diameter as essential features to identify SCD. Conclusion: The high-risk pattern of SCD in patients with CCC can be identified and prevented based on clinical and laboratory variables.


Objetivo: Identificar o risco de pacientes com Cardiomiopatia Chagásica Crônica (CCC) para prevenir a Morte Súbita Cardíaca (MSC). Métodos: Desenvolvemos um sistema de MSC usando um conjunto de dados heterogêneo de pacientes chagásicos avaliados em 9 algoritmos de aprendizado de máquina de última geração para selecionar as variáveis clínicas mais críticas e prever MSC em pacientes chagásicos mesmo quando o intervalo mais recente entre os mais recentes exames e o evento MSC é meses ou anos. Resultados: Foram analisados 310 pacientes, sendo 81 (14,7%) portadores de CCC. No estudo, o algoritmo Balanced Random Forest apresentou o melhor desempenho, com AUC:80,03 e F1:75,12. Devido ao seu alto peso nos classificadores de aprendizado de máquina, sugerimos Holter - Taquicardia Ventricular Não Sustentada, Extrassístoles Ventriculares Totais, Diâmetro Sistólico do Ventrículo Esquerdo, Síncope e Diâmetro Diastólico do Ventrículo Esquerdo como características essenciais para identificar a CCC. Conclusão: O padrão de alto risco de MSC em pacientes com CCC pode ser identificado e prevenido com base em variáveis clínicas e laboratoriais.


Objetivo: Identificar el riesgo de los pacientes con Miocardiopatía Chagásica Crónica (MCC) para evitar que presenten Muerte Cardíaca Súbita (MCS). Métodos: Desarrollamos un sistema MCS utilizando un conjunto de datos heterogéneo de pacientes chagásicos evaluados en 9 algoritmos de aprendizaje automático de última generación para seleccionar las variables clínicas más críticas y predecir MCS en pacientes chagásicos incluso cuando el intervalo más reciente entre los más recientes exámenes y el evento MCS es meses o años. Resultados: Se analizaron 310 pacientes, siendo 81 (14,7%) con MSC. En el estudio, Balanced Random Forest mostró el mejor desempeño, con AUC:80.03 y F1:75.12. Debido a su alto peso en los clasificadores de aprendizaje automático, sugerimos Holter - Taquicardia ventricular no sostenida, Extrasístoles ventriculares totales, Diámetro sistólico del ventrículo izquierdo, Síncope y Diámetro diastólico del ventrículo izquierdo como características esenciales para identificar la MSC. Conclusión: El patrón de alto riesgo de MSC en pacientes con MCC se puede identificar y prevenir con base en variables clínicas y de laboratorio.


Subject(s)
Humans , Male , Female , Chagas Cardiomyopathy/complications , Death, Sudden, Cardiac/prevention & control , Machine Learning , Algorithms , Chronic Disease , Probability , Risk Assessment , Electrocardiography
15.
In. Soeiro, Alexandre de Matos; Leal, Tatiana de Carvalho Andreucci Torres; Accorsi, Tarso Augusto Duenhas; Gualandro, Danielle Menosi; Oliveira Junior, Múcio Tavares de; Caramelli, Bruno; Kalil Filho, Roberto. Manual da residência em cardiologia / Manual residence in cardiology. Santana de Parnaíba, Manole, 2 ed; 2022. p.76-79, tab.
Monography in Portuguese | LILACS | ID: biblio-1349378
16.
Repert. med. cir ; 31(2): 123-132, 2022. ilus., tab.
Article in English, Spanish | LILACS, COLNAL | ID: biblio-1381091

ABSTRACT

Introducción: la enfermedad celíaca (EC) es una patología sistémica inmunomediada por el gluten en la dieta en personas genéticamente susceptibles con un amplio rango de manifestaciones clínicas, respuesta serológica específica y un daño variable de la mucosa intestinal. Objetivo: revisar la fisiopatología, manifestaciones clínicas, diagnóstico, tratamiento, seguimiento y pronóstico de la EC, resaltando la importancia de reconocerla y proponer un algoritmo diagnóstico para la población colombiana. Materiales y métodos: revisión crítica de la literatura científica en las bases de datos Medline y buscadores específicos PUBMED, SCIENCE DIRECT, SCIELO, filtrando resultados a revisiones sistemáticas, metaanálisis, ensayos controlados aleatorios y guías de práctica clínica, con un total de 1209 artículos, de los cuales se priorizaron 53. Resultados y discusión: la prevalencia de la EC viene en aumento en países en vía de desarrollo. El diagnóstico tiene tres pilares fundamentales: la identificación de casos de alto riesgo o sospecha por manifestaciones clínicas, un perfil serológico de anticuerpos específicos y hallazgos histológicos característicos. El tratamiento se basa en una dieta sin gluten, en la detección temprana de complicaciones y el manejo de las alteraciones nutricionales. Conclusión: en Colombia no existen protocolos de diagnóstico y tratamiento de la EC, como tampoco una legislación clara con respecto al etiquetado de productos libres de gluten. Hay que establecer estrategias para impactar el curso natural de la enfermedad, las morbilidades asociadas y la calidad de vida de los pacientes.


Introduction: celiac disease (CD) is a systemic diet-gluten-immune-mediated enteropathy occurring in genetically susceptible individuals featuring a broad range of clinical manifestations, a specific serological response and variable intestinal mucosal damage. Objective: to review CD pathophysiology, clinical manifestations, diagnosis, treatment, follow-up and prognosis, highlighting the importance of awareness about this disorder and development of a diagnostic algorithm for Colombian population. Materials and methods: scientific literature critical review in the Medline databases and PUBMED, SCIENCE DIRECT, SCIELO specific search engines, using filters to retrieve systematic reviews, metanalyses, randomized controlled trials and clinical practice guidelines, finding 1209 articles, prioritizing 53. Results and discussion: the prevalence of CD is increasing in developing countries. Diagnosis is based on 3 fundamental pillars: identification of higher-risk populations or suspicion based on clinical manifestations, serological profile of specific antibodies and characteristic histological findings. Treatment is based on a gluten-free diet, early detection of complications and nutritional alterations management. Conclusion: there are no CD diagnosis and treatment protocols, nor clear regulations on labelling gluten-free products, in Colombia. Establishing strategies to impact the natural course of CD, associated morbidities and quality of life, is required


Subject(s)
Celiac Disease , Algorithms , Serologic Tests , Diet , Diet, Gluten-Free , Intestinal Diseases
17.
Article in Chinese | WPRIM | ID: wpr-936369

ABSTRACT

OBJECTIVE@#To propose a nonlocal spectral similarity-induced material decomposition network (NSSD-Net) to reduce the correlation noise in the low-dose spectral CT decomposed images.@*METHODS@#We first built a model-driven iterative decomposition model for dual-energy CT, optimized the objective function solving process using the iterative shrinking threshold algorithm (ISTA), and cast the ISTA decomposition model into the deep learning network. We then developed a novel cost function based on the nonlocal spectral similarity to constrain the training process. To validate the decomposition performance, we established a material decomposition dataset by real patient dual-energy CT data. The NSSD-Net was compared with two traditional model-driven material decomposition methods, one data-based material decomposition method and one data-model coupling-driven material decomposition supervised learning method.@*RESULTS@#The quantitative results showed that compared with the two traditional methods, the NSSD-Net method obtained the highest PNSR values (31.383 and 31.444) and SSIM values (0.970 and 0.963) and the lowest RMSE values (2.901 and 1.633). Compared with the datamodel coupling-driven supervised decomposition method, the NSSD-Net method obtained the highest SSIM values on water and bone decomposed results. The results of subjective image quality assessment by clinical experts showed that the NSSD-Net achieved the highest image quality assessment scores on water and bone basis material (8.625 and 8.250), showing significant differences from the other 4 decomposition methods (P < 0.001).@*CONCLUSION@#The proposed method can achieve high-precision material decomposition and avoid training data quality issues and model unexplainable issues.


Subject(s)
Algorithms , Humans , Image Processing, Computer-Assisted/methods , Phantoms, Imaging , Signal-To-Noise Ratio , Tomography, X-Ray Computed/methods , Water
18.
Article in Chinese | WPRIM | ID: wpr-936326

ABSTRACT

OBJECTIVE@#To develop a method for R-peak detection of ECG data from wearable devices to allow accurate estimation of the physiological parameters including heart rate and heart rate variability.@*METHODS@#A fully convolutional neural network was applied to predict the R-peak heatmap of ECG data and locate the R-peak positions. The heartbeat-aware (HA) module was introduced to enable the model to learn to predict the heartbeat number and R-peak heatmap simultaneously, thereby improving the capability of the model for extraction of the global context. The R-R interval estimated by the predicted heartbeat number was adopted to calculate the minimum horizontal distance for peak positioning. To achieve real-time R-peak detection on mobile devices, the deep separable convolution was adopted to reduce the number of parameters and the computational complexity of the model.@*RESULTS@#The proposed model was trained only with ECG data from wearable devices. At a tolerance window interval of 150 ms, the proposed method achieved R peak detection sensitivities of 100% for both wearable device ECG dataset and a public dataset (i.e. LUDB), and the true positivity rates exceeded 99.9%. As for the ECG signal of a 10 s duration, the CPU time of the proposed method for R-peak detection was about 23.2 ms.@*CONCLUSION@#The proposed method has good performance for R-peak detection of both wearable device ECG data and routine ECG data and also allows real-time R-peak detection of the ECG data.


Subject(s)
Algorithms , Electrocardiography , Heart Rate , Neural Networks, Computer , Signal Processing, Computer-Assisted , Wearable Electronic Devices
19.
Article in Chinese | WPRIM | ID: wpr-936305

ABSTRACT

OBJECTIVE@#To investigate the performance of different low-dose CT image reconstruction algorithms for detecting intracerebral hemorrhage.@*METHODS@#Low-dose CT imaging simulation was performed on CT images of intracerebral hemorrhage at 30%, 25% and 20% of normal dose level (defined as 100% dose). Seven algorithms were tested to reconstruct low-dose CT images for noise suppression, including filtered back projection algorithm (FBP), penalized weighted least squares-total variation (PWLS-TV), non-local mean filter (NLM), block matching 3D (BM3D), residual encoding-decoding convolutional neural network (REDCNN), the FBP convolutional neural network (FBPConvNet) and image restoration iterative residual convolutional network (IRLNet). A deep learning-based model (CNN-LSTM) was used to detect intracerebral hemorrhage on normal dose CT images and low-dose CT images reconstructed using the 7 algorithms. The performance of different reconstruction algorithms for detecting intracerebral hemorrhage was evaluated by comparing the results between normal dose CT images and low-dose CT images.@*RESULTS@#At different dose levels, the low-dose CT images reconstructed by FBP had accuracies of detecting intracerebral hemorrhage of 82.21%, 74.61% and 65.55% at 30%, 25% and 20% dose levels, respectively. At the same dose level (30% dose), the images reconstructed by FBP, PWLS-TV, NLM, BM3D, REDCNN, FBPConvNet and IRLNet algorithms had accuracies for detecting intracerebral hemorrhage of 82.21%, 86.80%, 89.37%, 81.43%, 90.05%, 90.72% and 93.51%, respectively. The images reconstructed by IRLNet at 30%, 25% and 20% dose levels had accuracies for detecting intracerebral hemorrhage of 93.51%, 93.51% and 93.06%, respectively.@*CONCLUSION@#The performance of reconstructed low-dose CT images for detecting intracerebral hemorrhage is significantly affected by both dose and reconstruction algorithms. In clinical practice, choosing appropriate dose level and reconstruction algorithm can greatly reduce the radiation dose and ensure the detection performance of CT imaging for intracerebral hemorrhage.


Subject(s)
Algorithms , Cerebral Hemorrhage/diagnostic imaging , Humans , Image Processing, Computer-Assisted/methods , Least-Squares Analysis , Tomography, X-Ray Computed/methods
20.
Article in Chinese | WPRIM | ID: wpr-941044

ABSTRACT

OBJECTIVE@#To propose a new method for mining complexes in dynamic protein network using spatiotemporal convolution neural network.@*METHODS@#The edge strength, node strength and edge existence probability are defined for modeling of the dynamic protein network. Based on the time series information and structure information on the graph, two convolution operators were designed using Hilbert-Huang transform, attention mechanism and residual connection technology to represent and learn the characteristics of the proteins in the network, and the dynamic protein network characteristic map was constructed. Finally, spectral clustering was used to identify the protein complexes.@*RESULTS@#The simulation results on several public biological datasets showed that the F value of the proposed algorithm exceeded 90% on DIP dataset and MIPS dataset. Compared with 4 other recognition algorithms (DPCMNE, GE-CFI, VGAE and NOCD), the proposed algorithm improved the recognition efficiency by 34.5%, 28.7%, 25.4% and 17.6%, respectively.@*CONCLUSION@#The application of deep learning technology can improve the efficiency in analysis of dynamic protein networks.


Subject(s)
Algorithms , Cluster Analysis , Computer Simulation , Neural Networks, Computer , Research Design
SELECTION OF CITATIONS
SEARCH DETAIL