Your browser doesn't support javascript.
loading
Show: 20 | 50 | 100
Results 1 - 20 de 297
Filter
1.
Rev. bras. med. esporte ; 27(spe2): 27-30, Apr.-June 2021. graf
Article in English | LILACS | ID: biblio-1280096

ABSTRACT

ABSTRACT For athletes under training, it is more efficient to use the Internet of Things (IoT) and cloud computing methods to collect and process biochemical indicators, and this study is about research based on the IoT and cloud computing technology for athletes under training. The problems are put forward in this study. The requirements of related algorithm design and the communication model properties are comprehensively analyzed. Scheduling the link and allocating the transmit power of the nodes are comprehensively considered, with design and analysis of wireless sensor network scheduling algorithm. The factors influencing the scheduling efficiency of the algorithm are analyzed, considering the node density and the influence of different power allocation schemes on the scheduling result. This study shows that the algorithm of this thesis can collect the biochemical index data of athletes during training period. As the number of nodes increases, the running results will gradually move towards the optimal value. This research study is of important theoretical significance for the application of IoT and cloud computing technology and the improvement of athlete training effect.


RESUMO Para os indicadores bioquímicos dos atletas durante o treino, é mais eficiente usar a internet das coisas e métodos de computação em nuvem para coletar e processar indicadores bioquímicos durante o treino de atletas. Este estudo se baseia na tecnologia da internet das coisas IoT e na computação em nuvem voltada para atletas durante o período de treino. Os problemas são apresentados neste documento. Os requisitos de concepção de algoritmos relacionados e propriedades do modelo de comunicação são amplamente analisados. A programação do link e a alocação da potência de transmissão dos nodos são considerados de forma abrangente, com projeto e análise do algoritmo de programação da rede de sensores sem fio. Os fatores que influenciam a eficiência de programação do algoritmo são analisados, considerando a densidade do nodo e a influência de diferentes sistemas de alocação de energia no resultado da programação. A pesquisa Mostra que o algoritmo desta tese pode coletar os dados do índice bioquímico dos atletas durante o período de treino. À medida que o número de nodos aumenta, os resultados de execução tenderão gradualmente para o valor ideal. Esta pesquisa tem um significado teórico importante para a aplicação da tecnologia da internet das coisas e computação em nuvem e para a melhoria do efeito dos treinos realizados por atletas.


RESUMEN Para los indicadores bioquímicos de los atletas durante el entrenamiento, es más eficiente usar la internet de las cosas y métodos de computación en nube para recolectar y procesar indicadores bioquímicos durante el entrenamiento de atletas. Este estudio se basa en la tecnología de la internet de las cosas IoT y en la computación en nube dedicada a atletas durante el período de entrenamiento. Los problemas son presentados en este documento. Los requisitos de concepción de algoritmos relacionados y propriedades del modelo de comunicación son ampliamente analizados. La programación del link y la destinación de la potencia de transmisión de los nodos son considerados de forma abarcadora, con proyecto y análisis del algoritmo de programación de la red de sensores inalámbrica. Los fatores que influencian la eficiencia de programación del algoritmo son analizados, considerando la densidad del nodo y la influencia de diferentes sistemas de destinación de energía en el resultado de la programación. La investigación muestra que el algoritmo de esta tesis puede recolectar los datos del índice bioquímico de los atletas durante el período de entrenamiento. A medida que el número de nodos aumenta, los resultados de ejecución tenderán gradualmente hacia el valor ideal. Esta investigación tiene un significado teórico importante para la aplicación de la tecnología de la internet de las cosas y computación en nube y para la mejora del efecto de los entrenamientos realizados por atletas.


Subject(s)
Humans , Biochemical Phenomena , Computer Systems , Athletic Performance , Athletes , Algorithms
2.
Rev. bras. med. esporte ; 27(spe2): 46-49, Apr.-June 2021. tab, graf
Article in English | LILACS | ID: biblio-1280094

ABSTRACT

ABSTRACT As far as competitive sports are concerned, scientifically organizing the training process and strictly following the training rules are the only way to success. Tennis is the foundation of all sports. It develops physical and motor skills in a comprehensive and effective manner. Biomechanical diagnosis is mainly carried out on the basis of force-time curve recording of different movement modes, and the generated data is processed by computer through a special measuring device. The main purpose of this study is to use data fusion technology to analyze and evaluate the injury factors involved in various sports. Based on this, a dynamic chain model for early warning of sports injury risk factors is established, which can provide a reference for athletes to avoid and reduce the risk of injuries and ensure normal training and competition. In tennis training, scientific training monitoring is applied to diagnose and monitor athletes' physical function and psychological state. Conduct humanized and scientific management of the training process.


RESUMO No que se refere aos esportes competitivos, a organização científica do processo de treinamento e o cumprimento estrito das regras de treinamento são a única forma de êxito. O tênis é a base de todos os esportes. O tênis desenvolve competências físicas e motoras de uma forma abrangente e eficaz. O diagnóstico biomecânico é realizado principalmente com base na gravação da curva força-tempo de diferentes modos de movimento, e os dados gerados são processados pelo computador através de um dispositivo de medição especial. O objetivo principal deste estudo é usar a tecnologia de fusão de dados para analisar e avaliar vários fatores de lesão esportiva. Com base nisso, estabelece-se um modelo dinâmico de cadeia para o alerta precoce de fatores de risco de lesão esportiva, podendo fornecer uma referência para que os atletas evitem e reduzam o risco de lesão e garantam a normalidade dos treinos e das competições. No treinamento de tênis, aplica-se o monitoramento de treinamento científico para diagnosticar e monitorar a função física dos atletas e seu estado psicológico. Conduzir a gestão humanizada e científica do processo de treinamento.


RESUMEN En lo que se refiere a los deportes competitivos, la organización científica del proceso de entrenamiento y el cumplimiento estricto de las reglas de entrenamiento son la única forma de éxito. El tenis es la base de todos los deportes. El tenis desarrolla competencias físicas y motoras de una forma abarcadora y eficaz. El diagnóstico biomecánico es realizado principalmente basándose en la grabación de la curva fuerza-tiempo de diferentes modos de movimiento, y los datos generados son procesados por la computadora por medio de un dispositivo de medición especial. El objetivo principal de este estudio es usar la tecnología de fusión de datos para analizar y evaluar varios factores de lesión deportiva. Sobre esa base, se establece un modelo dinámico de cadena para la alerta precoz de factores de riesgo de lesión deportiva, pudiendo proveer una referencia para que los atletas eviten y reduzcan el riesgo de lesión y garanticen la normalidad de los entrenamientos y de las competencias. En el entrenamiento de tenis, se aplica el monitoreo de entrenamiento científico para diagnosticar y monitorear la función física de los atletas y su estado psicológico. Conducir la gestión humanizada y científica del proceso de entrenamiento.


Subject(s)
Humans , Athletic Injuries/diagnosis , Computer Systems , Tennis/injuries , Monitoring, Physiologic/methods , Athletic Injuries/prevention & control
3.
Rev. bras. med. esporte ; 27(spe2): 87-90, Apr.-June 2021. tab, graf
Article in English | LILACS | ID: biblio-1280087

ABSTRACT

ABSTRACT Motion capture is a common problem in sports. It is mainly used to measure and capture running distance in football matches. Use of cloud computing motion capture algorithm in football running distance test, for lack of cloud computing algorithm using motion capture in the application. Data are obtained by experiment to verify the effectiveness and feasibility of the improved cloud computing motion capture algorithm in running distance in football. The final conclusion is that, compared with the original cloud computing motion capture algorithm, the optimized cloud computing motion capture algorithm can significantly reduce the number of cycles in the test of football running distance.


RESUMO A captura de movimento é um problema comum nos esportes. É usado principalmente para medir e capturar a distância de corrida em jogos de futebol. Este estudo aborda o uso do algoritmo de captura de movimento por computação em nuvem no teste de distância de corrida de futebol, por falta do algoritmo de computação em nuvem usando a captura de movimento na aplicação. Os dados são obtidos por experimento para verificar a eficácia e viabilidade do algoritmo melhorado de captura de movimento por computação em nuvem no teste de distância de corrida no futebol. A conclusão final é que, em comparação com o algoritmo original de captura de movimento por computação em nuvem, o algoritmo otimizado de captura de movimento por computação em nuvem pode reduzir significativamente o número de ciclos no teste de distância de corrida no futebol.


RESUMEN La captura de movimiento es un problema común en los deportes. Es usado principalmente para medir y capturar la distancia de corrida en juegos de fútbol. Este estudio aborda el uso del algoritmo de captura de movimiento por computación en nube en el test de distancia de corrida de fútbol, por falta del algoritmo de computación en nube usando la captura de movimiento en la aplicación. Los datos son obtenidos por experimento para verificar la eficacia y viabilidad del algoritmo mejorado de captura de movimiento por computación en nube en el test de distancia de corrida en el fútbol. La conclusión final es que, en comparación con el algoritmo original de captura de movimiento por computación en nube, el algoritmo optimizado de captura de movimiento por computación en nube puede reducir significativamente el número de ciclos en el test de distancia de corrida en el fútbol.


Subject(s)
Humans , Soccer , Computer Systems , Cloud Computing , Movement , Algorithms
4.
Santa Tecla, La Libertad; ITCA Editores; ene. 2020. 122 p. ^c28 cm.ilus., tab., graf..
Monography in Spanish | LILACS, BISSAL | ID: biblio-1179348

ABSTRACT

Este proyecto de investigación aplicada permite analizar, diseñar y construir un sistema informático que sirve de apoyo para la asignación y calificación de pruebas psicométricas, las cuales servirán a los especialistas en el área de psicología en la toma de decisiones, sobre el comportamiento y otros indicadores de los estudiantes de nuevo ingreso. El sistema multiplataforma desarrollado, permite automatizar el proceso de realizar las pruebas psicométricas a aspirantes de nuevo ingreso a fin de identificar posibles desertores. El diseño del modelo de datos relacional del sistema, permite además utilizarse en línea en diferentes instituciones, con diferentes test y diferentes usuarios al mismo tiempo, sin afectar su rendimiento.


This applied research project allows to analyze, design and build a computer system that supports the assignment and qualification of psychometric tests, which will serve specialists in the area of ​​psychology in decision-making, behavior and other indicators. The multiplatform system developed makes it possible to automate the process of conducting psychometric tests on newly admitted applicants in order to identify possible dropouts. The design of the relational data model of the system also allows it to be used online in different institutions, with different tests and different users at the same time, without affecting its performance.


Subject(s)
Psychometrics , Computer Systems , Academic Performance , Personality , Psychology , Students , Behavior , Attitude , Education , Indicators and Reagents
5.
Article in Chinese | WPRIM | ID: wpr-879214

ABSTRACT

The method of directly using speed information and angle information to drive attractors model of grid cells to encode environment has poor anti-interference ability and is not bionic. In response to the problem, this paper proposes a grid field calculation model based on perceived speed and perceived angle. The model has the following characteristics. Firstly, visual stream is decoded to obtain visual speed, and speed cell is modeled and decoded to obtain body speed. Visual speed and body speed are integrated to obtain perceived speed information. Secondly, a one-dimensional circularly connected cell model with excitatory connection is used to simulate the firing mechanism of head direction cells, so that the robot obtains current perception angle information in a biomimetic manner. Finally, the two kinds of perceptual information of speed and angle are combined to realize the driving of grid cell attractors model. The proposed model was experimentally verified. The results showed that this model could realize periodic hexagonal firing field mode of grid cells and precise path integration function. The proposed algorithm may provide a foundation for the research on construction method of robot cognitive map based on hippocampal cognition mechanism.


Subject(s)
Action Potentials , Computer Simulation , Computer Systems , Entorhinal Cortex , Grid Cells , Hippocampus , Models, Neurological
6.
E-Cienc. inf ; 9(2): 1-17, jul.-dic. 2019.
Article in Spanish | LILACS, SaludCR | ID: biblio-1089864

ABSTRACT

Resumen El artículo aborda la importancia que tiene la imagen en la cognición del ser humano y mediante esa reflexión identifica a la fotografía como un recurso que puede utilizarse con gran potencial no solo en la colección de la biblioteca, sino, también, en la digitalización de documentos, la promoción de servicios, la gestión cultural, la alfabetización informacional, la animación lectora y la preservación de información. En este último tema se aborda una propuesta sobre las utilidades que puede tener en bibliotecas el uso de una de las técnicas fotográficas recientes: la fotografía esférica 360. Además, para llevar a la práctica estas aplicaciones de la fotografía, el documento propone una serie de características idóneas para el perfil de la persona profesional en Bibliotecología.


Abstract The article addresses the importance of the image in the cognition of the human being and through this reflection identifies photography as a resource that can be used with great potential not only in the collection of the library, but also in the digitalization of documents, the promotion of services, cultural management, information literacy, reading animation and the preservation of information. In this last subject a proposal is approached on the utilities that can have in libraries the use of one of the recent photographic techniques: the spherical photography 360. In addition, to carry out these applications of the photography the document proposes a series of characteristics ideal for the profile of the professional in librarianship.


Subject(s)
Computer Literacy , Library Collection Development , Access to Information , Libraries, Digital , Information Literacy , Photograph , Computer Systems , Staff Development , Research Promotion
7.
Acta bioquím. clín. latinoam ; 53(4): 511-524, dic. 2019. graf, tab
Article in Spanish | LILACS | ID: biblio-1124029

ABSTRACT

El objetivo de este trabajo fue establecer el impacto de la implementación de un sistema de gestión de calidad (SGC) en el desempeño del laboratorio de análisis clínicos del Hospital Materno Provincial. Se diseñaron diez indicadores de calidad (IC), que se midieron pre y posimplementación del sistema documental. Se encontró para el indicador solicitud médica incorrecta (SMI) una disminución de 11,2% a 6% cuando se implementó la gestión documental. Para el indicador omisión del diagnóstico (OD), el porcentaje bajó de 41,6% a 27,9% luego de la intervención. Se encontró un 5% de errores en ingreso al sistema informático del laboratorio (EI-SIL) en situación basal y 3,9% posimplementación, mientras que el indicador muestras mal remitidas (MMR) disminuyó de 3,1% a 1,9%. El 58% de los analitos disminuyó el índice de error total (IET) y el 80% aumentó el valor de sigma luego de la intervención. El 61% de los analitos disminuyó el valor de incertidumbre, mejorando de esta manera el desempeño de los métodos analíticos. El porcentaje de valores críticos (VC) comunicados al médico terapeuta antes de los 60 minutos aumentó del 20 al 54% después de la implementación de la gestión documental, mientras que el indicador reimpresión de informes (RI) disminuyó de 5,2 a 1,8%. El tiempo de respuesta (TAT) disminuyó de 164 a 125 minutos. La implementación de un SGC bajo los requisitos de normas internacionales mejoró el conocimiento y funcionamiento de los procesos del laboratorio clínico, evidenciado por la disminución de los errores en las etapas preanalítica, analítica y posanalítica.


The purpose of this study was to analyze the impact of implementing a quality management system (QMS) in the performance of a clinical laboratory of Hospital Materno Provincial. Ten quality indexes (QI) have been designed; they were measured before and after the implementation of the document management system (DMS). For the "incorrect medical application" index, there was a reduction from 11.2% to 6% when the DMS was implemented. For the "diagnostic omission" index, the percentage decreased from 41.6% to 27.9% after the implementation. Five per cent of mistakes were found in the admission of the laboratory computer system in the baseline state and 3.9% of the mistakes were found after implementation of the system. Meanwhile, the "incorrect sent samples" index decreased from 3.1% to 1.9%. Fifty eight per cent of the analytes decreased the total error index and 80% of them increased the sigma value after the intervention. Sixty one per cent of the analytes decreased the uncertainty value, thus improving the performance of analytical methods. The percentage of critical values communicated to the physician before the 60 minutes increased from 20% to 54% after the implementation of the DMS, while the "reprint of reports" index decreased from 5.2% to 1.8%. The turn around time (TAT) decreased from 164 to 125 minutes. The implementation of a QMS, under the requirements of international standards, improved the knowledge and the functioning of different processes of the clinical laboratory. This has been evidenced by the decrease of mistakes in the pre-analytical, analytical and post-analytical phases.


O objetivo deste trabalho foi estabelecer o impacto da implementação de um sistema de gestão de qualidade (SGC) no desempenho do laboratório de análises clínicas do Hospital Materno Provincial. Foram desenhados dez indicadores de qualidade (IQ), que foram medidos antes e depois da implementação do sistema documental. Foi achada uma diminuição de 11,2% para 6% no indicador solicitação médica incorreta, (SMI) quando se aplica a gestão documental. Para o indicador omissão do diagnóstico, a porcentagem baixou de 41,6% para 27,9% após a intervenção. Foram encontrados 5% de erros em entrada ao sistema informático do laboratório (EI-SIL) em situação basal e 3,9% pós-implantação, enquanto que o indicador amostras mal encaminhadas (AME) diminuiu de 3,1% para 1,9%. cincuenta e ocho por ciento dos analitos diminuíram o índice de erro total (IET) e 80% aumentou o valor de sigma após a intervenção. Sesenta e uno por ciento dos analitos diminuiu o valor de dúvidas, melhorando desta maneira o desempenho dos métodos analíticos. A porcentagem de valores críticos (VC) comunicados ao médico terapeuta antes dos 60 minutos aumentou de 20 para 54% depois da implementação da gestão documental, enquanto que o indicador reimpressão de relatórios diminuiu de 5,2 para 1,8%. O tempo de resposta diminuiu de 164 para 125 minutos. A implementação de um SGC sob os requisitos de normas internacionais melhorou o conhecimento e funcionamento dos processos do laboratório clínico, evidenciado pela diminuição dos erros nas etapas pré-analítica, analítica e pós-analítica.


Subject(s)
Organization and Administration , Reaction Time , Reference Standards , Clinical Laboratory Techniques , Quality Management , Indicators (Statistics) , Clinical Laboratory Services , Laboratories , Work , Computer Systems , Knowledge , State , Uncertainty , Diagnosis , Efficiency , Research Report , Missed Diagnosis , Hospitals
8.
Medicina (B.Aires) ; 79(1): 44-52, feb. 2019. graf, tab
Article in Spanish | LILACS | ID: biblio-1002586

ABSTRACT

Un adecuado control glucémico evita o retarda la aparición y/o evolución de las complicaciones crónicas en pacientes con diabetes mellitus (DM). Para lograrlo es necesario adecuar las dosis de insulina en personas con DM tipo 1 o tipo 2 en insulinoterapia, por el tradicional automonitoreo de glucosa capilar (AGC) que presenta aún limitaciones para generar un registro adecuado de datos, es invasivo y tiene baja adherencia. En contraposición, los nuevos sistemas de monitoreo continuo de glucosa (MCG) brindan una información más completa, más dinámica y con mejor tolerancia. Están constituidos por un sensor subcutáneo que informa ininterrumpidamente los niveles de glucosa del tejido celular subcutáneo y un módulo receptor que permite su lectura y almacenamiento. Los modelos de tiempo real (MCG-RT) permiten observar continuamente los datos, mientras que los sistemas intermitentes (MCG-Flash/EI) los muestran siempre y cuando se acerque el receptor al módulo sensor, generando una lectura voluntaria e intermitente, aunque almacenan todo en la memoria. El MCG informa además las tendencias glucémicas, indicando si están en ascenso o descenso y a qué velocidad cambian. El uso del MCG vs. AGC reduce la hemoglobina glicosilada (A1c) entre 0.53 y 1.0% con disminución significativa (38%) del tiempo de exposición a hipoglucemias. Presenta además, mayor adherencia. Los objetivos de esta revisión son: describir la homeostasis glucémica, evaluar la precisión del MCG, interpretar los datos adecuadamente y finalmente, sugerir en forma práctica los cambios para incorporar a la insulinoterapia tradicional, basados en la información que aportan estos novedosos sistemas de monitoreo.


An adequate glycemic control prevents and/or delays the development and/or progression of chronic complications in patients with diabetes mellitus (DM). To achieve this control, it is necessary to adjust insulin doses, in type 1 or insulinized type 2 DM persons, based on traditional capillary glucose self-monitoring, which has limitations to generate an adequate data record, is invasive and has low adherence. In contrast, new continuous glucose monitoring (CGM) systems provide more complete and dynamic information, and better compliance. In these systems, a subcutaneous sensor continuously sends glucose values which are captured and stocked by a receptor module. Real-time models (CGM-RT) allow continuous and real-time readings of interstitial glucose, whereas CGM-Flash/EI systems require lector approach to sensor module performing intermittent scanning. CGM shows if glycemic levels are increasing or decreasing and how fast it is happening (tendency). CGM decreases glycosylated hemoglobin between 0.53% and 1.0%, as well as time in hypoglycemia by 38%, increasing the time in range of glucose levels, in patients with high adherence. The objectives of this review are to describe the glycemic homeostasis, to evaluate the accuracy of the CGM to interpret the data adequately and finally, based on the information provided by these novel monitoring systems, to suggest a practical way to be added to the traditional intensive insulin therapy.


Subject(s)
Humans , Blood Glucose/analysis , Blood Glucose Self-Monitoring/methods , Time Factors , Computer Systems , Blood Glucose Self-Monitoring/instrumentation , Diabetes Mellitus/prevention & control
9.
Article in English | WPRIM | ID: wpr-785634

ABSTRACT

Clinical decision support systems are interactive computer systems for situational decision making and can improve decision efficiency and safety of care. We investigated the role of these systems in enhancing prehospital care. This narrative review included full-text articles published since 2000 that were available in databases/e-journals including Web of Science, PubMed, Science Direct, and Google Scholar. Search keywords included “clinical decision support system,” “decision support system,” “decision support tools,” “prehospital care,” and “emergency medical services.” Non-journal articles were excluded. We revealed 14 relevant studies that used such a support system in prehospital emergency medical service. Owing to the dynamic nature of emergency situations, decision timing is critical. Four key factors demonstrated the ability of clinical decision support systems to improve decision-making, reduce errors, and improve the safety of prehospital emergency activity: computer-based, offer support as a natural part of the workflow, provide decision support in the time and place of decision making, and offer practical advice. The use of clinical decision support systems in prehospital care resulted in accurate diagnoses, improved patient triage and patient outcomes, and reduction of prehospital time. By improving emergency management and rescue operations, the quality of prehospital care will be enhanced.


Subject(s)
Computer Systems , Decision Making , Decision Support Systems, Clinical , Diagnosis , Emergencies , Emergency Medical Services , Humans , Triage
10.
Article in English | WPRIM | ID: wpr-763952

ABSTRACT

OBJECTIVES: In this paper, we present an efficient method to visualize computed tomography (CT) datasets using ambient occlusion, which is a global illumination technique that adds depth cues to the output image. We can change the transfer function (TF) for volume rendering and generate output images in real time. METHODS: In preprocessing, the mean and standard deviation of each local vicinity are calculated. During rendering, the ambient light intensity is calculated. The calculation is accelerated on the assumption that the CT value of the local vicinity of each point follows the normal distribution. We approximate complex TF forms with a smaller number of connected line segments to achieve additional acceleration. Ambient occlusion is combined with the existing local illumination technique to produce images with depth in real time. RESULTS: We tested the proposed method on various CT datasets using hand-drawn TFs. The proposed method enabled real-time rendering that was approximately 40 times faster than the previous method. As a result of comparing the output image quality with that of the conventional method, the average signal-to-noise ratio was approximately 40 dB, and the image quality did not significantly deteriorate. CONCLUSIONS: When rendering CT images with various TFs, the proposed method generated depth-sensing images in real time.


Subject(s)
Acceleration , Computer Systems , Cues , Dataset , Lighting , Mathematical Computing , Methods , Signal-To-Noise Ratio
11.
Psychiatry Investigation ; : 602-606, 2019.
Article in English | WPRIM | ID: wpr-760970

ABSTRACT

OBJECTIVE: Reaction time is defined as the time from the start of a stimulus to the start of the voluntary movement. Time plays an important role in undertaking daily living activities. Reaction time is an important factor in respect of both quality of life and of capabilities demonstrated in the work environment. Alcohol and some addictive substances have effect on RT. The aim of this study was to compare the visual and auditory reaction times of patients with opioid use disorder with healthy control subjects. METHODS: The study was applied to two groups as the opioid use disorder group and the control group. A Sociodemographic and Clinical Data Form was prepared for each patient including age, gender, marital status and education level. Using a computer program the response to visual screen color change (red/blue) and to an auditory ‘beep’ sound of the computer system were recorded. The Student’s t-test was applied as a statistical method. RESULTS: The results showed longer reaction times in the patients with opioid use disorder. CONCLUSION: To add improving reaction time approaches in opioid use disorder treatment may contribute to treatment by increasing quality of life and work performance.


Subject(s)
Activities of Daily Living , Computer Systems , Drug Users , Education , Heroin Dependence , Humans , Marital Status , Methods , Mortuary Practice , Opioid-Related Disorders , Quality of Life , Reaction Time , Work Performance
13.
Rev. cuba. inform. méd ; 10(2)jul.-dic. 2018. tab, graf
Article in Spanish | LILACS, CUMED | ID: biblio-1003902

ABSTRACT

Introducción: En el Hospital de Clínicas de Paraguay, el proceso actual de búsqueda de terminologías para la codificación médica en estándares de salud toma mucho tiempo ya que se realiza manualmente. Se propone, optimizar el proceso actual de búsqueda a través de la implementación de un servidor de terminología médica utilizando servicios web y una librería de motor de búsqueda de texto. Método: Se propone una arquitectura cliente - servidor de tres capas (también conocida como arquitectura multi-nivel), organizada de la siguiente manera: capa de presentación, de negocios y capa de datos. Se eligió utilizar este patrón por la independencia entre las capas y la clara definición de cada una de ellas en cuanto al objetivo que persigue. El servidor de terminología se encuentra representado en la capa de negocios. Está compuesta por un conjunto de servicios web de tipo REST y una librería de motor de búsqueda de texto, denominada Apache Lucene. Experimentos y Resultados: Fueron realizados dos experimentos acordes a los objetivos específicos mencionados anteriormente. El servidor de terminología implementado responde hasta 19 veces más rápido que el proceso actual de búsqueda y resultó ser bastante competitivo contra Metamorphosys. Si bien ambas herramientas presentan un tiempo de respuesta promedio similar, el servidor de terminología es hasta 5 veces más rápido que Metamorphosys en sus valores atípicos. Conclusiones: El servidor de terminología implementado reduce el tiempo de búsqueda del proceso actual siendo más rápido que el proceso actual de búsqueda. Finalmente, ante la comparación del servidor implementado contra el buscador Metamorphosys, el servidor implementado se muestra competitivo contra dicho buscador ya que tienen tiempos de respuesta similares(AU)


Introduction: In the Hospital Clínicas of Paraguay, the current process of searching for terminologies for medical coding in health standards takes a long time since it is done manually. It is proposed to optimize the current search process through the implementation of a medical terminology server using web services and a text search engine library. Method: Three layer client-server architecture is proposed (also known as multilevel architecture), organized as follows: presentation layer, business layer and data layer. The use of this pattern was due to its contribution to the independence between the layers and the clear definition of them in terms of the objective pursued. The terminology server is represented in the business layer. It is composed of a set of REST web services and a text search engine library, called Apache Lucene. Experiments and Results: Two experiments were carried out according to the objective mentioned above. The implemented terminology server responds up to 19 times faster than the current search process and proved to be quite competitive against Metamorphosys. While both tools have a similar average response time, the terminology server is up to 5 times faster than Metamorphosys in their outliers. Conclusions: The terminology server implemented reduces the search time of the current process being faster than the current search process. Finally, before the comparison of the server implemented against the Metamorphosys search engine, the implemented server is competitive since they have similar response times(AU).


Subject(s)
Humans , Computer Systems/standards , Medical Informatics/methods , User-Computer Interface , Paraguay
15.
Rev. estomat. salud ; 25(2): 8-9, 20180000.
Article in Spanish | LILACS, COLNAL | ID: biblio-884126

ABSTRACT

La práctica clínica de la odontología avanzó desde los últimos 20 años, con la inmersión del CAD/CAM (Computer-assisted Design and Manufacturing), reduciendo tanto los pasos para la realización de una corona o prótesis, como mejorando la eficiencia, calidad del tratamiento y por consiguiente, la experiencia percibida por los pacientes. En Estados Unidos se estima que, el 15% de los consultorios practican Odontología Digital, es decir, hacen uso de tecnología CAD/CAM e impresión digital 3D. Además, para el año 2017, se estimó el uso de 19,000 unidades de CAD/CAM en las oficinas dentales de odontólogos americanos, mostrando que, los avances de la tecnología que veíamos muy lejanos, son una realidad, hoy (1,2). A pesar de estas cifras, las universidades han adoptado el entrenamiento en tecnología digital odontológica tímidamente, tal como lo han manifestado, según el entusiasmo por parte de docentes y estudiantes. Esto se ve reflejado en la incipiente publicación de artículos científicos en ésta área. La odontología digital se ha desarrollado en varios campos dentro de la odontología. De hecho, se ha utilizado desde el diagnóstico, planificación del tratamiento, hasta el diseño y elaboración de prótesis y restauraciones. Dentro de las herramientas de la odontología digital, se encuentra el escáner intraoral. Los escáneres han permitido capturar información detallada de las estructuras anatómicas dentales, óseas y tejidos blandos del paciente. Por tanto, es una herramienta útil para el diagnóstico y planificación del tratamiento del paciente. Además, los datos pueden ser transferidos para una impresora 3D, permitiendo obtener modelos de estudios de los pacientes sin necesidad de tomar una impresión en hidrocoloide irreversible (alginato) o en silicona. En el área de Periodoncia, la odontología digital ofrece ventajas para el estudio de los sitios quirúrgicos a operar tanto en procedimientos resectivos como regenerativos. De esta forma, la regeneración ósea guiada, la instalación quirúrgica de implantes dentales, entre otros, son procedimientos que serán realizados con mayor supervisión del clínico, haciendo la cirugía más precisa, predecible y segura para el paciente. Por su parte, la odontología pediátrica y ortopedia maxilar ha sido enriquecida en el diagnóstico de pacientes con labio y paladar fisurado, una vez que se puede evitar el uso de materiales como el hidrocoloide irreversible (alginato), disminuyendo la incomodidad que puede causar para el paciente pediátrico, sobre todo en aquellos pacientes con labio y paladar hendido. De otro lado, la ortodoncia ha utilizado la tecnología digital para personalizar los brackets de los pacientes, permitiendo un mayor control de las fuerzas ortodóncicas y, aumentando la eficacia del movimiento dental. Esto se verá traducido en menor tasa de reabsorción radicular, menor tiempo del tratamiento ortodóncico, entre otras ventajas. Finalmente, la odontología digital puede ser explotada para la educación de los pacientes. De hecho, el éxito del tratamiento no solo depende de los procedimientos realizados por el odontólogo sino también por los cuidados que el paciente tenga después de su atención clínica. Así, el uso de una impresión 3D generada a partir de información obtenida desde un escáner intraoral o una tomografía, permite mostrarle al paciente la relación entre el diagnóstico y el plan de tratamiento elegido. Adicionalmente, el paciente puede ser consciente de la evolución de su cicatrización después de la realización del tratamiento. Con todo esto, aún falta mucho por explorar. La era digital en odontología representa una atractiva línea de investigación, para aquellas personas inquietas que buscan mejorar cada vez más los servicios odontológicos. Así, esperamos comenzar en la Universidad del Valle, un camino, una trayectoria para ser pioneros en la odontología digital.


Subject(s)
Humans , Computers , Dentistry , Computer Systems , Computer-Aided Design , Computers, Analog , Radiography, Dental, Digital , Tomography , Tomography Scanners, X-Ray Computed
16.
Fortaleza; s.n; abr 2017. 152 p.
Thesis in Portuguese | LILACS, BDENF | ID: biblio-883476

ABSTRACT

O Acolhimento com Classificação de Risco (ACCR) é uma relevante estratégia para a avaliação e estratificação do risco e das vulnerabilidades de pacientes atendidos em unidades de urgência e emergência, possibilitando identificar quais casos necessitam de assistência imediata e quais podem aguardar atendimento com segurança. Além disso, o reconhecimento da evolução tecnológica, sobretudo em âmbito computacional, estimula a ideia de que o uso de tais tecnologias no cotidiano dos serviços de saúde pode contribuir para melhoria da qualidade e da segurança do serviço prestado. Objetivou-se desenvolver e avaliar um software acerca do processo de ACCR em pediatria. Estudo metodológico desenvolvido em três etapas: Etapa 1 ­ Desenvolvimento do software; Etapa 2 ­ Avaliação da qualidade técnica e do desempenho funcional do software por meio da análise das características abordadas pela ISO/IEC 25010, realizada por oito especialistas da área de informática e 13 da área de enfermagem; e Etapa 3 ­ Avaliação da concordância do software em relação ao protocolo impresso, realizada por três enfermeiros com experiência em ACCR. A análise dos dados obtidos foi realizada por meio de estatística descritiva, utilizando-se os valores de frequência absoluta e frequência relativa, e de estatística inferencial, por meio do uso do coeficiente de concordância de Kendall (W), com auxílio dos softwares Microsoft Office Excel®, Statistical Package for the Social Sciences (SPSS) versão 20.0 e R. Os aspectos éticos foram respeitados e o estudo foi aprovado pelo Comitê de Ética em Pesquisa da Universidade Federal do Ceará, tendo recebido aprovação no parecer nº 1.327.959/2015. Para desenvolvimento do software proposto, utilizou-se o modelo de processo prescritivo da engenharia de software chamado Modelo Incremental, a linguagem utilizada para o desenvolvimento foi a CSharp (C#) e o banco de dados escolhido para ser utilizado foi o Microsoft® SQL Server® 2008 R2. Os resultados alcançados a partir da avaliação do software desenvolvido para este estudo revelam que ele se mostrou adequado em todas as características analisadas, tendo sido indicado como muito apropriado e/ou completamente apropriado por mais de 70,0% das avaliações dos especialistas em informática, conforme segue: adequação funcional ­ 100,0%; confiabilidade ­ 82,6%; usabilidade ­ 84,9%; eficiência de desempenho ­ 93,4%; compatibilidade ­ 85,0%; segurança ­ 91,7%; manutenibilidade ­ 95.0%; e portabilidade ­ 87,5%, bem como pelos especialistas em enfermagem: adequação funcional ­ 96,2%; confiabilidade ­ 88,5%; usabilidade ­ 98,7%; eficiência de desempenho ­ 96,2%; compatibilidade ­ 98,1%; segurança ­ 100,0%. Os resultados da classificação de risco gerados com o uso do software, ao serem comparados com os gerados a partir do uso do protocolo impresso, indicaram concordância total em dois juízes (W=1,000; p<0,001) e concordância muito alta em outro (W=0,992; p<0,001). Os resultados permitiram concluir que o Software para ACCR em Pediatria, desenvolvido neste estudo, foi considerado adequado em relação à qualidade técnica e ao desempenho funcional. Além disso, o referido software apresentou elevada concordância em comparação com o Protocolo impresso, atualmente utilizado para a realização do ACCR no município de Fortaleza, evidenciando sua potencial segurança para o auxílio dos enfermeiros envolvidos na condução da classificação de risco em pediatria. (AU)


Subject(s)
Computer Systems , Pediatrics , Triage , User Embracement
17.
Rev. bras. geriatr. gerontol ; 20(1): 67-73, Jan.-Feb. 2017. fig
Article in English, Portuguese | LILACS | ID: biblio-843836

ABSTRACT

Abstract Objective: to develop a mobile app to quickly and safely identify frailty syndrome features among the elderly. Method: a cross-sectional study was conducted. The application was developed for the Android platform in the Java programming language and XML markup. The study instrument was based on five frailty phenotype criteria. The tests were conducted with 20 elderly persons living in a long-term care facility. Results: the twenty elderly persons had a mean age of 76.55 (±9.5) years. Thirteen were identified as frail, five were pre-frail and two were non-frail. The comparison of the results of the instruments of analysis coincided in the general evaluation of frailty and in the individual identification of the five criteria. Conclusion: the data suggests that the use of the application for the evaluation of frailty among the elderly was performed safely, with the advantage of quick access to allow the monitoring of the clinical status and prognosis of the patient.


Resumo Objetivo: desenvolver um aplicativo para dispositivos móveis com o intuito de identificar de maneira rápida e segura as características da síndrome de fragilidade em idosos. Método: estudo transversal quantitativo. O aplicativo foi desenvolvido para a plataforma Android, em linguagem de programação Java e marcação em XML. Os fundamentos utilizados foram baseados nos cinco parâmetros para definição do fenótipo de fragilidade. Os testes foram realizados com 20 idosos residentes em uma instituição de longa permanência. Resultados: a média de idade foi de 76,55 (±9,5) anos. Dentre os 20 idosos investigados, 13 foram classificados como frágeis, cinco pré-frágeis e dois não frágeis. A comparação dos resultados entre os instrumentos de análise coincidiram na avaliação geral da fragilidade e na identificação dos cinco critérios individualmente. Conclusão: a utilização do aplicativo para avaliação da fragilidade em idosos foi feita de maneira segura, com a vantagem do acesso rápido às informações para acompanhamento do quadro clínico e prognóstico do paciente.


Subject(s)
Humans , Male , Female , Aged , Computer Systems , Decision Making, Computer-Assisted , Frail Elderly , Software Validation
18.
Journal of Stroke ; : 277-285, 2017.
Article in English | WPRIM | ID: wpr-51272

ABSTRACT

Artificial intelligence (AI), a computer system aiming to mimic human intelligence, is gaining increasing interest and is being incorporated into many fields, including medicine. Stroke medicine is one such area of application of AI, for improving the accuracy of diagnosis and the quality of patient care. For stroke management, adequate analysis of stroke imaging is crucial. Recently, AI techniques have been applied to decipher the data from stroke imaging and have demonstrated some promising results. In the very near future, such AI techniques may play a pivotal role in determining the therapeutic methods and predicting the prognosis for stroke patients in an individualized manner. In this review, we offer a glimpse at the use of AI in stroke imaging, specifically focusing on its technical principles, clinical application, and future perspectives.


Subject(s)
Artificial Intelligence , Brain , Computer Systems , Diagnosis , Humans , Intelligence , Machine Learning , Patient Care , Prognosis , Stroke
19.
Article in English | WPRIM | ID: wpr-118265

ABSTRACT

The artificial neural network (ANN)–a machine learning technique inspired by the human neuronal synapse system–was introduced in the 1950s. However, the ANN was previously limited in its ability to solve actual problems, due to the vanishing gradient and overfitting problems with training of deep architecture, lack of computing power, and primarily the absence of sufficient data to train the computer system. Interest in this concept has lately resurfaced, due to the availability of big data, enhanced computing power with the current graphics processing units, and novel algorithms to train the deep neural network. Recent studies on this technology suggest its potentially to perform better than humans in some visual and auditory recognition tasks, which may portend its applications in medicine and healthcare, especially in medical imaging, in the foreseeable future. This review article offers perspectives on the history, development, and applications of deep learning technology, particularly regarding its applications in medical imaging.


Subject(s)
Artificial Intelligence , Computer Systems , Delivery of Health Care , Diagnostic Imaging , Humans , Machine Learning , Neurons , Precision Medicine , Synapses
20.
Rev. cuba. inform. méd ; 8(1)ene.-jun. 2016.
Article in Spanish | LILACS, CUMED | ID: lil-785005

ABSTRACT

En los últimos años la Arquitectura de Software se ha consolidado como una disciplina que intenta contrarrestar los efectos negativos que pueden surgir durante el desarrollo de un software, ocupando un rol significativo en la estrategia de negocio de una organización que basa sus operaciones en el software. En el presente trabajo se propone una arquitectura de software basada en la integración de los estilos arquitectónicos: Arquitectura basada en componentes, Arquitectura basada en capas y Tuberías y filtros, para el sistema de visualización médica Vismedic, con el objetivo de reducir los problemas de extensibilidad, reusabilidad y dependencias que existían en la arquitectura anterior. Para realizar la propuesta se hizo necesario el estudio de los conceptos relacionados con la Arquitectura de Software, las características arquitectónicas de tres productos establecidos en el campo del procesamiento y visualización de imágenes: Volumen Rendering Engine (Voreen), Visualization Toolkit (VTK) e Insight Toolkit (ITK) y de la especificación OSGi para el desarrollo basado en componentes. La arquitectura propuesta integra las principales características de las bibliotecas antes mencionadas e incorpora el empleo de plugins para extender las funcionalidades. La misma se validó a través de la Técnica de evaluación basada en prototipos y de la aplicación del Método de Análisis de Acuerdos de Arquitectura de Software (ATAM). La evaluación permitió identificar los riesgos presentes en la propuesta realizada y determinar que la arquitectura satisface los atributos de calidad definidos para la presente investigación(AU)


In recent years, Software Architecture has become a discipline that tries to counter the negative effects that may arise during software development, occupying a significant role in the business strategy of an organization that bases its operations on software. This paper proposes a software architecture based on the integration of the architectural styles: Component-based architecture, Layers based architecture and Pipes and Filters, for the Vismedic medical visualization system, with the objective of reducing the problems of extensibility, reusability and dependencies of the previous architecture. In order to develop the proposal was becoming necessary to study the concepts related to Software Architecture, the architectural features of three established products in the image processing and viewing field, they were: Volume Rendering Engine (Voreen), Visualization Toolkit (VTK) and Insight Toolkit (ITK), and the OSGi specification for component-based development. The proposed architecture integrates the main features of the libraries mentioned above and incorporates the use of plugins to extend its functionalities. The architecture was validated through the Prototyping based evaluation technique and the application of the Architecture Tradeoff Analysis Method (ATAM). The evaluation allowed us to identify the risks of the proposal and to determine that the architecture satisfies the quality attributes defined for this investigation(AU)


Subject(s)
Humans , Computer Systems , Image Processing, Computer-Assisted/methods , Medical Informatics Applications , Software Design , Software/standards
SELECTION OF CITATIONS
SEARCH DETAIL