1000 resultados para algoritmos de confiabilidade


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Com o objetivo de medir a confiabilidade da gota espessa em uma área de infecção pelo Plasmodium foi realizado um estudo no qual foram avaliadas 322 gotas espessas, lidas em condições normais de campo, por microscopista treinado. Posteriormente, as mesmas lâminas foram examinadas por outro microscopista que fez a leitura em condições ideais. A concordância foi medida usando o índice Kappa. Nos pacientes com sintomas de malária foi encontrada uma concordância de 0,91 (IC 95% 0,57-0,98 p<0,05) enquanto nos pacientes com infecção assintomática o valor do índice Kappa foi de 0,42 (IC 95% 0,15-0,68 p<0,05). Conclui-se que em áreas onde há infecção assintomática é fundamental aumentar a confiabilidade da gota espessa aumentando o número de campos lidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Muitas vezes é necessário trabalhar com variáveis categóricas, porem há um número restrito de análisesque as abordam. Uma boa técnica de segmentação é a grade of membership (GoM), muito utilizada na área médica, em psicologia e em sociologia. Essa metodologia possui uma interpretação interessante baseada em perfis extremos (segmentos) e grau de pertencimento. Porém o modelo possui grande complexidade de estimação dos parâmetros pormáxima verossimilhança. Assim, neste trabalho propõe-se o uso de algoritmos genéticos para diminuir a complexidade e o tempo de cálculo, e aumentar a acurácia. A técnica é nomeada de Genetics Algorithms grade of membership (GA-GoM). Para averiguar a efetividade, o modelo foi primeiramente abordado por simulação – foi executado um experimento fatorial levando em conta o número de segmentos e variáveis trabalhadas. Em seguida, foi abordado um caso prático de segmentação de engajamento em redes sociais. Os resultados são superiores para modelos de maior complexidade. Conclui-se, assim, que é útil a abordagem para grandes bases de dados que contenham dados categóricos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tese de Doutoramento em Engenharia Industrial e de Sistemas (PDEIS)

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação de mestrado integrado em Engenharia Civil

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Objetivo Avaliar a equivalência semântica e a confiabilidade da Bergen Facebook Addiction Scale para o português (Brasil). Métodos O processo consistiu em cinco passos: tradução; retradução; revisão técnica e avaliação da equivalência semântica por profissionais; avaliação do instrumento por compreensão verbal por uma amostra de profissionais (n = 10) e de estudantes (n = 37); análise de consistência interna e estabilidade por meio do coeficiente de Cronbach e coeficiente de correlação intraclasse (CCI) respectivamente, em uma amostra de 359 estudantes de graduação. Resultados O instrumento apresentou no fim um excelente nível de compreensão verbal pela população-alvo, alfa de Cronbach de 0,92 e CCI de 0,81. Conclusão A versão adaptada do instrumento para o uso em nosso ambiente resultou em um instrumento equivalente do ponto de visão de equivalência semântica, assegurando a transferência do significado geral e referencial, mantendo níveis satisfatórios de confiabilidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

OBJETIVO: Determinar a confiabilidade das medidas dos diâmetros basal (DBAB) e pós-oclusão (DPOAB) da artéria braquial e da dilatação fluxo-mediada da artéria braquial (DILA), assim como quantificar o erro típico dessas medidas (ETM). MÉTODOS: A consistência interna (2 medidas intradias) foi determinada em 10 voluntários, enquanto a estabilidade (2 medidas interdias) foi determinada em 13 voluntários aparentemente saudáveis e não-fumantes. As imagens da artéria braquial foram obtidas pelo aparelho de ultra-sonografia bidimensional com Doppler, utilizando transdutor de 14 MHz. As distâncias entre as interfaces íntima-luz foram medidas antes e após interrupção do fluxo sangüíneo durante 5 minutos por manguito posicionado no braço. O DILA foi considerado o porcentual de aumento do DPOAB em relação ao DBAB. RESULTADOS: A ANOVA não identificou diferenças significativas entre as medidas intradias e interdias. Para o DILA, os coeficientes de correlação intraclasse entre as medidas intradias e interdias foram R = 0,7001 e R = 0,8420, respectivamente (p < 0,05). Os coeficientes de variação foram 5,8% e 12,4% e os ETM relativos 13,8% e 14,9%, respectivamente para medidas intra e interdias. A análise dos gráficos de Bland-Altman apontou que as variáveis não apresentaram erro heterocedástico. CONCLUSÃO: A medida do DBAB, DPOAB e do DILA por meio de técnica manual pela ultra-sonografia apresenta alta confiabilidade tanto para os valores intradias quanto interdias, possibilitando seu uso para diagnóstico e monitoramento da função endotelial.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En este proyecto se desarrollarán algoritmos numéricos para sistemas no lineales hiperbólicos-parabólicos de ecuaciones diferenciales en derivadas parciales. Dichos sistemas tienen aplicación en propagación de ondas en ámbitos aeroespaciales y astrofísicos.Objetivos generales: 1)Desarrollo y mejora de algoritmos numéricos con la finalidad de incrementar la calidad en la simulación de propagación e interacción de ondas gasdinámicas y magnetogasdinámicas no lineales. 2)Desarrollo de códigos computacionales con la finalidad de simular flujos gasdinámicos de elevada entalpía incluyendo cambios químicos, efectos dispersivos y difusivos.3)Desarrollo de códigos computacionales con la finalidad de simular flujos magnetogasdinámicos ideales y reales.4)Aplicación de los nuevos algoritmos y códigos computacionales a la solución del flujo aerotermodinámico alrededor de cuerpos que ingresan en la atmósfera terrestre. 5)Aplicación de los nuevos algoritmos y códigos computacionales a la simulación del comportamiento dinámico no lineal de arcos magnéticos en la corona solar. 6)Desarrollo de nuevos modelos para describir el comportamiento no lineal de arcos magnéticos en la corona solar.Este proyecto presenta como objetivo principal la introducción de mejoras en algoritmos numéricos para simular la propagación e interacción de ondas no lineales en dos medios gaseosos: aquellos que no poseen carga eléctrica libre (flujos gasdinámicos) y aquellos que tienen carga eléctrica libre (flujos magnetogasdinámicos). Al mismo tiempo se desarrollarán códigos computacionales que implementen las mejoras de las técnicas numéricas.Los algoritmos numéricos se aplicarán con la finalidad de incrementar el conocimiento en tópicos de interés en la ingeniería aeroespacial como es el cálculo del flujo de calor y fuerzas aerotermodinámicas que soportan objetos que ingresan a la atmósfera terrestre y en temas de astrofísica como la propagación e interacción de ondas, tanto para la transferencia de energía como para la generación de inestabilidades en arcos magnéticos de la corona solar. Estos dos temas poseen en común las técnicas y algoritmos numéricos con los que serán tratados. Las ecuaciones gasdinámicas y magnetogasdinámicas ideales conforman sistemas hiperbólicos de ecuaciones diferenciales y pueden ser solucionados utilizando "Riemann solvers" junto con el método de volúmenes finitos (Toro 1999; Udrea 1999; LeVeque 1992 y 2005). La inclusión de efectos difusivos genera que los sistemas de ecuaciones resulten hiperbólicos-parabólicos. La contribución parabólica puede ser considerada como términos fuentes y tratada adicionalmente tanto en forma explícita como implícita (Udrea 1999; LeVeque 2005).Para analizar el flujo alrededor de cuerpos que ingresan en la atmósfera se utilizarán las ecuaciones de Navier-Stokes químicamente activas, mientras la temperatura no supere los 6000K. Para mayores temperaturas es necesario considerar efectos de ionización (Anderson, 1989). Tanto los efectos difusivos como los cambios químicos serán considerados como términos fuentes en las ecuaciones de Euler. Para tratar la propagación de ondas, transferencia de energía e inestabilidades en arcos magnéticos de la corona solar se utilizarán las ecuaciones de la magnetogasdinámica ideal y real. En este caso será también conveniente implementar términos fuente para el tratamiento de fenómenos de transporte como el flujo de calor y el de radiación. Los códigos utilizarán la técnica de volúmenes finitos, junto con esquemas "Total Variation Disminishing - TVD" sobre mallas estructuradas y no estructuradas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En nuestro proyecto anterior aproximamos el cálculo de una integral definida con integrandos de grandes variaciones funcionales. Nuestra aproximación paraleliza el algoritmo de cómputo de un método adaptivo de cuadratura, basado en reglas de Newton-Cote. Los primeros resultados obtenidos fueron comunicados en distintos congresos nacionales e internacionales; ellos nos permintieron comenzar con una tipificación de las reglas de cuadratura existentes y una clasificación de algunas funciones utilizadas como funciones de prueba. Estas tareas de clasificación y tipificación no las hemos finalizado, por lo que pretendemos darle continuidad a fin de poder informar sobre la conveniencia o no de utilizar nuestra técnica. Para llevar adelante esta tarea se buscará una base de funciones de prueba y se ampliará el espectro de reglas de cuadraturas a utilizar. Además, nos proponemos re-estructurar el cálculo de algunas rutinas que intervienen en el cómputo de la mínima energía de una molécula. Este programa ya existe en su versión secuencial y está modelizado utilizando la aproximación LCAO. El mismo obtiene resultados exitosos en cuanto a precisión, comparado con otras publicaciones internacionales similares, pero requiere de un tiempo de cálculo significativamente alto. Nuestra propuesta es paralelizar el algoritmo mencionado abordándolo al menos en dos niveles: 1- decidir si conviene distribuir el cálculo de una integral entre varios procesadores o si será mejor distribuir distintas integrales entre diferentes procesadores. Debemos recordar que en los entornos de arquitecturas paralelas basadas en redes (típicamente redes de área local, LAN) el tiempo que ocupa el envío de mensajes entre los procesadores es muy significativo medido en cantidad de operaciones de cálculo que un procesador puede completar. 2- de ser necesario, paralelizar el cálculo de integrales dobles y/o triples. Para el desarrollo de nuestra propuesta se desarrollarán heurísticas para verificar y construir modelos en los casos mencionados tendientes a mejorar las rutinas de cálculo ya conocidas. A la vez que se testearán los algoritmos con casos de prueba. La metodología a utilizar es la habitual en Cálculo Numérico. Con cada propuesta se requiere: a) Implementar un algoritmo de cálculo tratando de lograr versiones superadoras de las ya existentes. b) Realizar los ejercicios de comparación con las rutinas existentes para confirmar o desechar una mejor perfomance numérica. c) Realizar estudios teóricos de error vinculados al método y a la implementación. Se conformó un equipo interdisciplinario integrado por investigadores tanto de Ciencias de la Computación como de Matemática. Metas a alcanzar Se espera obtener una caracterización de las reglas de cuadratura según su efectividad, con funciones de comportamiento oscilatorio y con decaimiento exponencial, y desarrollar implementaciones computacionales adecuadas, optimizadas y basadas en arquitecturas paralelas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El avance en la potencia de cómputo en nuestros días viene dado por la paralelización del procesamiento, dadas las características que disponen las nuevas arquitecturas de hardware. Utilizar convenientemente este hardware impacta en la aceleración de los algoritmos en ejecución (programas). Sin embargo, convertir de forma adecuada el algoritmo en su forma paralela es complejo, y a su vez, esta forma, es específica para cada tipo de hardware paralelo. En la actualidad los procesadores de uso general más comunes son los multicore, procesadores paralelos, también denominados Symmetric Multi-Processors (SMP). Hoy en día es difícil hallar un procesador para computadoras de escritorio que no tengan algún tipo de paralelismo del caracterizado por los SMP, siendo la tendencia de desarrollo, que cada día nos encontremos con procesadores con mayor numero de cores disponibles. Por otro lado, los dispositivos de procesamiento de video (Graphics Processor Units - GPU), a su vez, han ido desarrollando su potencia de cómputo por medio de disponer de múltiples unidades de procesamiento dentro de su composición electrónica, a tal punto que en la actualidad no es difícil encontrar placas de GPU con capacidad de 200 a 400 hilos de procesamiento paralelo. Estos procesadores son muy veloces y específicos para la tarea que fueron desarrollados, principalmente el procesamiento de video. Sin embargo, como este tipo de procesadores tiene muchos puntos en común con el procesamiento científico, estos dispositivos han ido reorientándose con el nombre de General Processing Graphics Processor Unit (GPGPU). A diferencia de los procesadores SMP señalados anteriormente, las GPGPU no son de propósito general y tienen sus complicaciones para uso general debido al límite en la cantidad de memoria que cada placa puede disponer y al tipo de procesamiento paralelo que debe realizar para poder ser productiva su utilización. Los dispositivos de lógica programable, FPGA, son dispositivos capaces de realizar grandes cantidades de operaciones en paralelo, por lo que pueden ser usados para la implementación de algoritmos específicos, aprovechando el paralelismo que estas ofrecen. Su inconveniente viene derivado de la complejidad para la programación y el testing del algoritmo instanciado en el dispositivo. Ante esta diversidad de procesadores paralelos, el objetivo de nuestro trabajo está enfocado en analizar las características especificas que cada uno de estos tienen, y su impacto en la estructura de los algoritmos para que su utilización pueda obtener rendimientos de procesamiento acordes al número de recursos utilizados y combinarlos de forma tal que su complementación sea benéfica. Específicamente, partiendo desde las características del hardware, determinar las propiedades que el algoritmo paralelo debe tener para poder ser acelerado. Las características de los algoritmos paralelos determinará a su vez cuál de estos nuevos tipos de hardware son los mas adecuados para su instanciación. En particular serán tenidos en cuenta el nivel de dependencia de datos, la necesidad de realizar sincronizaciones durante el procesamiento paralelo, el tamaño de datos a procesar y la complejidad de la programación paralela en cada tipo de hardware. Today´s advances in high-performance computing are driven by parallel processing capabilities of available hardware architectures. These architectures enable the acceleration of algorithms when thes ealgorithms are properly parallelized and exploit the specific processing power of the underneath architecture. Most current processors are targeted for general pruposes and integrate several processor cores on a single chip, resulting in what is known as a Symmetric Multiprocessing (SMP) unit. Nowadays even desktop computers make use of multicore processors. Meanwhile, the industry trend is to increase the number of integrated rocessor cores as technology matures. On the other hand, Graphics Processor Units (GPU), originally designed to handle only video processing, have emerged as interesting alternatives to implement algorithm acceleration. Current available GPUs are able to implement from 200 to 400 threads for parallel processing. Scientific computing can be implemented in these hardware thanks to the programability of new GPUs that have been denoted as General Processing Graphics Processor Units (GPGPU).However, GPGPU offer little memory with respect to that available for general-prupose processors; thus, the implementation of algorithms need to be addressed carefully. Finally, Field Programmable Gate Arrays (FPGA) are programmable devices which can implement hardware logic with low latency, high parallelism and deep pipelines. Thes devices can be used to implement specific algorithms that need to run at very high speeds. However, their programmability is harder that software approaches and debugging is typically time-consuming. In this context where several alternatives for speeding up algorithms are available, our work aims at determining the main features of thes architectures and developing the required know-how to accelerate algorithm execution on them. We look at identifying those algorithms that may fit better on a given architecture as well as compleme

Relevância:

20.00% 20.00%

Publicador:

Resumo:

FUNDAMENTO: Devido à sobreposição de sintomas e inadequada capacidade de exercícios, o diagnóstico não-invasivo da doença arterial coronariana (DAC) pode ser sub ou superestimado em pacientes com doença pulmonar obstrutiva crônica (DPOC). OBJETIVO: Avaliar os resultados de angiografias coronarianas em pacientes com DPOC dependendo das características clínicas basais. MÉTODOS: Os registros médicos de 157 pacientes com DPOC e 157 pacientes sem DPOC pareados por características clínicas basais, que haviam sido submetidos a angiografia coronariana diagnóstica pela primeira vez, foram revisados, retrospectivamente. RESULTADOS: A frequência de DAC era significantemente mais baixa em pacientes com DPOC do que no grupo controle (52,8% vs. 80,2%, p<0,001). As frequências dos fatores de risco para DAC (idade avançada, hipertensão, diabete, histórico de fumo) eram significantemente mais comuns entre os pacientes com DPOC que tinham DAC significativa. Entre os pacientes que reportavam angina pectoris estável, DAC significativa foi detectada em 32,7% dos pacientes com DPOC e em 71,0% dos pacientes sem DPOC (p<0,001). Entretanto, para os pacientes com diagnóstico de angina pectoris instável, DAC significativa foi detectada em 87,5% dos pacientes com DPOC e 90,2% dos pacientes sem DPOC (p=0,755). CONCLUSÃO: O diagnóstico de DAC pacientes com DPOC através da sintomatologia, somente, pode ser difícil. Entretanto, o diagnóstico clínico de DAC no quadro de angina instável é acurado na maioria dos pacientes com DPOC. Assim, outros métodos diagnósticos não-invasivos ou seguimento cuidadoso podem ser mais apropriados para pacientes com DPOC que reportam angina pectoris estável.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

FUNDAMENTO: A prevalência de depressão em portadores de doença arterial coronariana (DAC) é alta. A escala de depressão geriátrica (EDG) é um instrumento amplamente usado para rastrear a depressão em idosos. No Brasil, as propriedades psicométricas da versão curta ainda não foram adequadamente exploradas. OBJETIVO: Avaliar as propriedades psicométricas da versão curta da EDG em portadores de DAC em ambulatório de cardiologia. MÉTODOS: Estudo transversal que avaliou 209 idosos (≥ 65 anos) com DAC utilizando a EDG-15, Cumulative Illness Rating Scale for Geriatrics (CIRS), Brazilian OARS Multidimensional Function Assessment Questionnaire (BOMFAQ) e The Cambridge Examination for Mental Disorders of the Elderly (CAMDEX). A consistência interna da EDG-15 foi calculada pelo KR-20. Uma análise fatorial dessa escala foi conduzida. Escores da EDG-15 foram comparados com os diagnósticos de depressão (DSM-IV) para a validade de critérios. Na análise de validade concorrente, os mesmos escores foram correlacionados com os das escalas de depressão CAMDEX, Miniexame do Estado Mental (MEEM), Cambridge Cognitive Examination (CAMCOG) e BOMFAQ. RESULTADOS: A depressão clínica foi diagnosticada em 35,71% da amostra avaliada de acordo com o DSM-IV. Para o diagnóstico de depressão maior ou distimia, o ponto de corte 5/6 apresentou acurácia moderada (AUROC = 0,84), sensibilidade de 79,92% e especificidade de 78,29%. A consistência interna foi de 0,80. Na análise fatorial, três fatores obtidos explicaram 52,72% da variância total observada. Os escores da EDG-15 correlacionaram-se com os da escala de depressão CAMDEX. CONCLUSÃO: No geral, a EDG-15 apresentou boa confiabilidade e validade (concorrente e de critério). Em settings cardiológicos, seu uso pode auxiliar no rastreamento de quadros depressivos de forma simples e rápida.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En este trabajo se propone un método para mejorar la predicción de la propagación de incendios forestales. En la actualidad existen diversos simuladores de comportamiento del fuego los cuales utilizan diversos parámetros de entrada. Estos parámetros de entrada suelen ser una fuente de imprecisión dada la dificultad que resulta disponer de sus valores reales. Este trabajo intenta mejorar las predicciones mediante la mejora de la precisión de los parámetros de entrada. Se utiliza un algoritmo genético guiado utilizando conocimiento disponible. Los resultados observados demuestran que utilizar conocimiento mejora la precisión de las predicciones y acelera dicho proceso.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El diagnòstic de la Trombosi Venosa Profunda pot ser difícil degut a una clínica poc específica. S’han desenvolupat diversos algoritmes en què el Dímer-D té un important paper, degut al seu elevat valor predictiu negatiu. El Dímer-D augmenta amb l’edat i disminueix des de l’aparició dels símptomes, si ajustem el seu punt de tall tenint en compte aquests dos paràmetres, és possible augmentar el seu rendiment diagnòstic. Segons els nostres resultats, als subjectes majors de 70 anys i als que presenten una clínica inferior a 14 dies, es podria utilitzar un punt de tall de 1000 ng/mL

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El consumo energético es un aspecto cada vez más importante en el diseño de microprocesadores. Este trabajo experimenta con una técnica de control del consumo, el escalado dinámico de tensión y frecuencia (DVFS, siglas en inglés), para determinar cuan efectiva es la misma en la ejecución de programas con diferentes cargas de trabajo, intensivas en cómputo o memoria. Además, se ha extendido la experimentación a varios núcleos de ejecución, permitiendo comprobar en que medida las características de la ejecución en una arquitectura multicore afecta al desempeño de dicha técnica.