998 resultados para Algoritmos de consulta
Resumo:
Este trabalho apresenta uma análise de algoritmos computacionais aplicados à estimação de fasores elétricos em SEPs. A medição dos fasores é realizada por meio da alocação de Unidades de Medição Fasorial nestes sistemas e encontra diversas aplicações nas áreas de operação, controle, proteção e planejamento. Para que os fasores possam ser aplicados, são definidos padrões de medição, sincronização e comunicação, por meio da norma IEEE C37.118.1. A norma apresenta os padrões de mensagens, timetag, fasores, sistema de sincronização, e define testes para avaliar a estimação. Apesar de abranger todos esses critérios, a diretriz não define um algoritmo de estimação padrão, abrindo espaço para uso de diversos métodos, desde que a precisão seja atendida. Nesse contexto, o presente trabalho analisa alguns algoritmos de estimação de fasores definidos na literatura, avaliando o comportamento deles em determinados casos. Foram considerados, dessa forma, os métodos: Transformada Discreta de Fourier, Método dos Mínimos Quadrados e Transformada Wavelet Discreta, nas versões recursivas e não-recursivas. Esses métodos foram submetidos a sinais sintéticos, a fim de verificar o comportamento diante dos testes propostos pela norma, avaliando o Total Vector Error, tempo de resposta e atraso e overshoot. Os algoritmos também foram embarcados em um hardware, denominado PC104, e avaliados de acordo com os sinais medidos pelo equipamento na saída analógica de um simulador em tempo real (Real Time Digital Simulator).
Resumo:
En el presente trabajo se propone dar solución a uno de los problemas principales surgido en el campo del análisis de imágenes hiperespectrales. En las últimas décadas este campo está siendo muy activo, por lo que es de vital importancia tratar su problema principal: mezcla espectral. Muchos algoritmos han tratado de solucionar este problema, pero que a través de este trabajo se propone una cadena nueva de desmezclado en paralelo, para ser acelerados bajo el paradigma de programación paralela de OpenCl. Este paradigma nos aporta el modelo de programación unificada para acelerar algoritmos en sistemas heterogéneos. Podemos dividir el proceso de desmezclado espectral en tres etapas. La primera tiene la tarea de encontrar el número de píxeles puros, llamaremos endmembers a los píxeles formados por una única firma espectral, utilizaremos el algoritmo conocido como Geometry-based Estimation of number of endmembers, GENE. La segunda etapa se encarga de identificar los píxel endmembers y extraerlos junto con todas sus bandas espectrales, para esta etapa se utilizará el algoritmo conocido por Simplex Growing Algorithm, SGA. En la última etapa se crean los mapas de abundancia para cada uno de los endmembers encontrados, de esta etapa será encargado el algoritmo conocido por, Sum-to-one Constrained Linear Spectral Unmixing, SCLSU. Las plataformas utilizadas en este proyecto han sido tres: CPU, Intel Xeon E5-2695 v3, GPU, NVidia GeForce GTX 980, Acelerador, Intel Xeon Phi 31S1P. La idea de este proyecto se basa en realizar un análisis exhaustivo de los resultados obtenidos en las diferentes plataformas, con el fin de evaluar cuál se ajusta mejor a nuestras necesidades.
Resumo:
El particionado hardware/software es una tarea fundamental en el co-diseño de sistemas embebidos. En ella se decide, teniendo en cuenta las métricas de diseño, qué componentes se ejecutarán en un procesador de propósito general (software) y cuáles en un hardware específico. En los últimos años se han propuesto diversas soluciones al problema del particionado dirigidas por algoritmos metaheurísticos. Sin embargo, debido a la diversidad de modelos y métricas utilizadas, la elección del algoritmo más apropiado sigue siendo un problema abierto. En este trabajo se presenta una comparación de seis algoritmos metaheurísticos: Búsqueda aleatoria (Random search), Búsqueda tabú (Tabu search), Recocido simulado (Simulated annealing), Escalador de colinas estocástico (Stochastic hill climbing), Algoritmo genético (Genetic algorithm) y Estrategia evolutiva (Evolution strategy). El modelo utilizado en la comparación está dirigido a minimizar el área ocupada y el tiempo de ejecución, las restricciones del modelo son consideradas como penalizaciones para incluir en el espacio de búsqueda otras soluciones. Los resultados muestran que los algoritmos Escalador de colinas estocástico y Estrategia evolutiva son los que mejores resultados obtienen en general, seguidos por el Algoritmo genético.
Resumo:
El documento de esta tesis por compendio de publicaciones se divide en dos partes: la síntesis donde se resume la fundamentación, resultados y conclusiones de esta tesis, y las propias publicaciones en su formato original, que se incluyen como apéndices. Dado que existen acuerdo de confidencialidad (véase "Derechos" más adelante) que impiden su publicación en formato electrónico de forma pública y abierta (como es el repositorio de la UA), y acorde con lo que se dictamina en el punto 6 del artículo 14 del RD 99/2011, de 28 de enero, no se incluyen estos apéndices en el documento electrónico que se presenta en cedé, pero se incluyen las referencias completas y sí se incluyen integramente en el ejemplar encuadernado. Si el CEDIP y el RUA así lo decidiesen más adelante, podría modificarse este documento electrónico para incluir los enlaces a los artículos originales.
Resumo:
%WL: porcentaje de pérdida de peso; %FL: porcentaje de pérdida de grasa; PNLWF: pacientes que pierden peso o grasa; PLWF: pacientes que pierden peso y grasa. Objetivo: evaluar si el %WL y el %FL en el tratamiento dietético, se vieron afectados por el género, la edad, el IMC y la asistencia a la consulta. Método: 4.700 consultas, 670 pacientes (IMC ≥ 25), en el sur-este de España (2006-12). Se utilizó la dieta equilibrada e hipocalórica. Dos tipos de pacientes: PNLWF y PLWF (91,9%). Resultados: en los PLWF, los hombres y los que asisten en mayor número de ocasiones a la consulta han mostrado una mayor pérdida, frente a las mujeres (%FL: 23,0 vs 14,3%, p = 0,000; %WL: 7,7 vs 6,6%, p = 0,020), y los que asisten con menor frecuencia (%FL: 19,1 vs 7,3%, p = 0,000; %WL: 7,8 vs 2,9%, p = 0,000). El análisis de regresión multinomial (PNLWF/ PLWF) indica que solo el asistir a más de mes y medio a la consulta es un factor que influye en la pérdida, OR 8,3 (IC 95% 4,5-15,1; p = 0,000). Conclusión: la medición de la grasa corporal proporciona una información adicional al peso perdido; la mayoría de los pacientes que asisten más de mes y medio obtienen un elevado %FL; la asistencia es un factor predictor de la pérdida; el %FL indica que el tratamiento dietético juega un papel principal en la resolución de esta patología; se recomienda diseñar esquemas prácticos del proceso de actuación de los nutricionistas en función del IMCi y el variable.
Resumo:
Introdução: O hipertiroidismo pode ter múltiplas etiologias, das quais se destaca a doença de Graves. Embora persista alguma controvérsia, a terapêutica de primeira linha na doença de Graves deve ser adequada às características do doente e, sempre que possível, adaptada aos seus valores e preferências. Objetivo: Caracterizar os doentes com hipertiroidismo seguidos numa consulta de Endocrinologia Pediátrica. Métodos: Estudo retrospetivo com revisão dos processos clínicos dos doentes acompanhados em consulta entre 2001 e 2013. Analisadas variáveis demográficas, clínicas, estudo complementar, opções terapêuticas e evolução. Resultados: Dos 13 doentes incluídos, 85% foram do sexo feminino e a mediana da idade ao diagnóstico foi de 14 anos. Relativamente à etiologia, 77% tinham doença de Graves, 8% hipertiroidismo autoimune com anticorpos anti-recetores da tirotropina (TRAb) negativos, 8% bócio multinodular tóxico e 8% hipertiroidismo neonatal transitório. Na sintomatologia de apre- sentação destacam-se: ansiedade/irritabilidade (46%), sudorese (31%), palpitações (31%) e fraqueza/cansaço (31%); e os seguintes sinais: bócio (77%), perda ponderal (62%) e taquicardia (54%). Apresentavam anticorpos antitiroideus positivos 92% dos doentes e TRAb positivos 85%. A primeira opção terapêutica foi maioritariamente o tiamazol (92%). Uma doente recidivou após suspensão do antitiroideu e foi submetida a terapêutica com 131I. O doente com bócio multinodular foi submetido a tiroidectomia por suspeita de tumor folicular na citologia aspirativa. Conclusão: Os dados obtidos são concordantes com a literatura. A terapêutica com tiamazol apresenta risco reduzido de reações adversas, mas baixa probabilidade de remissão, pelo que, em casos selecionados, o tratamento definitivo deve ser considerado.
Resumo:
El avance en la potencia de cómputo en nuestros días viene dado por la paralelización del procesamiento, dadas las características que disponen las nuevas arquitecturas de hardware. Utilizar convenientemente este hardware impacta en la aceleración de los algoritmos en ejecución (programas). Sin embargo, convertir de forma adecuada el algoritmo en su forma paralela es complejo, y a su vez, esta forma, es específica para cada tipo de hardware paralelo. En la actualidad los procesadores de uso general más comunes son los multicore, procesadores paralelos, también denominados Symmetric Multi-Processors (SMP). Hoy en día es difícil hallar un procesador para computadoras de escritorio que no tengan algún tipo de paralelismo del caracterizado por los SMP, siendo la tendencia de desarrollo, que cada día nos encontremos con procesadores con mayor numero de cores disponibles. Por otro lado, los dispositivos de procesamiento de video (Graphics Processor Units - GPU), a su vez, han ido desarrollando su potencia de cómputo por medio de disponer de múltiples unidades de procesamiento dentro de su composición electrónica, a tal punto que en la actualidad no es difícil encontrar placas de GPU con capacidad de 200 a 400 hilos de procesamiento paralelo. Estos procesadores son muy veloces y específicos para la tarea que fueron desarrollados, principalmente el procesamiento de video. Sin embargo, como este tipo de procesadores tiene muchos puntos en común con el procesamiento científico, estos dispositivos han ido reorientándose con el nombre de General Processing Graphics Processor Unit (GPGPU). A diferencia de los procesadores SMP señalados anteriormente, las GPGPU no son de propósito general y tienen sus complicaciones para uso general debido al límite en la cantidad de memoria que cada placa puede disponer y al tipo de procesamiento paralelo que debe realizar para poder ser productiva su utilización. Los dispositivos de lógica programable, FPGA, son dispositivos capaces de realizar grandes cantidades de operaciones en paralelo, por lo que pueden ser usados para la implementación de algoritmos específicos, aprovechando el paralelismo que estas ofrecen. Su inconveniente viene derivado de la complejidad para la programación y el testing del algoritmo instanciado en el dispositivo. Ante esta diversidad de procesadores paralelos, el objetivo de nuestro trabajo está enfocado en analizar las características especificas que cada uno de estos tienen, y su impacto en la estructura de los algoritmos para que su utilización pueda obtener rendimientos de procesamiento acordes al número de recursos utilizados y combinarlos de forma tal que su complementación sea benéfica. Específicamente, partiendo desde las características del hardware, determinar las propiedades que el algoritmo paralelo debe tener para poder ser acelerado. Las características de los algoritmos paralelos determinará a su vez cuál de estos nuevos tipos de hardware son los mas adecuados para su instanciación. En particular serán tenidos en cuenta el nivel de dependencia de datos, la necesidad de realizar sincronizaciones durante el procesamiento paralelo, el tamaño de datos a procesar y la complejidad de la programación paralela en cada tipo de hardware.
Resumo:
Trabalho Final do Curso de Mestrado Integrado em Medicina, Faculdade de Medicina, Universidade de Lisboa, 2014
Resumo:
Trabalho Final do Curso de Mestrado Integrado em Medicina, Faculdade de Medicina, Universidade de Lisboa, 2014
Resumo:
Dissertação para obtenção do grau de Mestre no Instituto Superior de Ciências da Saúde Egas Moniz
Resumo:
Dissertação para obtenção do grau de Mestre no Instituto Superior de Ciências da Saúde Egas Moniz
Resumo:
Introdução: A Insuficiência Cardíaca (IC) é uma doença frequente e com considerável aumento de prevalência, já designada como sendo a epidemia do século XXI. Os doentes com IC manifestam uma alta taxa de mortalidade cardiovascular, em que as arritmias ventriculares malignas estão envolvidas. A remodelagem estrutural e elétrica nos portadores de IC levam a alterações eletromecânicas que desencadeiam a dissincronia cardíaca e natural agravamento da doença, provocando o aumento da predisposição para o aparecimento de arritmias e consequentemente aumento do risco de morte súbita. Objetivo: Caracterização dos doentes com IC seguidos na consulta de ICC do Centro Hospital Leiria-Pombal (CHLP) e avaliação da ocorrência dos eventos cardiovasculares. Avaliação dos parâmetros de repolarização ventricular e o seu contributo no aumento da suscetibilidade a arritmias malignas e/ou morte súbita. Métodos: Selecionou-se um grupo de 130 indivíduos inscritos na consulta externa de ICC-Avançada do CHLP, avaliando-se durante uma média de 42,15 meses de follow-up. Caracterizou-se a amostra quanto aos dados clínicos (anamnese clinica, analises e exames complementares de diagnóstico) e parâmetros de repolarização ventricular (QT, QTc, Tpeack-Tend). Os indivíduos em FA forem classificados quanto ao risco trombótico CHADS2 e CHA2DS2VAS. Quanto aos eventos hospitalares agrupou-se a amostra em Com MACE e Sem MACE. Resultados: Verificou-se que 76,2% da amostra é do sexo masculino, com uma média de idades de 65,9 ±14,8, a etiologia da IC mais comum nesta amostra foi a HTA e a isquémica (n=41 e n=39, respetivamente); segundo a classificação de NYHA 64,6% encontra-se em grau II; 43,1% da amostra encontra-se em FA. Dos 84 indivíduos com avaliação da FEVE, 42,7% tinham a FEVE bastante diminuída e 40,4% depressão ligeira/moderada da FEVE. 10,8% dos indivíduos da amostra foi tratado com ressincronização cardíaca. Durante o follow-up foram registadas 1.479 admissões hospitalares, das quais 1.039 são no serviço de urgência e 182 no serviço de cardiologia. 12,3% da amostra faleceu durante a recolha de dados. A mortalidade total foi influenciada, com significado estatístico (p<0,05), pela idade, QTc, Tpeack-end, total de internamentos, admissões no serviço de urgência, creatinina, ureia e pela TFG. As determinantes independentes para a mortalidade foram a dislipidémia e o total de internamentos, sendo que a idade se revelou tendencialmente significativa. As variáveis TFG, HTA, os antecedentes familiares cardíacos e a terapêutica sem sinvastatina revelaram-se marginalmente significativos para a variável MACE. Os indivíduos com IC mais idosos, com maior percentagem de peso, com diabetes e com alterações na creatinina e TFG revelaram relação estatística com a admissão num dos serviços de internamento. A duração do QRS, do QTC, do Tpeack-Tend e a terapêutica sem anticoagulantes revelaram-se marginalmente significativos na necessidade de internamento hospitalar. Em relação aos doentes em FA segundo a classificação em CHa2DS2VASC e CHADS2 verificou-se que 76,8% da amostra e 48,2% (respetivamente) encontrava-se num score acima do 3. Verificou-se um aumento tendencialmente exponencial em relação ao risco de morte com o aumento do score de CHADS2, bem como a relação direta com o aumento da probabilidade de eventos cardiovasculares. Conclusões: Os portadores de IC são um grupo de doentes peculiares; em que a remodelagem estrutura e elétrica proporciona modificações que culminam no aumento da predisposição para o surgimento de arritmias e consequente aumento de risco de morte súbita.
Resumo:
Mode of access: Internet.
Resumo:
Mode of access: Internet.
Resumo:
Mode of access: Internet.