1000 resultados para Algoritmos computacionais
Resumo:
BACKGROUND: The elderly population is particularly at risk for developing vitamin B12-deficiency. Serum cobalamin does not necessarily reflect a normal B12 status. The determination of methylmalonic acid is not available in all laboratories. Issues of sensitivity for holotranscobalamin and the low specificity of total homocysteine limit their utility. The aim of the present study is to establish a diagnostic algorithm by using a combination of these markers in place of a single measurement. METHODS: We compared the diagnostic efficiency of these markers for detection of vitamin B12 deficiency in a population (n = 218) of institutionalized elderly (median age 80 years). Biochemical, haematological and morphological data were used to categorize people with or without vitamin B12 deficiency. RESULTS: In receiver operating curves characteristics for detection on vitamin B12 deficiency using single measurements, serum folate has the greatest area under the curve (0.87) and homocysteine the lowest (0.67). The best specificity was observed for erythrocyte folate and methylmalonic acid (100% for both) but their sensitivity was very low (17% and 53%, respectively). The highest sensitivity was observed for homocysteine (81%) and serum folate (74%). When we combined these markers, starting with serum and erythrocyte folate, followed by holotranscobalamin and ending by methylmalonic acid measurements, the overall sensitivity and specificity of the algorithm were 100% and 90%, respectively. CONCLUSION: The proposed algorithm, which combines erythrocyte folate, serum folate, holotranscobalamin and methylmalonic acid, but eliminate B12 and tHcy measurements, is a useful alternative for vitamin B12 deficiency screening in an elderly institutionalized cohort.
Resumo:
BACKGROUND & AIMS Hy's Law, which states that hepatocellular drug-induced liver injury (DILI) with jaundice indicates a serious reaction, is used widely to determine risk for acute liver failure (ALF). We aimed to optimize the definition of Hy's Law and to develop a model for predicting ALF in patients with DILI. METHODS We collected data from 771 patients with DILI (805 episodes) from the Spanish DILI registry, from April 1994 through August 2012. We analyzed data collected at DILI recognition and at the time of peak levels of alanine aminotransferase (ALT) and total bilirubin (TBL). RESULTS Of the 771 patients with DILI, 32 developed ALF. Hepatocellular injury, female sex, high levels of TBL, and a high ratio of aspartate aminotransferase (AST):ALT were independent risk factors for ALF. We compared 3 ways to use Hy's Law to predict which patients would develop ALF; all included TBL greater than 2-fold the upper limit of normal (×ULN) and either ALT level greater than 3 × ULN, a ratio (R) value (ALT × ULN/alkaline phosphatase × ULN) of 5 or greater, or a new ratio (nR) value (ALT or AST, whichever produced the highest ×ULN/ alkaline phosphatase × ULN value) of 5 or greater. At recognition of DILI, the R- and nR-based models identified patients who developed ALF with 67% and 63% specificity, respectively, whereas use of only ALT level identified them with 44% specificity. However, the level of ALT and the nR model each identified patients who developed ALF with 90% sensitivity, whereas the R criteria identified them with 83% sensitivity. An equal number of patients who did and did not develop ALF had alkaline phosphatase levels greater than 2 × ULN. An algorithm based on AST level greater than 17.3 × ULN, TBL greater than 6.6 × ULN, and AST:ALT greater than 1.5 identified patients who developed ALF with 82% specificity and 80% sensitivity. CONCLUSIONS When applied at DILI recognition, the nR criteria for Hy's Law provides the best balance of sensitivity and specificity whereas our new composite algorithm provides additional specificity in predicting the ultimate development of ALF.
Resumo:
En aquest treball s'explora el camp de la identificació facial de subjectes utilitzant tècniques d'anàlisi multimodal. Això és utilitzant imatges RGB i imatges de profunditat (3D) amb l'objecte de validar les diverses tècniques emprades en el reconeixement facial i aprofundir en sistemes que incorporen informació tridimensional als algorismes de detecció i identificació facial.
Resumo:
This paper proposes an heuristic for the scheduling of capacity requests and the periodic assignment of radio resources in geostationary (GEO) satellite networks with star topology, using the Demand Assigned Multiple Access (DAMA) protocol in the link layer, and Multi-Frequency Time Division Multiple Access (MF-TDMA) and Adaptive Coding and Modulation (ACM) in the physical layer.
Resumo:
El projecte tracta de la fabricació d’un robot mòbil que sigui capaç de realitzar el mapeig del seu entorn, evitant els obstacles que es pugui trobar al transcurs del seu recorregut. Per tal d’obtenir els resultats desitjats, s’ha realitzat la caracterització dels seus components emprant algorismes probabilístics ,amb els que s’ha pogut determinar la seva eficiència. Finalment s’han realitzat els algorismes corresponents per graficar el mapeig del recorregut del robot i del seu entorn, aconseguint el objectiu plantejat.
Resumo:
El projecte tracta de la fabricació d’un robot mòbil que sigui capaç de realitzar el mapeig d’una superfície, evitant els obstacles que es pugui trobar en el transcurs del seu recorregut. És un projecte complex, per aquest motiu la part de procés de dades s'ha fet en un projecte posterior. Aquesta memòria tracta del muntatge i calibració dels components, a més de la realització dels algorismes de control dels mateixos, per tal de realitzar el mapeig de la superfície, aconseguint així l’objectiu plantejat.
Resumo:
L'objectiu principal d'aquest treball és reunir informació per tal de categoritzar eines, algorismes i requisits que ajudin a la presa de decisions als centres de la UPC en quant a la implantació d'un sistema de gestió d'horaris existent o el desenvolupament d'un de nou.
Resumo:
En este trabajo vamos a diseñar e implementar un conjunto de algoritmos para determinar algunas características de los volcanes de l-isogenias, como por ejemplo, la altura, la longitud y la forma del cràter.
Resumo:
Se propone, al amparo del proyecto “Nuevos Algoritmos para la Gestión Eficiente de Contenidos Multimediaen Redes de Comunicaciones Móviles” (NAGEC), un nuevo mecanismo para la búsqueda y recuperación deimágenes basado en realimentación de relevancia. La arquitectura propuesta se compone de una red neuronal yun tesauro. La red neuronal extrae de las imágenes dos parámetros: textura y color. El tesauro recoge lasrelaciones semánticas existentes entre los términos descriptores de las imágenes de la base de datos VisTex.Ambos componentes se relacionan mediante un modelo de realimentación de relevancia que, a través de lasinteracciones del usuario con el tesauro durante el proceso de búsqueda, permite a la red aprender relacionessemánticas inherentes a las imágenes.
Resumo:
El presente documento conduce a un análisis y comparativa de diferentes y variados conjuntos de redes sociales on-line. Para ello, primero se explica la base teórica de teoría de grafos para su interpretación y comprensión, así como de la base matemática que fundamenta el tipo específico de red estudiada y las diferentes métricas (estadísticas) extraídas de estas. Luego, se ofrece una detallada explicación del entorno de trabajo tanto para la aplicación informática desarrollada, como para posterior visualización y también una explicación y los algoritmos utilizados en las funciones implementadas con tales fines. Para finalizar el documento, se realiza una inmersión particular en cada red social on-line, puntualizando sus características y finalizando con una comparativa general entre todas ellas, siempre acompañadas con sus respectivas visualizaciones en el espacio 2D representadas en forma de grafo.
Resumo:
Estudo descritivo, exploratório, realizado na cidade de São Paulo, que objetivou identificar o perfil, as competências e a fluência digital do enfermeiro aprimorando para uso da tecnologia no trabalho. A população composta por 60 aprimorandos do Programa de Aprimoramento Profissional respondeu um questionário com dados sobre o perfil, a fluência digital e as competências profissionais. Verificou-se que 95,0% dos participantes eram do sexo feminino, 61,7% na faixa etária entre 23 a 25 anos, 75,0% graduados em escolas públicas, 58,3% cursando enfermagem cardiovascular, 98,3% teve contato com recursos computacionais na graduação; 100,0% possuía computador em casa; 86,7% acessava a internet diariamente; 96,7% utilizava o Messenger e 58,3% apresentava grau intermediário de conhecimento e habilidade em informática. As competências profissionais requeridas frente à tecnologia referiram-se ao saber ser inovador, criativo, atualizado para conhecer e gerenciar programas e saber utilizar os recursos tecnológicos.
Resumo:
Introdução Hoje em dia, o conceito de ontologia (Especificação explícita de uma conceptualização [Gruber, 1993]) é um conceito chave em sistemas baseados em conhecimento em geral e na Web Semântica em particular. Entretanto, os agentes de software nem sempre concordam com a mesma conceptualização, justificando assim a existência de diversas ontologias, mesmo que tratando o mesmo domínio de discurso. Para resolver/minimizar o problema de interoperabilidade entre estes agentes, o mapeamento de ontologias provou ser uma boa solução. O mapeamento de ontologias é o processo onde são especificadas relações semânticas entre entidades da ontologia origem e destino ao nível conceptual, e que por sua vez podem ser utilizados para transformar instâncias baseadas na ontologia origem em instâncias baseadas na ontologia destino. Motivação Num ambiente dinâmico como a Web Semântica, os agentes alteram não só os seus dados mas também a sua estrutura e semântica (ontologias). Este processo, denominado evolução de ontologias, pode ser definido como uma adaptação temporal da ontologia através de alterações que surgem no domínio ou nos objectivos da própria ontologia, e da gestão consistente dessas alterações [Stojanovic, 2004], podendo por vezes deixar o documento de mapeamento inconsistente. Em ambientes heterogéneos onde a interoperabilidade entre sistemas depende do documento de mapeamento, este deve reflectir as alterações efectuadas nas ontologias, existindo neste caso duas soluções: (i) gerar um novo documento de mapeamento (processo exigente em termos de tempo e recursos computacionais) ou (ii) adaptar o documento de mapeamento, corrigindo relações semânticas inválidas e criar novas relações se forem necessárias (processo menos existente em termos de tempo e recursos computacionais, mas muito dependente da informação sobre as alterações efectuadas). O principal objectivo deste trabalho é a análise, especificação e desenvolvimento do processo de evolução do documento de mapeamento de forma a reflectir as alterações efectuadas durante o processo de evolução de ontologias. Contexto Este trabalho foi desenvolvido no contexto do MAFRA Toolkit1. O MAFRA (MApping FRAmework) Toolkit é uma aplicação desenvolvida no GECAD2 que permite a especificação declarativa de relações semânticas entre entidades de uma ontologia origem e outra de destino, utilizando os seguintes componentes principais: Concept Bridge – Representa uma relação semântica entre um conceito de origem e um de destino; Property Bridge – Representa uma relação semântica entre uma ou mais propriedades de origem e uma ou mais propriedades de destino; Service – São aplicados às Semantic Bridges (Property e Concept Bridges) definindo como as instâncias origem devem ser transformadas em instâncias de destino. Estes conceitos estão especificados na ontologia SBO (Semantic Bridge Ontology) [Silva, 2004]. No contexto deste trabalho, um documento de mapeamento é uma instanciação do SBO, contendo relações semânticas entre entidades da ontologia de origem e da ontologia de destino. Processo de evolução do mapeamento O processo de evolução de mapeamento é o processo onde as entidades do documento de mapeamento são adaptadas, reflectindo eventuais alterações nas ontologias mapeadas, tentando o quanto possível preservar a semântica das relações semântica especificadas. Se as ontologias origem e/ou destino sofrerem alterações, algumas relações semânticas podem tornar-se inválidas, ou novas relações serão necessárias, sendo por isso este processo composto por dois sub-processos: (i) correcção de relações semânticas e (ii) processamento de novas entidades das ontologias. O processamento de novas entidades das ontologias requer a descoberta e cálculo de semelhanças entre entidades e a especificação de relações de acordo com a ontologia/linguagem SBO. Estas fases (“similarity measure” e “semantic bridging”) são implementadas no MAFRA Toolkit, sendo o processo (semi-) automático de mapeamento de ontologias descrito em [Silva, 2004]. O processo de correcção de entidades SBO inválidas requer um bom conhecimento da ontologia/linguagem SBO, das suas entidades e relações, e de todas as suas restrições, i.e. da sua estrutura e semântica. Este procedimento consiste em (i) identificar as entidades SBO inválidas, (ii) a causa da sua invalidez e (iii) corrigi-las da melhor forma possível. Nesta fase foi utilizada informação vinda do processo de evolução das ontologias com o objectivo de melhorar a qualidade de todo o processo. Conclusões Para além do processo de evolução do mapeamento desenvolvido, um dos pontos mais importantes deste trabalho foi a aquisição de um conhecimento mais profundo sobre ontologias, processo de evolução de ontologias, mapeamento etc., expansão dos horizontes de conhecimento, adquirindo ainda mais a consciência da complexidade do problema em questão, o que permite antever e perspectivar novos desafios para o futuro.
Resumo:
A assinatura digital é um processo de assinatura electrónica baseado no sistema criptográfico assimétrico composto por um algoritmo ou série de algoritmos, mediante o qual é gerado um par de chaves assimétricas exclusivas e complementares. Tal como a assinatura manuscrita, a assinatura digital não pode ser falsificada, pelo que se adiciona uma função hash ao valor da chave gerada, para garantir a segurança do sistema. A assinatura digital permite, ao mesmo tempo, a identificação positiva do autor de uma mensagem (ou do signatário de um documento) e a verificação da integridade da mesma. Refira-se, porém, que a assinatura digital pode ser anexa a qualquer mensagem, seja esta decifrada ou não, apenas para que o receptor tenha a certeza da identidade do emissor e de que a mensagem chegou intacta ao destino. Baseia-se na criptografia da chave pública, que usa um algoritmo de duas chaves, a privada e a pública, diferentes mas matematicamente associadas: a primeira cria a assinatura digital e decifra os dados; a segunda verifica a assinatura e devolve-a ao formato original. O autor da mensagem mantém secreta a sua chave privada e divulga a chave pública, e vice-versa. A identidade do dono da chave pública é atestada pelo certificado digital emitido por uma entidade certificadora (uma espécie de notário). Independentemente da forma que assume, a assinatura electrónica, e a digital em particular, deve cumprir três funções: a autenticação (tal como acontece com o habitual gatafunho a que chamamos assinatura, apenas o indivíduo deve ser capaz de a reproduzir); não repudiação (quando o indivíduo assina não pode voltar atrás); e integridade (é necessário assegurar que os documentos assinados não são alterados sem o consentimento dos signatários).
Resumo:
As roturas por corte devidas ao fogo são raras, mas possíveis de acontecerem. Para a verificação da resistência ao corte em elementos de betão armado o EC2-1-2 propõe no seu Anexo D métodos de cálculo simplificados a serem utilizados. Estes métodos baseiam-se nos métodos de análise ao corte apresentados no referido anexo, utilizados considerando o efeito de temperatura nos materiais que constituem o elemento. Os efeitos de temperatura para análise ao corte podem ser determinadas utilizando o Método da Isotérmica dos 500ºC ou o Método das Zonas. Quando é utilizado o Método da Isotérmica dos 500ºC é reduzida a resistência das armaduras enquanto a resistência do betão não é alterado. No Método das Zonas é reduzida tanto a resistência do aço como a resistência do betão. A geometria da secção é reduzida nos dois métodos. A aplicação dos métodos de cálculo avançado apresenta resultados rigorosos do comportamento de estruturas em situação de incêndio. Contudo grande parte destes métodos não contempla a verificação de segurança ao corte dos elementos de betão armado. Neste trabalho é elaborado duas aplicações computacionais que permitem fazer a análise do comportamento ao corte dos elementos de betão armado sujeitos ao fogo. A primeira aplicação, designada de Comportamento ao corte de elementos de betão armado em situação de incêndio - Esforço Transverso, permite analisar o comportamento de secções ao esforço transverso, a partir do Método da Isotérmica dos 500ºC e do Método das Zonas. A segunda designada de Comportamento ao corte de elementos de betão armado em situação de incêndio - Torção, permite fazer a análise quer para a torsão isolada como para a torsão combinada com o esforço transverso. Esta análise só é feita pelo Método da Isotérmica dos 500ºC, onde é proposto duas alternativas de análise, a Alternativa_1 e a Alternativa_2; sendo que a Alternativa_1 é mais conservativa que a Alternativa_2 As análises feitas pelas aplicações permitiram constatar que a escolha do método tem pouca influência nos resultados finais, não obstante o Método das Zonas ser mais rigoroso
Resumo:
O diagnóstico sorológico da infecção pelo HIV-1 e HIV-2 teve início em Cabo Verde em 1987, mas pouco se sabe a respeito da diversidade genética desses vírus nessas ilhas, localizadas na costa Ocidental Africana. Neste estudo, caracterizamos a epidemiologia molecular do HIV-1 e HIV-2 em Cabo Verde, analisamos a origem dos principais clados de HIV introduzidos no país e descrevemos a ocorrência de mutações de resistência aos antirretrovirais (DRM) em indivíduos virgens de tratamento (ARTn) e pacientes em tratamento (ARTexp) oriundos das diferentes ilhas. Amostras de sangue, dados sociodemográfico e clínico-laboratoriais foram obtidos de 221 indivíduos HIV positivos entre 2010-2011. As amostras foram sequenciadas na região da polimerase (1300 pares de bases) e análises filogenéticas e de bootscan foram realizadas para a subtipagem viral. Os algoritmos disponibilizados nos sites Stanford HIV Database e HIV-GRADE e.V. Algorithm Homepage foram utilizados para avaliar a existência de DRM em pacientes positivos para HIV-1 e HIV-2, respectivamente. Os estudos evolutivos e filogeográficos foram realizados através do programa BEAST. Entre os 221 pacientes analisados, sendo 169 (76,5%) HIV-1, 43 (19,5%) HIV-2 e 9 de (4,1%) co-infectados pelo HIV-1 e pelo HIV-2, 67% eram do sexo feminino. As medianas de idade foram de 34 (IQR = 1-75) e 47 (IQR = 12-84) para o HIV-1 e HIV-2, respectivamente. A infecção pelo HIV-1 é causada pelo subtipo G (36,6%), CRF02_AG (30,6%), subtipo F1, (9,7%), URFs (10,4%), subtipo B (5,2%), CRF05_DF (3,0%), subtipo C (2,2%), CRF06_cpx (0,7%), CRF25_cpx (0,7%) e CRF49_cpx (0,7%), e todas as infecções por HIV-2 pertencem ao grupo A. De acordo com as análises filogeográficas e de origem do HIV, estima-se que o HIV-2 foi o primeiro tipo viral introduzido em Cabo Verde e possui relações filogenéticas com sequências referências de Portugal. O HIV-1 entrou no país mais tarde, primeiramente pelo subtipo G, evidenciando relações com sequências da África Central e de Portugal. Transmissão de DRM (TDRM) foi observada em 3,4% (2/58) de pacientes HIV-1 ARTn (1,7% NRTI, NNRTI 1,7%), mas não entre os infectados com HIV-2. Entre os pacientes ARTexp, DRM foi observada em 47,8% (33/69) dos infectados pelo HIV-1 (37,7% NRTI, NNRTI 37,7%, 7,4% de PI, 33,3% para duas classes) e 17,6% (3/17) nos infectados pelo HIV-2 (17,6%, 11,8% NRTI PI, 11,8% para ambas as classes). Este estudo indica que Cabo Verde tem um cenário epidemiológico molecular complexo e único dominado pelo HIV-1 subtipo G, CRF02_AG e F1 e HIV-2 grupo A, sendo esse o primeiro tipo viral introduzido em Cabo Verde. A ocorrência de TDRM e o nível relativamente elevado de DRM entre os pacientes tratados constituem uma preocupação, pelo que o monitoramento contínuo dos pacientes em ARTexp, incluindo genotipagem são políticas públicas a serem implementadas.