999 resultados para Matematica - Processamento de dados
Resumo:
OBJETIVO: Analisar a padronização da coleta do lavado gástrico para diagnóstico de tuberculose em crianças. MÉTODOS: Estudo de revisão sistemática referente aos anos de 1968 a 2008. O levantamento de artigos científicos foi feito nas bases de dados Lilacs, SciELO e Medline, utilizando-se a estratégia de busca ("gastric lavage and tuberculosis" ou "gastric washing and tuberculosis", com o limite "crianças com idade até 15 anos"; e "gastric lavage and tuberculosis and childhood" ou "gastric washing and tuberculosis and childhood"). A análise dos 80 artigos recuperados baseou-se nas informações sobre o protocolo de coleta de lavado gástrico para diagnóstico da tuberculose em crianças: preparo da criança e horas de jejum, horário da coleta, aspiração do resíduo gástrico, volume total aspirado, solução usada para aspiração do conteúdo gástrico, solução descontaminante, solução tampão, e tempo de encaminhamento das amostras para o laboratório. Desses, foram selecionados 14 artigos após análise criteriosa. RESULTADOS: Nenhum artigo explicava detalhadamente todo o procedimento. Em alguns artigos não constavam: quantidade de aspirado gástrico, aspiração antes ou após a instilação de uma solução, solução usada na aspiração gástrica, solução tampão utilizada, tempo de espera entre coleta e processamento do material. Esses resultados mostram inconsistências entre os protocolos de coleta de lavado gástrico. CONCLUSÕES: Embora este seja um método secundário no Brasil, reservado a casos que não alcançaram pontuação diagnóstica pelo sistema preconizado pelo Ministério da Saúde, é necessário padronizar a coleta de lavado gástrico para diagnóstico de tuberculose pulmonar na infância.
Resumo:
O processamento de amostras citológicas em meio líquido e a coloração de May-Grünwald Giemsa (MGG) fazem parte da rotina em anatomia patológica. Na origem desta investigação esteve a possibilidade do uso desta coloração em amostras processadas em ThinPrep (TP). Estudou-se a fase compreendida entre o processamento de amostras em TP e a coloração com MGG – pós-processamento. O objetivo do estudo consistiu em avaliar diferentes métodos de pós-processamento em amostras de secreções brônquicas processadas pela metodologia TP e coradas com MGG. Utilizaram-se 32 amostras de secreções brônquicas, processadas em TP. De cada amostra obtiveram-se três lâminas, nas quais se aplicaram três métodos de pós-processamento: secagem ao ar; imersão em solução salina de tampão Tris; imersão em etanol a 96%. Realizou-se a coloração de MGG e as lâminas foram avaliadas por três avaliadores independentes, relativamente à constituição da amostra e qualidade da coloração. Este último parâmetro resultou da soma da pontuação obtida para os detalhes nuclear e citoplasmático (escala de 0 a 4 valores). Aplicaram-se os testes estatísticos One-Way ANOVA (p=0,05) e de Tukey. Para a qualidade de coloração, os métodos imersão em solução tampão, imersão em etanol a 96% e secagem ao ar obtiveram a pontuação média de 2,39 (s=1,309), 2,15 (s=1,248) e 1,22 (s=1,250), respetivamente. Verificou-se que existia diferença estatisticamente significativa entre o método secagem ao ar e os métodos imersão em solução tampão e em etanol a 96% (p=,000). O pós-processamento por secagem ao ar demonstrou qualidade da coloração não aceitável, ou seja pontuação média inferior a 2 valores. Pelo contrário, os pós-processamentos por imersão em solução tampão e em etanol a 96% apresentaram qualidade de coloração aceitável, podendo ser utilizados na rotina laboratorial para coloração com MGG de amostras processadas em TP.
Resumo:
OBJETIVO: Desenvolver um modelo preditivo de óbito hospitalar com base nos dados do Sistema de Informações Hospitalares do Sistema Único de Saúde. MÉTODOS: Estudo transversal com dados de 453.515 autorizações de internação de 332 hospitais do Rio Grande do Sul no ano de 2005. A partir da razão entre óbitos observados e óbitos esperados elaborou-se um ranking ajustado dos hospitais que foi comparado ao ranking bruto da taxa de mortalidade. Utilizou-se regressão logística para desenvolvimento do modelo preditivo de probabilidade para óbito hospitalar segundo sexo, idade, diagnóstico e uso de unidade de terapia intensiva. Foram obtidos os intervalos com 95% de confiança para 206 hospitais com mais de 365 internações por ano. RESULTADOS: Obteve-se um índice de risco para mortalidade hospitalar. A ordenação dos hospitais utilizando apenas a taxa de mortalidade bruta diferiu da ordenação quando se utiliza o ranking ajustado pelo modelo preditivo de probabilidade. Dos 206 hospitais analisados, 40 hospitais apresentaram mortalidade observada significativamente superior à esperada e 58 hospitais com mortalidade significativamente inferior à esperada. Uso de unidade de terapia intensiva apresentou maior peso para a composição do índice de risco, seguida pela idade e diagnóstico. Quando os hospitais atendem pacientes com perfis muito diferentes, o ajuste de risco não resulta numa indicação definitiva sobre qual prestador é o melhor. Os hospitais de grande porte apresentaram, no conjunto, maior número de óbitos do que seria esperado de acordo com as características das internações. CONCLUSÕES: O índice de risco de óbito hospitalar mostrou-se preditor adequado para o cálculo dos óbitos esperados, podendo ser aplicado na avaliação do desempenho hospitalar. Recomenda-se que, ao comparar hospitais, seja utilizado o ajuste pelo modelo preditivo de probabilidade de risco, estratificando-se pelo porte do hospital.
Resumo:
Introdução Hoje em dia, o conceito de ontologia (Especificação explícita de uma conceptualização [Gruber, 1993]) é um conceito chave em sistemas baseados em conhecimento em geral e na Web Semântica em particular. Entretanto, os agentes de software nem sempre concordam com a mesma conceptualização, justificando assim a existência de diversas ontologias, mesmo que tratando o mesmo domínio de discurso. Para resolver/minimizar o problema de interoperabilidade entre estes agentes, o mapeamento de ontologias provou ser uma boa solução. O mapeamento de ontologias é o processo onde são especificadas relações semânticas entre entidades da ontologia origem e destino ao nível conceptual, e que por sua vez podem ser utilizados para transformar instâncias baseadas na ontologia origem em instâncias baseadas na ontologia destino. Motivação Num ambiente dinâmico como a Web Semântica, os agentes alteram não só os seus dados mas também a sua estrutura e semântica (ontologias). Este processo, denominado evolução de ontologias, pode ser definido como uma adaptação temporal da ontologia através de alterações que surgem no domínio ou nos objectivos da própria ontologia, e da gestão consistente dessas alterações [Stojanovic, 2004], podendo por vezes deixar o documento de mapeamento inconsistente. Em ambientes heterogéneos onde a interoperabilidade entre sistemas depende do documento de mapeamento, este deve reflectir as alterações efectuadas nas ontologias, existindo neste caso duas soluções: (i) gerar um novo documento de mapeamento (processo exigente em termos de tempo e recursos computacionais) ou (ii) adaptar o documento de mapeamento, corrigindo relações semânticas inválidas e criar novas relações se forem necessárias (processo menos existente em termos de tempo e recursos computacionais, mas muito dependente da informação sobre as alterações efectuadas). O principal objectivo deste trabalho é a análise, especificação e desenvolvimento do processo de evolução do documento de mapeamento de forma a reflectir as alterações efectuadas durante o processo de evolução de ontologias. Contexto Este trabalho foi desenvolvido no contexto do MAFRA Toolkit1. O MAFRA (MApping FRAmework) Toolkit é uma aplicação desenvolvida no GECAD2 que permite a especificação declarativa de relações semânticas entre entidades de uma ontologia origem e outra de destino, utilizando os seguintes componentes principais: Concept Bridge – Representa uma relação semântica entre um conceito de origem e um de destino; Property Bridge – Representa uma relação semântica entre uma ou mais propriedades de origem e uma ou mais propriedades de destino; Service – São aplicados às Semantic Bridges (Property e Concept Bridges) definindo como as instâncias origem devem ser transformadas em instâncias de destino. Estes conceitos estão especificados na ontologia SBO (Semantic Bridge Ontology) [Silva, 2004]. No contexto deste trabalho, um documento de mapeamento é uma instanciação do SBO, contendo relações semânticas entre entidades da ontologia de origem e da ontologia de destino. Processo de evolução do mapeamento O processo de evolução de mapeamento é o processo onde as entidades do documento de mapeamento são adaptadas, reflectindo eventuais alterações nas ontologias mapeadas, tentando o quanto possível preservar a semântica das relações semântica especificadas. Se as ontologias origem e/ou destino sofrerem alterações, algumas relações semânticas podem tornar-se inválidas, ou novas relações serão necessárias, sendo por isso este processo composto por dois sub-processos: (i) correcção de relações semânticas e (ii) processamento de novas entidades das ontologias. O processamento de novas entidades das ontologias requer a descoberta e cálculo de semelhanças entre entidades e a especificação de relações de acordo com a ontologia/linguagem SBO. Estas fases (“similarity measure” e “semantic bridging”) são implementadas no MAFRA Toolkit, sendo o processo (semi-) automático de mapeamento de ontologias descrito em [Silva, 2004].O processo de correcção de entidades SBO inválidas requer um bom conhecimento da ontologia/linguagem SBO, das suas entidades e relações, e de todas as suas restrições, i.e. da sua estrutura e semântica. Este procedimento consiste em (i) identificar as entidades SBO inválidas, (ii) a causa da sua invalidez e (iii) corrigi-las da melhor forma possível. Nesta fase foi utilizada informação vinda do processo de evolução das ontologias com o objectivo de melhorar a qualidade de todo o processo. Conclusões Para além do processo de evolução do mapeamento desenvolvido, um dos pontos mais importantes deste trabalho foi a aquisição de um conhecimento mais profundo sobre ontologias, processo de evolução de ontologias, mapeamento etc., expansão dos horizontes de conhecimento, adquirindo ainda mais a consciência da complexidade do problema em questão, o que permite antever e perspectivar novos desafios para o futuro.
Resumo:
OBJETIVO: Avaliar a viabilidade de estratégia de relacionamento probabilístico de bases de dados na identificação de óbitos de pacientes submetidos a procedimentos de alta complexidade em cardiologia. MÉTODOS: O custo de processamento foi estimado com base em 1.672 registros de pacientes submetidos à cirurgia de revascularização do miocárdio, relacionados com todos os registros de óbito no Brasil em 2005. A acurácia do relacionamento baseou-se em linkage probabilístico entre 99 registros de autorização de internação hospitalar de pacientes submetidos a cirurgias cardíacas em instituto de referência em cardiologia, com status vital conhecido, e todos os registros de óbito do estado do Rio de Janeiro em 2005. O linkage foi realizado em quatro etapas: padronização das bases, blocagem, pareamento e classificação dos pares. Utilizou-se a blocagem em cinco passos, com chaves de blocagem com combinação de variáveis como soundex do primeiro e último nome, sexo e ano de nascimento. As variáveis utilizadas no pareamento foram "nome completo", com a utilização da distância de Levenshtein, e "data de nascimento". RESULTADOS: O segundo e o quinto passos de blocagem tiveram os maiores números de pares formados e os maiores tempos de processamento para o pareamento. O quarto passo demandou menor custo de processamento. No estudo de acurácia, após os cinco passos de blocagem, a sensibilidade do linkage foi de 90,6% e a especificidade foi de 100%. CONCLUSÕES: A estratégia de relacionamento probabilístico utilizada apresenta boa acurácia e poderá ser utilizada em estudos sobre a efetividade dos procedimentos de alta complexidade e alto custo em cardiologia.
Resumo:
OBJETIVO: Analisar concepções de gênero e sexualidade presentes no campo de intervenções terapêuticas em torno do sexo. PROCEDIMENTOS METODOLÓGICOS: Observação etnográfica, complementada por análise documental de material impresso referente ao X Congresso Brasileiro de Sexualidade Humana, promovido pela Sociedade Brasileira de Estudos em Sexualidade Humana, e ao VIII Congresso Brasileiro sobre Inadequações Sexuais, promovido pela Associação Brasileira para o Estudo das Inadequações Sexuais, realizados em 2005. A análise privilegiou a interação entre a perspectiva quantitativa no processamento das variáveis profissão e gênero dos participantes e temas das palestras, e perspectiva qualitativa na análise e interpretação do conjunto mais geral de dados. RESULTADOS: Os temas das sessões e o enfoque das apresentações sugerem que o campo é definido pelo contraste entre duas especialidades médicas: a ginecologia e a urologia, a primeira voltada para disfunções femininas e do casal e a segunda para as disfunções masculinas. CONCLUSÕES: A sexualidade masculina é abordada por perspectiva predominantemente biomédica, centrada na fisiologia da ereção e na prescrição de medicamentos, enquanto a sexualidade feminina é apresentada como condicionada por problemas relacionais, mais adequados à intervenção psicológica.
Resumo:
Artigo baseado na comunicação proferida no 8º Congresso SOPCOM: Comunicação Global, Cultura e Tecnologia, realizado na Escola Superior de Comunicação Social (ESCS-IPL), Lisboa, Portugal, 17-19 de outubro de 2013
Resumo:
Dissertação apresentada à escola Superior de Educação de Lisboa para obtenção de grau de mestre em Educação Matemática na Educação Pré-Escolar e nos 1º e 2º Ciclos do Ensino Básico
Resumo:
A navegação e a interpretação do meio envolvente por veículos autónomos em ambientes não estruturados continua a ser um grande desafio na actualidade. Sebastian Thrun, descreve em [Thr02], que o problema do mapeamento em sistemas robóticos é o da aquisição de um modelo espacial do meio envolvente do robô. Neste contexto, a integração de sistemas sensoriais em plataformas robóticas, que permitam a construção de mapas do mundo que as rodeia é de extrema importância. A informação recolhida desses dados pode ser interpretada, tendo aplicabilidade em tarefas de localização, navegação e manipulação de objectos. Até à bem pouco tempo, a generalidade dos sistemas robóticos que realizavam tarefas de mapeamento ou Simultaneous Localization And Mapping (SLAM), utilizavam dispositivos do tipo laser rangefinders e câmaras stereo. Estes equipamentos, para além de serem dispendiosos, fornecem apenas informação bidimensional, recolhidas através de cortes transversais 2D, no caso dos rangefinders. O paradigma deste tipo de tecnologia mudou consideravelmente, com o lançamento no mercado de câmaras RGB-D, como a desenvolvida pela PrimeSense TM e o subsequente lançamento da Kinect, pela Microsoft R para a Xbox 360 no final de 2010. A qualidade do sensor de profundidade, dada a natureza de baixo custo e a sua capacidade de aquisição de dados em tempo real, é incontornável, fazendo com que o sensor se tornasse instantaneamente popular entre pesquisadores e entusiastas. Este avanço tecnológico deu origem a várias ferramentas de desenvolvimento e interacção humana com este tipo de sensor, como por exemplo a Point Cloud Library [RC11] (PCL). Esta ferramenta tem como objectivo fornecer suporte para todos os blocos de construção comuns que uma aplicação 3D necessita, dando especial ênfase ao processamento de nuvens de pontos de n dimensões adquiridas a partir de câmaras RGB-D, bem como scanners laser, câmaras Time-of-Flight ou câmaras stereo. Neste contexto, é realizada nesta dissertação, a avaliação e comparação de alguns dos módulos e métodos constituintes da biblioteca PCL, para a resolução de problemas inerentes à construção e interpretação de mapas, em ambientes indoor não estruturados, utilizando os dados provenientes da Kinect. A partir desta avaliação, é proposta uma arquitectura de sistema que sistematiza o registo de nuvens de pontos, correspondentes a vistas parciais do mundo, num modelo global consistente. Os resultados da avaliação realizada à biblioteca PCL atestam a sua viabilidade, para a resolução dos problemas propostos. Prova da sua viabilidade, são os resultados práticos obtidos, da implementação da arquitectura de sistema proposta, que apresenta resultados de desempenho interessantes, como também boas perspectivas de integração deste tipo de conceitos e tecnologia em plataformas robóticas desenvolvidas no âmbito de projectos do Laboratório de Sistemas Autónomos (LSA).
Resumo:
Trabalho de Projeto para obtenção do grau de Mestre em Engenharia de Eletrónica e Telecomunicações
Resumo:
Trabalho Final de Mestrado para obtenção do grau de Mestre em Engenharia Informática e de Computadores
Resumo:
Dissertação para obtenção do grau de Mestre em Engenharia Electrotécnica Ramo de Automação e Electrónica Industrial
Resumo:
Dissertação apresentada à Escola Superior de Comunicação Social como parte dos requisitos para obtenção de grau de mestre em Publicidade e Marketing.
Resumo:
O objectivo desta tese é a caracterização global de algumas famílias de compostos poliamínicos com grupos aromáticos fluorescentes. Estes têm potencial deaplicação como dispositivos moleculares, incluindo quimiossensores, interruptores moleculares,máquinas moleculares ou sistemas de processamento de informação moleculares. Estes compostos possuem poliaminas que podem actuar como unidades receptoras de várias espécies químicas, como protões, iões metálicos ou aniões, e os tornam solúveis em água. Contêm também grupos aromáticos fluorescentes (naftaleno, antraceno, pireno), que actuam como unidades sinalizadoras do estado do receptor. No Capítulo 1 são apresentados métodos de síntese e purificação de compostos poliamínicos, juntamente com descrições pormenorizadas das sínteses. Nos Capítulos 2 a 8 são caracterizados diversos compostos, quando livres em solução aquosa, e na presença de iões de metais de transição e de ATP. São usadas técnicas de espectrofotometria no UV-visível, espectrofluorimetria no estado estacionário e de contagem de fotão único correlacionada no tempo, complementadas com dados potenciométricos e de RMN fornecidos pelo grupo do Prof. Enrique García-España da Universidade de Valência, Espanha. No Capítulo 2 estudam-se compostos com grupos antraceno. Verifica-se supressão de emissão a pH básico, comum a todos os compostos poliamínicos, e caracterizam-se factores que influenciam nesse fenómeno. No Capítulo 3 analisam-se compostos de naftaleno. Verificam-se excímeros intramoleculares em compostos com dois grupos naftaleno. Para os formar ocorre um movimento fotoinduzido de flexão, pelo que esses compostos podem ser considerados máquinas moleculares. No Capítulo 4 estudam-se compostos com grupos pireno. Observam-se excímeros intramoleculares nos compostos com dois fluoróforos. No Capítulo 5 caracterizam-se compostos com dois grupos aromáticos diferentes(vários compostos com naftaleno e antraceno, um com pireno e antraceno e um com pireno e naftaleno). Verifica-se transferência de energia do grupo naftaleno para o antraceno (que parece evoluir de acordo com a teoria de Förster), de pireno para antraceno e de naftaleno para pireno. No Capítulo 6 examinam-se dois compostos de antraceno na presença de iões metálicos. Verifica-se aumento de emissão presença de Zn(II) e Cd(II), e supressão de emissão na presença de Cu(II) e Ni(II). Caracteriza-se o comportamento de um deles do ponto de vista de operações lógicas ao nível molecular. No Capítulo 7 caracteriza-se um composto de naftaleno na presença de vários iões metálicos. Verifica-se supressão de emissão com iões de metais de transição do 3ºperíodo com níveis na presença de Zn(II), Cd(II) e Al(III). Não se verifica efeito na presença de iões alcalinos, alcalino-terrosos, lantanídeos, Sn(II) e Pb(II). No Capítulo 8 estuda-se a interacção de compostos poliamínicos com ATP. Verifica-se em qualquer pH a ocorrência de empilhamento aromáticos do ATP e composto poliamínico, e ancoragem do grupo polifosfato do ATP com a poliamina. Verifica-se supressão de emissão do composto poliamínico a pH ácido, principalmente por transferência electrónica fotoinduzida do seu grupo aromático para o grupo adenina protonado do ATP. Num composto com antraceno e naftaleno, continua-se a verificar transferência de energia d incompletamente preenchidos, e com Hg(II), e aumento de emissãoπ-π entre os grupos
Resumo:
In the past few years Tabling has emerged as a powerful logic programming model. The integration of concurrent features into the implementation of Tabling systems is demanded by need to use recently developed tabling applications within distributed systems, where a process has to respond concurrently to several requests. The support for sharing of tables among the concurrent threads of a Tabling process is a desirable feature, to allow one of Tabling’s virtues, the re-use of computations by other threads and to allow efficient usage of available memory. However, the incremental completion of tables which are evaluated concurrently is not a trivial problem. In this dissertation we describe the integration of concurrency mechanisms, by the way of multi-threading, in a state of the art Tabling and Prolog system, XSB. We begin by reviewing the main concepts for a formal description of tabled computations, called SLG resolution and for the implementation of Tabling under the SLG-WAM, the abstract machine supported by XSB. We describe the different scheduling strategies provided by XSB and introduce some new properties of local scheduling, a scheduling strategy for SLG resolution. We proceed to describe our implementation work by describing the process of integrating multi-threading in a Prolog system supporting Tabling, without addressing the problem of shared tables. We describe the trade-offs and implementation decisions involved. We then describe an optimistic algorithm for the concurrent sharing of completed tables, Shared Completed Tables, which allows the sharing of tables without incurring in deadlocks, under local scheduling. This method relies on the execution properties of local scheduling and includes full support for negation. We provide a theoretical framework and discuss the implementation’s correctness and complexity. After that, we describe amethod for the sharing of tables among threads that allows parallelism in the computation of inter-dependent subgoals, which we name Concurrent Completion. We informally argue for the correctness of Concurrent Completion. We give detailed performance measurements of the multi-threaded XSB systems over a variety of machines and operating systems, for both the Shared Completed Tables and the Concurrent Completion implementations. We focus our measurements inthe overhead over the sequential engine and the scalability of the system. We finish with a comparison of XSB with other multi-threaded Prolog systems and we compare our approach to concurrent tabling with parallel and distributed methods for the evaluation of tabling. Finally, we identify future research directions.