921 resultados para Jabuticaba - Processamento


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A reconciliação de medicação consiste na obtenção e comparação, por doente, da lista completa e exata da farmacoterapia habitual do doente com a prescrição médica hospitalar, com o objetivo de deteção de discrepâncias (variações não intencionais entre a medicação habitual do doente antes do internamento e a medicação instituída no hospital). Este é um processo realizado nos momentos de transição de cuidados de saúde, sendo eles, a admissão, a transição e a alta hospitalar, que visa a prevenção da iatrogenia medicamentosa, através da redução de erros de medicação, promovendo a segurança do doente. Neste trabalho é apresentado um estudo que consistiu na realização da reconciliação de medicação no serviço de geriatria, conduzido no Centro Hospitalar Universitário Pitié-Salpêtrière em Paris, entre 29 de Abril e 27 de Junho de 2013. O objetivo foi determinar e descrever o tipo e as discrepâncias encontradas. As listas de medicação de domicílio foram obtidas recorrendo a diversas fontes de informação, nomeadamente a consulta do processo clínico do doente, as prescrições médicas de ambulatório, o próprio doentes e/ou seus familiares e o contacto telefónico com as farmácias comunitárias. A lista da terapêutica de internamento prescrita foi obtida a partir dos processos clínicos dos doentes. Após a comparação das listas foi efetuada a identificação das discrepâncias. O processamento dos dados foi realizado utilizado estatística descritiva. O estudo incluiu 30 doentes, 25 mulheres e 5 homens com média de idade de 85 anos, em que 13 (43%) apresentaram pelo menos uma discrepância. A medicação para patologia do sistema cardiovascular e do sistema nervoso foram as que registaram maior incidência de discrepâncias (30%). As discrepâncias mais frequentes foram a omissão, a alteração de dosagem e a alteração do plano de administração. O processo da reconciliação da medicação mostrou ter um grande potencial para identificar discrepâncias de medicação entre a terapêutica de ambulatório e a de internamento nos doentes hospitalizados no serviço de geriatria, o que evidencia a importância e necessidade de criação e implementação deste processo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A tuberculose (TB) é uma doença infecto-contagiosa causada pelo bacilo Mycobacterium tuberculosis e que permanece como um importante problema de saúde pública mundial, sendo a TB pulmonar a forma mais comum de apresentação da doença. O diagnóstico precoce e tratamento adequado são essenciais para a eficácia dos programas públicos de controle da TB. Novos metodologias mais rápidas, sensíveis e específicas, como a reação em cadeia da polimerase (PCR), vem sendo propostas no diagnóstico da doença. O objetivo desse estudo foi avaliar o desempenho de duas PCR, a PCR em tempo real (qPCR) e a Nested PCR em único tubo (STNPCR), em diferentes amostras biológicas, no diagnóstico da tuberculose pulmonar, além de compará-las com as metodologias convencionais (baciloscopia e cultura) e entre si. Para isso foram analisados 125 pacientes que tiveram amostras de sangue (125 amostras de plasma e 116 amostras de PBMC), urina (n=125) e escarro (n=125) coletadas, totalizando a análise de 491 amostras biológicas. Amostras de escarro e urina foram descontaminadas pelo método de Petroff NAOH 4 por cento modificado e semeadas em meio de cultura Lõwenstein-Jensen (LJ), enquanto as amostras de sangue eram separadas em plasma e PBMC. Após processamento, deu-se a extração de DNA através do kit comercial da Qiagen seguida de amplificação pelas duas metodologias de PCR. Para análise estatística calculou-se a sensibilidade, especificidade, valores preditivos positivo e negativo e índice kappa das técnicas. A STNPCR apresentou, em amostras de sangue, sensibilidade de 26,3 por cento e especificidade de 97,7 por cento. Em amostras de urina observou-se uma S = 7,9 por cento e E = 98,9 por cento e em escarro S = 21,1 por cento e E = 98,9 por cento. Quando analisadas as asmotras em paralelo, a sensibilidade da STNPCR foi igual a 44,7 por cento enquanto sua especificidade foi 97,7 por cento. Já a qPCR, em amostras de sangue, obteve sensibilidade igual a 26,3 por cento e especificidade de 95,4 por cento. Em amostras de urina a sensibilidade obtida foi 47,4 por cento e a especificidade 79,3 por cento e, em escarro, S = 36,8 por cento e E = 95,4 por cento. Quando analisada em paralelo, a sensibilidade da qPCR foi 65,8 por cento e a especificidade foi 79,3 por cento. A baciloscopia de escarro apresentou sensibilidade de 41,7 por cento e especificidade de 100 por cento, enquanto as culturas em urina e escarro apresentaram sensibilidade e especificidade, respectivamente, de 10,5 por cento e 100 por cento e 60,5 por cento e 96,6 por cento. Pode-se concluir que a qPCR apresentou melhor desempenho quando comparada à STNPCR e também bom desempenho quando comparada às metodologias convencionais, e que quando analisa-se mais de um tipo de amostras biológica, a eficácia das técnicas é aumentada. Espera-se que com a utilização dessa técnica molecular, seja possível a melhor elucidação dos casos de TB pulmonar, promovendo maior taxa de tratamento dos pacientes e menor risco de transmissão da doença

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho efetua uma análise do recurso de embargos infringentes vigente em nosso ordenamento, verifica o conceito, a finalidade e a evolução histórica do recurso, avalia suas hipóteses de cabimento, os efeitos de sua interposição e o processamento nos tribunais, todos esses aspectos a luz das alterações sofridas pelas reformas processuais ao longo do tempo. Após, explana sobre a proposta de exclusão do recurso de embargos infringentes no anteprojeto do Novo Código de Processo Civil. Ainda, aborda sua manutenção não como recurso autônomo, mas sim como incidente processual, como técnica de julgamento proposta no Novo Código de Processo Civil.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desta dissertação é a paralelização e a avaliação do desempenho de alguns métodos de resolução de sistemas lineares esparsos. O DECK foi utilizado para implementação dos métodos em um cluster de PCs. A presente pesquisa é motivada pela vasta utilização de Sistemas de Equações Lineares em várias áreas científicas, especialmente, na modelagem de fenômenos físicos através de Equações Diferenciais Parciais (EDPs). Nessa área, têm sido desenvolvidas pesquisas pelo GMC-PAD – Grupo de Matemática da Computação e Processamento de Alto Desempenho da UFRGS, para as quais esse trabalho vem contribuindo. Outro fator de motivação para a realização dessa pesquisa é a disponibilidade de um cluster de PCs no Instituto de Informática e do ambiente de programação paralela DECK – Distributed Execution and Communication Kernel. O DECK possibilita a programação em ambientes paralelos com memória distribuída e/ou compartilhada. Ele está sendo desenvolvido pelo grupo de pesquisas GPPD – Grupo de Processamento Paralelo e Distribuído e com a paralelização dos métodos, nesse ambiente, objetiva-se também validar seu funcionamento e avaliar seu potencial e seu desempenho. Os sistemas lineares originados pela discretização de EDPs têm, em geral, como características a esparsidade e a numerosa quantidade de incógnitas. Devido ao porte dos sistemas, para a resolução é necessária grande quantidade de memória e velocidade de processamento, característicos de computações de alto desempenho. Dois métodos de resolução foram estudados e paralelizados, um da classe dos métodos diretos, o Algoritmo de Thomas e outro da classe dos iterativos, o Gradiente Conjugado. A forma de paralelizar um método é completamente diferente do outro. Isso porque o método iterativo é formado por operações básicas de álgebra linear, e o método direto é formado por operações elementares entre linhas e colunas da matriz dos coeficientes do sistema linear. Isso permitiu a investigação e experimentação de formas distintas de paralelismo. Do método do Gradiente Conjugado, foram feitas a versão sem précondicionamento e versões pré-condicionadas com o pré-condicionador Diagonal e com o pré-condicionador Polinomial. Do Algoritmo de Thomas, devido a sua formulação, somente a versão básica foi feita. Após a paralelização dos métodos de resolução, avaliou-se o desempenho dos algoritmos paralelos no cluster, através da realização de medidas do tempo de execução e foram calculados o speedup e a eficiência. As medidas empíricas foram realizadas com variações na ordem dos sistemas resolvidos e no número de nodos utilizados do cluster. Essa avaliação também envolveu a comparação entre as complexidades dos algoritmos seqüenciais e a complexidade dos algoritmos paralelos dos métodos. Esta pesquisa demonstra o desempenho de métodos de resolução de sistemas lineares esparsos em um ambiente de alto desempenho, bem como as potencialidades do DECK. Aplicações que envolvam a resolução desses sistemas podem ser realizadas no cluster, a partir do que já foi desenvolvido, bem como, a investigação de précondicionadores, comparação do desempenho com outros métodos de resolução e paralelização dos métodos com outras ferramentas possibilitando uma melhor avaliação do DECK.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os satélites para sensoriamento remoto atualmente dispoívies à comunidade científica possuem diferenies resoluções espaciais, por exemplo: SPOT 20 e 10 metros, LANDSAT-TM 30 metros e NOA-AVHRR 1100 metros. Essa resolução frequentemente não é grande o suficiente para um grande número de aplicações que necessitam de uma percepção da cena mais detalhada. Muitas vezes, no interior de uma célula de resolução (pixel) mais de uma classe ocorre. Este caso é conhecido como pixel mistura. Na classificação de imagens obtidas por sensoriamento remoto é comum a utilização de metodologias que atribuem somente uma classe a um pixel, como o procedimento clássico da máxima verossimilhança. Esse procedimento resulta frequentemente em uma estimação errônea das áreas ocupadas pelas classes presentes na cena. Em alguns casos, especialmente quando não há uma classe dominante, isto pode ser a fonte de um erro significativo. Desde o início dos anos 70, diferentes metodologias têm sido propostas para o trabalho num nível de subpixel. A grande vantagem do trabalho nesse nível é que um pixel não é necessariamente atribuído a somente uma classe. O pixel tem um grau que o correlaciona a cada classe: de zero(se a classe não ocorre no pixel) até 1 (a classe ocorre no pixel inteiro). Assim, cada pixel tem um vetor associado que estima a proporção de cada classe nele. A metodologia mais comumente utilizada considera a refletância do pixel mistura como uma combinação linear da refletância média de cada classe componente. De acordo com essa visão as refletâncias associadas às classes componentes são consideradas constantes conhecidas i.e., não são variáveis aleatórias. Assim, a proporção de cada classe no pixel é obtida pela resolução de um sistema de equações lineares. Uma outra metodologia é assumir as refletâncias que caracterizam as classes como sendo variáveis aleatórias. Nesta visão, as informações a respeito das distribuições das classes é utilizada. A estimativa das proporções de cada classe é obtida pelo vetor de proporções que maximiza a função de verossimilhança. Mais recentemente, uma visão diferente foi proposta: a utilização da lógica fuzzy. Esta metodologia utiliza o conceito de função de pertinência que é essencial à teoria dos conjuntos fuzzy. Esta função utiliza elementos com natureza estatística ou não para a estimação das proporções. No presente trabalho, duas funções de pertinência foram definidas: a primeira baseada na função densidade probabilidade gaussiana e a segunda baseada diretamente na distância de Mahalanobis. O objetivo deste estudo é avaliar cada uma das metodologias anteriores em termos de acurácia, performance e dados necessários. Para este objetivo, as metodologias foram implementadas computacionalmente e alimentadas com imagens LANDSAT-TM. Para a avaliação da acurácia dos modelos um estudo qualitativo foi executado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo de caso exploratório propõe um esquema explicativo sistêmico para entendimento da relação da organização com seu ambiente. Nesta visão sistêmica, apresenta o produto como uma resposta da empresa aos estímulos recebidos do meio ambiente. Com essa perspectiva, ressalta a importância da troca e do processamento de informações entre a engenharia e a área comercial como pré-requisito para o desenvolvimento de novos produtos. O caso relatado, uma indústria do setor eletroeletrônico, permite uma melhor compreensão dos fatores que influenciam a comunicação entre os departamentos com funções de comercialização e desenvolvimento de produtos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O modelo de objetos apresenta-se como um modelo promissor para o desenvolvimento de software tolerante a falhas em virtude de características inerentes ao próprio modelo de objetos, tais como abstração de dados, encapsulamento, herança e reutilização de objetos (componentes). O uso de técnicas orientadas a objetos facilita o controle da complexidade do sistema porque promove uma melhor estruturação de seus componentes e também permite que componentes já validados sejam reutilizados [LIS96]. Técnicas básicas para tolerância a falhas em software baseiam-se na diversidade de projeto e de implementação de componentes considerados críticos. Os componentes diversitários são gerenciados através de alguma técnica que tenha por objetivo assegurar o fornecimento do serviço solicitado, como, por exemplo, a conhecida técnica de blocos de recuperação. Reflexão Computacional é a capacidade que um sistema tem de fazer computações para se auto analisar. Ela é obtida quando o programa pára sua execução por um período de tempo para fazer computações sobre si próprio; analisa seu estado, se o processamento está correto, se pode prosseguir com a execução e atingir o objetivo satisfatoriamente; se não precisa mudar de estratégia ou algoritmo de execução, fazendo, ainda, processamentos necessários para o sucesso da execução. Um sistema de programação distribuída consiste basicamente em vários aplicativos executados em diferentes computadores, os quais realizam troca de mensagens para solucionar um problema comum. A comunicação entre os computadores é realizada através da rede que os interliga. As Redes que controlam sistemas críticos são normalmente de pequena escala pois redes de grandes dimensões podem apresentar atrasos e baixa confiabilidade. Portanto, a abordagem aqui proposta consiste em utilizar, em um ambiente distribuído, uma arquitetura reflexiva aliada a técnicas do domínio da tolerância a falhas para promover a separação entre as atividades de controle, salvamento, recuperação, distribuição e validação de componentes e as funcionalidades executadas pelo próprio componente, a fim de que falhas não venham a prejudicar a disponibilidade, confiabilidade e clareza de determinadas computações. A proposta apóia-se num estudo de caso, implementado na linguagem de programação Java, com seus protocolos de reflexão computacional e de comunicação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo do presente trabalho é o estudo do comportamento, em termos de freqüências naturais de estruturas de torres estaiadas, para diversas situações de serviço. Para isso criou-se uma formulação para a determinação dessas freqüências, utilizando o método da matriz de transferência. O procedimento consiste na discretização da estrutura em elementos de barras, massas discretas, molas e amortecedores viscosos, para a representação da estrutura. Com relação aos cabos da torre estaiada, desenvolveu-se uma expressão que nos fornece a rigidez completa dos mesmos, apoiados nos extremos, com amortecimento viscoso e as propriedades físicas e geométricas uniformes. Além disso, os cabos podem ser inclinados e sujeitos à excitação horizontal harmônica no apoio superior. Nesse caso, considera-se uma deformada parabólica do cabo na posição de equilíbrio estático, e por outro lado, os deslocamentos dinâmicos são considerados pequenos. A rigidez do cabo é válida para um ângulo de inclinação que varia de zero (0) a noventa (90) graus. Esse método é aplicável a microcomputadores devido a pouca memória empregada no processamento de dados. Com esse intuito, foi elaborado um programa para microcomputadores de 16 bits, que possibilita o estudo da estrutura da torre sobre o efeito de flexão pura, torção pura ou acoplamento de ambos. Exemplos numéricos de torres estaiadas e do comportamento da rigidez de cabos foram desenvolvidos para as mais diversas situações de cálculo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atualmente os sistemas computacionais mais sofisticados são aqueles que apresentam imagens gráficas. Devido às características de alta velocidade de processamento e excelente resultado na geração de imagens o uso da Computação Gráfica se dá em diversas áreas como a indústria, pesquisa, publicidade, entretenimento, medicina, treinamento, dentre outras. Este trabalho aborda dois assuntos clássicos na Computação Gráfica, Geometria Sólida Construtiva (CSG) e Sombras Projetadas. Ambos são muito importantes para esta linha de pesquisa da Ciência da Computação. A Geometria Sólida Construtiva é utilizada na modelagem de objetos e as sombras projetadas são necessárias para aumentar o realismo das imagens. Geometria sólida construtiva (CSG) é uma técnica para a modelagem de sólidos, que define sólidos complexos pela composição de sólidos simples (primitivas). Isso inclui também a composição de objetos já combinados, até que se chegue a um objeto mais complexo. Um fator muito importante e necessário na obtenção de imagens realistas e que deve ser considerado é a utilização de sombras, pois estas são eficazes no realismo e impressão espacial de objetos tridimensionais. As sombras estabelecem diversos níveis de profundidade na imagem, fazem uma pontuação geométrica na cena de modo a evitar que os objetos não pareçam estar flutuando no ar. Este trabalho consiste em apresentar uma proposta para a geração de sombras em objetos modelados pela Geometria Sólida Construtiva. Para tanto foram estudados os assuntos referentes à modelagem de objetos por CSG, algoritmos para a geração de sombras “bem delimitadas” e formas de gerar sombras na Geometria Sólida Construtiva. O processo de geração de sombras em cenas modeladas por CSG, através da aplicação das mesmas operações booleanas envolvidas na modelagem dos objetos, sobre as sombras nem sempre apresenta resultados corretos. Diante disso, foram investigadas outras formas de solucionar o problema. Dentre estas, uma alternativa é a realização de transformações na árvore binária CSG, através de outras operações, envolvendo o uso de complemento com operações de união e interseção, para a modelagem do objeto e geração da sombra correspondente. Com base nos estudos realizados foram implementados dois protótipos que exibem a sombra projetada de objetos modelados por CSG. Na implementação do protótipo A utilizaram-se as técnicas tradicionais de modelagem de sólidos e sombra projetada. Os resultados obtidos com este protótipo serviram de referência. No protótipo B os resultados foram obtidos através da aplicação da zona ativa das primitivas na modelagem dos objetos e a sombra é projetada durante o processo de avaliação de contornos do sólido. Os resultados obtidos com este protótipo são comparados com os resultados do protótipo A e são apresentados como forma de exibir a aplicação do método proposto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho discorre no escopo de informática médica, no âmbito da Unidade de Cardiologia Fetal do Instituto de Cardiologia - Fundação Universitária de Cardiologia do RS. Sabe-se que a medicina gera um grande volume de dados, sejam eles, textuais, numéricos, gráficos ou mesmo imagens ou sons geradas por equipamentos de ultra-som, tomógrafos computadorizados, ressonância magnética, RX, entre outros. Este trabalho desenvolve a integração das imagens ecocardiográficas fetais ao banco de dados. Atualmente, a tendência observada no desenvolvimento de sistemas de informações é a utilização de banco de dados que sejam capazes de manipular informações completas sobre seus pacientes, tais como: consultas, medicamentos, internações, bem como os laudos de exames com suas respectivas imagens quando estes possuírem. É com base nestas tendências que foram definidos os tópicos relevantes a serem estudados e implementados neste trabalho, integrando os estudos ecocardiográficos fetais com as informações do banco de dados da unidade de cardiologia fetal (UCF). Neste trabalho está apresentado o modelo do banco de dados da UCF. Para esta modelagem foram realizados estudos para aquisição de conhecimento da área e também para compreender as necessidades da unidade Da mesma forma, as imagens ecocardiográficas fetais foram estudadas para que fosse possível serem modeladas junto ao banco de dados. Para esta modelagem foi necessário fazer uma breve revisão dos conceitos utilizados pelo paradigma de orientação a objetos, uma vez que o modelo foi desenvolvido utilizando esta metodologia. As imagens ecocardiográficas fetais receberam grande atenção, uma vez que para elas foram criadas classes distintas. Também para aumentar a funcionalidade foram estudados conceitos de imagem digital, para posterior aplicação sobre as imagens do domínio. Foram realizados estudos sob manipulação de imagens, como modificação do brilho, medidas, filtros e formas de armazenamento. Considerando os formatos de gravação, dois padrões foram contemplados neste trabalho: o utilizado pela placa disponível no instituto denominado DT-IRIS e o DICOM que é um padrão internacional de armazenamento e comunicação de imagens médicas. Por fim, a implementação do protótipo procura demonstrar a viabilidade do modelo proposto, disponibilizando dados textuais, imagens e ainda realizando manipulações sobre estas imagens do domínio.