963 resultados para indifference graph
Resumo:
OBJETIVOS: Nenhum estudo de base populacional foi realizado para mostrar o uso potencial de diagnóstico virológico do vírus rábico. O estudo realizado teve por objetivo estimar parâmetros de acurácia para o isolamento de vírus rábico em célula McCoy, como um método alternativo, e comparar com o uso da célula N2A, considerada método de referência. MÉTODOS: Foi realizado um inquérito em 120 morcegos coletados aleatoriamente, na Mata Atlântica, no Estado de São Paulo. Utilizou-se a reação de imunofluorescência para a detecção do vírus rábico isolado no cérebro desses morcegos, avaliado nos dois sistemas de cultivos celulares. Dois bancos de dados foram formados com os resultados. A análise foi feita com o programa Computer Methods for Diagnosis Tests (CMDT), utilizando a técnica de two-graph-receiver operating characteristic (TG-ROC) para obter os parâmetros de sensibilidade e especificidade, além de outros indicadores, tais como eficácia, valor preditivo positivo, valor preditivo negativo e razão de verossimilhança. RESULTADOS: A célula N2A apresentou 90% de sensibilidade e especificidade, enquanto que a célula McCoy obteve 95% para os mesmos parâmetros. Os valores foram baseados em pontos de cortes otimizados para cada uma das células. CONCLUSÕES: Observou-se que a célula McCoy permite obter estimativas de acurácia superiores aos resultados observados com a célula de N2A, representando um método alternativo eficaz no isolamento do vírus rábico.
Resumo:
Dissertação apresentada à Escola Superior de Comunicação Social como parte dos requisitos para obtenção de grau de mestre em Audiovisual e Multimédia.
Resumo:
Dissertação Final de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica no perfil de Manutenção e Produção
Resumo:
A Lei de Potência é uma particularidade de um sistema não linear, revelando um sistema complexo próximo da auto-organização. Algumas características de sistemas naturais e artificiais, tais como dimensão populacional das cidades, valor dos rendimentos pessoais, frequência de ocorrência de palavras em textos e magnitude de sismos, seguem distribuições do tipo Lei de Potência. Estas distribuições indicam que pequenas ocorrências são muito comuns e grandes ocorrências são raras, podendo porém verificar-se com razoável probabilidade. A finalidade deste trabalho visa a identificação de fenómenos associados às Leis de Potência. Mostra-se o comportamento típico destes fenómenos, com os dados retirados dos vários casos de estudo e com a ajuda de uma meta-análise. As Leis de Potência em sistemas naturais e artificiais apresentam uma proximidade a um padrão, quando os valores são normalizados (frequências relativas) para dar origem a um meta-gráfico.
Resumo:
Com a crescente geração, armazenamento e disseminação da informação nos últimos anos, o anterior problema de falta de informação transformou-se num problema de extracção do conhecimento útil a partir da informação disponível. As representações visuais da informação abstracta têm sido utilizadas para auxiliar a interpretação os dados e para revelar padrões de outra forma escondidos. A visualização de informação procura aumentar a cognição humana aproveitando as capacidades visuais humanas, de forma a tornar perceptível a informação abstracta, fornecendo os meios necessários para que um humano possa absorver quantidades crescentes de informação, com as suas capacidades de percepção. O objectivo das técnicas de agrupamento de dados consiste na divisão de um conjunto de dados em vários grupos, em que dados semelhantes são colocados no mesmo grupo e dados dissemelhantes em grupos diferentes. Mais especificamente, o agrupamento de dados com restrições tem o intuito de incorporar conhecimento a priori no processo de agrupamento de dados, com o objectivo de aumentar a qualidade do agrupamento de dados e, simultaneamente, encontrar soluções apropriadas a tarefas e interesses específicos. Nesta dissertação é estudado a abordagem de Agrupamento de Dados Visual Interactivo que permite ao utilizador, através da interacção com uma representação visual da informação, incorporar o seu conhecimento prévio acerca do domínio de dados, de forma a influenciar o agrupamento resultante para satisfazer os seus objectivos. Esta abordagem combina e estende técnicas de visualização interactiva de informação, desenho de grafos de forças direccionadas e agrupamento de dados com restrições. Com o propósito de avaliar o desempenho de diferentes estratégias de interacção com o utilizador, são efectuados estudos comparativos utilizando conjuntos de dados sintéticos e reais.
Resumo:
OBJETIVO: Analisar a acurácia do diagnóstico de dois protocolos de imunofluorescência indireta para leishmaniose visceral canina. MÉTODOS: Cães provenientes de inquérito soroepidemiológico realizado em área endêmica nos municípios de Araçatuba e de Andradina, na região noroeste do estado de São Paulo, em 2003, e área não endêmica da região metropolitana de São Paulo, foram utilizados para avaliar comparativamente dois protocolos da reação de imunofluorescência indireta (RIFI) para leishmaniose: um utilizando antígeno heterólogo Leishmania major (RIFI-BM) e outro utilizando antígeno homólogo Leishmania chagasi (RIFI-CH). Para estimar acurácia utilizou-se a análise two-graph receiver operating characteristic (TG-ROC). A análise TG-ROC comparou as leituras da diluição 1:20 do antígeno homólogo (RIFI-CH), consideradas como teste referência, com as diluições da RIFI-BM (antígeno heterólogo). RESULTADOS: A diluição 1:20 do teste RIFI-CH apresentou o melhor coeficiente de contingência (0,755) e a maior força de associação entre as duas variáveis estudadas (qui-quadrado=124,3), sendo considerada a diluição-referência do teste nas comparações com as diferentes diluições do teste RIFI-BM. Os melhores resultados do RIFI-BM foram obtidos na diluição 1:40, com melhor coeficiente de contingência (0,680) e maior força de associação (qui-quadrado=80,8). Com a mudança do ponto de corte sugerido nesta análise para a diluição 1:40 da RIFI-BM, o valor do parâmetro especificidade aumentou de 57,5% para 97,7%, embora a diluição 1:80 tivesse apresentado a melhor estimativa para sensibilidade (80,2%) com o novo ponto de corte. CONCLUSÕES: A análise TG-ROC pode fornecer importantes informações sobre os testes de diagnósticos, além de apresentar sugestões sobre pontos de cortes que podem melhorar as estimativas de sensibilidade e especificidade do teste, e avaliá-los a luz do melhor custo-benefício.
Resumo:
Perceber a rede estrutural formada pelos neurónios no cérebro a nível da macro escala é um desafio atual na área das neurociências. Neste estudo analisou-se a conectividade estrutural do cérebro em 22 indivíduos saudáveis e em dois doentes com epilepsia pós-traumática. Avaliaram-se as diferenças entre estes dois grupos. Também se pesquisaram diferenças a nível do género e idade no grupo de indivíduos saudáveis e os que têm valores médios mais elevados nas métricas de caracterização da rede. Para tal, desenvolveu-se um protocolo de análise recorrendo a diversos softwares especializados e usaram-se métricas da Teoria dos Grafos para a caracterização da conectividade estrutural entre 118 regiões encefálicas distintas. Dentro do grupo dos indivíduos saudáveis concluiu-se que os homens, no geral, são os que têm média mais alta para as métricas de caracterização da rede estrutural. Contudo, não se observaram diferenças significativas em relação ao género nas métricas de caracterização global do cérebro. Relativamente à idade, esta correlaciona-se negativamente, no geral, com as métricas de caracterização da rede estrutural. As regiões onde se observaram as diferenças mais importantes entre indivíduos saudáveis e doentes são: o sulco rolândico, o hipocampo, o pré-cuneus, o tálamo e o cerebelo bilateralmente. Estas diferenças são consistentes com as imagens radiológicas dos doentes e com a literatura estudada sobre a epilepsia pós-traumática. Preveem-se desenvolvimentos para o estudo da conectividade estrutural do cérebro humano, uma vez que a sua potencialidade pode ser combinada com outros métodos de modo a caracterizar as alterações dos circuitos cerebrais.
Resumo:
Microarray allow to monitoring simultaneously thousands of genes, where the abundance of the transcripts under a same experimental condition at the same time can be quantified. Among various available array technologies, double channel cDNA microarray experiments have arisen in numerous technical protocols associated to genomic studies, which is the focus of this work. Microarray experiments involve many steps and each one can affect the quality of raw data. Background correction and normalization are preprocessing techniques to clean and correct the raw data when undesirable fluctuations arise from technical factors. Several recent studies showed that there is no preprocessing strategy that outperforms others in all circumstances and thus it seems difficult to provide general recommendations. In this work, it is proposed to use exploratory techniques to visualize the effects of preprocessing methods on statistical analysis of cancer two-channel microarray data sets, where the cancer types (classes) are known. For selecting differential expressed genes the arrow plot was used and the graph of profiles resultant from the correspondence analysis for visualizing the results. It was used 6 background methods and 6 normalization methods, performing 36 pre-processing methods and it was analyzed in a published cDNA microarray database (Liver) available at http://genome-www5.stanford.edu/ which microarrays were already classified by cancer type. All statistical analyses were performed using the R statistical software.
Resumo:
For a long time the allegorical activity was considered dogmatic and equated with artistic fossilization, archaic religious propensity and lack of creativity. However, Walter Benjamin (1928) and Paul De Man (1969), among other illustrious thinkers, came to its defense, exalting, instead, its cryptic, hybrid and abstract nature, which, incidentally, are the main characteristics of modern art. “Twin Peaks – Fire Walk with Me” (David Lynch, 1992) is a wonderful object of analysis, despite being one of the most misunderstood films in the history of cinema. The fact that its narrative is a prequel to the cult television series “Twin Peaks” and incorporates many of the characters of that show, explicitly denigrating the moral image of the protagonist, Laura Palmer, brought about an intense rejection by the fans of the series, as well as the indifference of the cinephilic community in general. However, one must go deeper, in order to understand Lynch’s brave accomplishment and its artfulness. Indeed, the opus is a powerful cinematic allegory because it contains a double layer of metaphorical meaning, one of them being explicitly metacinematic. Thus, besides assuming itself as a filmic daimonic allegory, occurring in a spiritual universe of Good versus Evil, the film is also an authorial discourse on cinema itself. More specifically, it is an allegory of spectatorship, according to Robert Stam’s definition, where the existence and crossing over to “another side” duplicates the architecture of movie theatres and the psychic processes involved in film viewing.
Resumo:
Trabalho de Projeto para obtenção do grau de Mestre em Engenharia Informática e de Computadores
Resumo:
Seven pyrethroids (bifenthrin, fenpropathrin, k-cyhalothrin, permethrin, a-cypermethrin, fenvalerate, and deltamethrin) were extracted from water using C18 solid-phase extraction disks, followed by gas chromatography with an electron capture detector (GC-ECD) analysis. The limits of detection in water samples ranged from 0.5 ng L-1 (fenpropathrin) to 110 ng L- 1 (permethrin), applying the calibration graph. The effects of different numbers of (re)utilizations of the same disks (up to four times with several concentrations) on the recoveries of the pyrethroids were considered. The recoveries were all between 70 and 120% after four utilizations of the same disk. There was no difference between these recoveries at a confidence level of 95%.
Resumo:
O principal objectivo da animação de personagens virtuais é o de contar uma história através da utilização de personagens virtuais emocionalmente expressivos. Os personagens têm personalidades distintas, e transmitem as suas emoções e processos de pensamento através dos seus comportamentos (comunicação não verbal). As suas acções muitas das vezes constituem a geração de movimentos corporais complexos. Existem diversas questões a considerar quando se anima uma entidade complexa, tais como, a posição das zonas móveis e as suas velocidades. Os personagens virtuais são um exemplo de entidades complexas e estão entre os elementos mais utilizados em animação computacional. O foco desta dissertação consistiu na criação de uma proposta de sistema de animação de personagens virtuais, cujos movimentos e expressões faciais são capazes de transmitir emoções e estados de espírito. Os movimentos primários, ou seja os movimentos que definem o comportamento dos personagens, são provenientes da captura de movimentos humanos (Motion Capture). As animações secundárias, tais como as expressões faciais, são criadas em Autodesk Maya recorrendo à técnica BlendShapes. Os dados obtidos pela captura de movimentos, são organizados numa biblioteca de comportamentos através de um grafo de movimentos, conhecido por Move Tree. Esta estrutura permite o controlo em tempo real dos personagens através da gestão do estado dos personagens. O sistema possibilita também a transição eficaz entre movimentos semelhantes e entre diferentes velocidades de locomoção, minimizando o efeito de arrastamento de pés conhecido como footskate. Torna-se assim possível definir um trajecto que o personagem poderá seguir com movimentos suaves. Estão também disponíveis os resultados obtidos nas sessões de avaliação realizadas, que visaram a determinação da qualidade das transições entre animações. Propõem-se ainda o melhoramento do sistema através da implementação da construção automática do grafo de movimentos.
Resumo:
Introdução – O bullying pode ser definido como atitudes agressivas, intencionais e repetidas durante um período de tempo. Diversos estudos verificaram a prevalência de bullying entre estudantes de vários países e demonstraram que este é um problema internacional e que pelo menos um em cada dez estudantes está envolvido numa situação de bullying. Objetivos – Caracterizar as situações de bullying no ambiente escolar, o papel do estudante, os sentimentos associados a essas ações e identificar as características do agressor. Métodos – A amostra foi constituída por 519 alunos matriculados em duas escolas da região sul de Portugal que preencheram um questionário anónimo sobre uma situação de bullying que vivenciaram, descrevendo o papel do aluno e o que sentiram nesta situação. Resultados – Os resultados revelaram que em 61,7% dos casos se tratou de agressão física e 29,7% de agressão verbal. Desempenharam o papel de agressores 12,7% dos alunos, 21,8% foram vítimas e 63,6% foram testemunhas desta situação. 10,6% dos alunos relataram sentir bem, 11% mostraram indiferença e 78,4% dos alunos sentiram‑se mal com a situação de bullying. Verificou‑se que, com o avanço da idade, o estudante aumentava em 1,5 vezes a probabilidade de desempenhar o papel de agressor e os rapazes apresentavam 5,2 vezes mais probabilidades de vir a ser agressor numa situação de bullying. Conclusão – O presente estudo verificou que a maioria dos alunos participou de uma situação de bullying escolar como testemunha, sendo os casos mais comuns de agressão física. A maioria dos alunos sentiu‑se mal com essa situação. Os rapazes e os alunos com mais idade tiveram mais probabilidade de vir a desempenhar o papel de agressor numa situação de bullying.
Resumo:
Mestrado em Intervenção Sócio-Organizacional na Saúde - Ramo de especialização: Qualidade e Tecnologias da Saúde
Resumo:
In the past years, Software Architecture has attracted increased attention by academia and industry as the unifying concept to structure the design of complex systems. One particular research area deals with the possibility of reconfiguring architectures to adapt the systems they describe to new requirements. Reconfiguration amounts to adding and removing components and connections, and may have to occur without stopping the execution of the system being reconfigured. This work contributes to the formal description of such a process. Taking as a premise that a single formalism hardly ever satisfies all requirements in every situation, we present three approaches, each one with its own assumptions about the systems it can be applied to and with different advantages and disadvantages. Each approach is based on work of other researchers and has the aesthetic concern of changing as little as possible the original formalism, keeping its spirit. The first approach shows how a given reconfiguration can be specified in the same manner as the system it is applied to and in a way to be efficiently executed. The second approach explores the Chemical Abstract Machine, a formalism for rewriting multisets of terms, to describe architectures, computations, and reconfigurations in a uniform way. The last approach uses a UNITY-like parallel programming design language to describe computations, represents architectures by diagrams in the sense of Category Theory, and specifies reconfigurations by graph transformation rules.