14 resultados para graph traversal
em Biblioteca Digital de Teses e Dissertações Eletrônicas da UERJ
Resumo:
A Amazônia exibe uma variedade de cenários que se complementam. Parte desse ecossistema sofre anualmente severas alterações em seu ciclo hidrológico, fazendo com que vastos trechos de floresta sejam inundados. Esse fenômeno, entretanto, é extremamente importante para a manutenção de ciclos naturais. Neste contexto, compreender a dinâmica das áreas alagáveis amazônicas é importante para antecipar o efeito de ações não sustentáveis. Sob esta motivação, este trabalho estuda um modelo de escoamento em áreas alagáveis amazônicas, baseado nas equações de Navier-Stokes, além de ferramentas que possam ser aplicadas ao modelo, favorecendo uma nova abordagem do problema. Para a discretização das equações é utilizado o Método dos Volumes Finitos, sendo o Método do Gradiente Conjugado a técnica escolhida para resolver os sistemas lineares associados. Como técnica de resolução numérica das equações, empregou-se o Método Marker and Cell, procedimento explícito para solução das equações de Navier-Stokes. Por fim, as técnicas são aplicadas a simulações preliminares utilizando a estrutura de dados Autonomous Leaves Graph, que tem recursos adaptativos para manipulação da malha que representa o domínio do problema
Resumo:
Os métodos espectrais são ferramentas úteis na análise de dados, sendo capazes de fornecer informações sobre a estrutura organizacional de dados. O agrupamento de dados utilizando métodos espectrais é comumente baseado em relações de similaridade definida entre os dados. O objetivo deste trabalho é estudar a capacidade de agrupamento de métodos espectrais e seu comportamento, em casos limites. Considera-se um conjunto de pontos no plano e usa-se a similaridade entre os nós como sendo o inverso da distância Euclidiana. Analisa-se a qual distância mínima, entre dois pontos centrais, o agrupamento espectral é capaz de reagrupar os dados em dois grupos distintos. Acessoriamente, estuda-se a capacidade de reagrupamento caso a dispersão entre os dados seja aumentada. Inicialmente foram realizados experimentos considerando uma distância fixa entre dois pontos, a partir dos quais os dados são gerados e, então, reduziu-se a distância entre estes pontos até que o método se tornasse incapaz de efetuar a separação dos pontos em dois grupos distintos. Em seguida, retomada a distância inicial, os dados foram gerados a partir da adição de uma perturbação normal, com variância crescente, e observou-se até que valor de variância o método fez a separação dos dados em dois grupos distintos de forma correta. A partir de um conjunto de pontos obtidos com a execução do algoritmo de evolução diferencial, para resolver um problema multimodal, testa-se a capacidade do método em separar os indivíduos em grupos diferentes.
Resumo:
Através de estudo de evento este trabalho analisa o impacto provocado pelo anúncio de recompra de ações sobre os seus próprios preços, utilizando como referência, as empresas que anunciaram aquisição de ações de sua emissão, através de publicação de fato relevante na Comissão de Valores Mobiliário (CVM), nos exercícios de 2003 a 2009. O estudo pressupõe eficiência de mercado na sua forma semi-forte e identifica retorno anormal, estatisticamente significativo na data um do evento, ou seja, um dia após o anúncio. Os retornos acumulados de três dias são regredidos contra dados da recompra e os resultados reforçam a hipótese de sinalização, já sugerida pela análise do gráfico do retorno anormal acumulado, com os retornos indicando alta decorrente de pressão de preços. Os modelos de regressão utilizados, incluindo variáveis contábeis associadas a outras hipóteses explicativas, não encontram resultados significativos que dêem suporte a outras possíveis motivações propostas na literatura acadêmica.
Resumo:
Neste estudo, investigamos a organização qualitativa e quantitativa do tecido esplênico na fase aguda (nona semana) da infecção pelo Schistosoma mansoni em camundongos Swiss alimentados com uma dieta hipercolesterolêmica (29% lipídios) ou uma ração padrão (12% de lipídios). O volume do baço foi medido pelo método de Scherle. Os cortes histológicos (5m) foram corados com hematoxilina-eosina, Lennerts Giemsa e Picrosirius. O tecido foi avaliado por histopatologia, morfometria e estereologia. A análise estatística foi realizada utilizando-se o programa Graph Pad Instat. Nossos resultados demonstraram que tanto a dieta quanto a infecção determinam perturbações em compartimentos esplênicos. Camundongos infectados, independentemente da dieta, tiveram aumento do baço (P=0,004) e arquitetura esplênica desorganizada quando comparado aos não infectados. O compartimento de polpa branca foi reduzida, enquanto a polpa vermelha e centro germinativo foram aumentadas (P<0,01). Camundongos infectados alimentados com alto teor de gordura apresentaram maior diâmetro de polpa branca (P=0,013) do que os não infectados. O exame microscópico do baço de camundongos não infectados alimentados com ração hipercolesterolêmica indicou que a polpa branca foi reduzida e indistinta. Além disso, camundongos infectados mostraram infiltrados celulares caracterizados por células polimorfonucleares, com mitose linfocítica intensa e células de Mott. Hemossiderina tende a ser em menor grau em camundongos infectados em comparação com os controles não infectados. A polpa vermelha mostrou um aumento significativo (P=0,008) no número médio de megacariócitos em comparação com camundongos não infectados. Camundongos alimentados com dieta padrão mostraram granuloma exsudativo-produtivo em torno de ovos do S. mansoni distribuídas apenas escassamente na polpa vermelha, enquanto que uma resposta do tecido caracterizada por uma infiltração de células em camundongos alimentados com alto teor de gordura foi encontrado. Os resultados do estudo sugerem que a ingestão de dieta rica em gorduras e a infecção contribuíram para a desorganização esplênica
Resumo:
A partir do entendimento das novas possibilidades sociais permitidas pela Internet, este trabalho tem por objetivo investigar a sociabilidade em redes sociais virtuais a partir do desenvolvimento do capital social entre os membros integrantes destas redes. Buscamos compreender as motivações que possibilitam que as relações sociais sejam construídas e mantidas no e a partir do espaço virtual determinando os fatores que tornam tais relações materializadas no espaço offline. Para tal, realizamos um estudo de caso de uma rede social constituída por motociclistas, o site Tornadeiros. Logramos apreender, o contexto de interação entre os membros desta rede e de que modo o fortalecimento do capital social é propulsor do deslocamento das relações no ambiente virtual para o espaço urbano, determinando a sedimentação de vínculos afetivos entre os indivíduos, inicialmente previstos como banais e efêmeros, dado a lacuna espaço-temporal existente entre estes atores. Para explorar estas dimensões iniciamos o trabalho etnográfico no ciberespaço e posteriormente no espaço urbano. A etnografia no ciberespaço consistiu na aplicação de um questionário online para determinar o perfil dos membros da rede social e na compilação de todo conteúdo de postagens disponível na memória coletiva do site. Os dados compilados foram tratados posteriormente para determinar a topologia da rede de interações entre os membros. Deste material, selecionamos 17 discursos para estudo, articulando a análise dos discursos com as observações produzidas pelo grafo da rede de interações do site. Finalmente, no segundo momento etnográfico, nós confrontamos os resultados com as entrevistas presenciais, tornando possível perceber o estabelecimento e manutenção das relações sociais a partir do capital social desenvolvido nesta rede.
Resumo:
Os aspectos quânticos de teorias de campo formuladas no espaço-tempo não comutativo têm sido amplamente estudados ao longo dos anos. Um dos principais aspectos é o que na literatura ficou conhecido como mixing IR/UV. Trata-se de uma mistura das divergências, que foi vista pela primeira vez no trabalho de Minwalla et al [28], onde num estudo do campo escalar não comutativo com interação quártica vemos já a 1 loop que o tadpole tem uma divergência UV associada a sua parte planar e, junto com ela, temos uma divergência IR associada com um gráfico não planar. Essa mistura torna a teoria não renormalizável. Dado tal problema, houve então uma busca por mecanismos que separassem essas divergências a fim de termos teorias renormalizáveis. Um mecanismo proposto foi a adição de um termo não local na ação U*(1) para que esta seja estável.Neste trabalho, estudamos através da renormalização algébrica a estabilidade deste modelo. Para tal, precisamos localizar o operador não local através de campos auxiliares e seus respectivos ghosts (metodo de Zwanziger) na intenção de retirar os graus de liberdade indesejados que surgem. Usamos o approachda quebra soft de BRST para analisar o termo que quebra BRST, que consiste em reescrevermos tal termo com o auxílio de fontes externas que num determinado limite físico voltam ao termo original.Como resultado, vimos que a teoria com a adição deste termo na ação só é renormalizável se tivermos que introduzir novos termos, sendo alguns deles quárticos. Porém, estes termos mudam a forma do propagador, que não desacopla as divergências. Um outro aspecto que podemos salientar é que, dependendo da escolha de alguns parâmetros, o propagador dá indícios de termos um fótonconfinante, seguindo o critério de Wilson e o critério da perda da positividade do propagador.
Resumo:
Em muitas representações de objetos ou sistemas físicos se faz necessário a utilização de técnicas de redução de dimensionalidade que possibilitam a análise dos dados em baixas dimensões, capturando os parâmetros essenciais associados ao problema. No contexto de aprendizagem de máquina esta redução se destina primordialmente à clusterização, reconhecimento e reconstrução de sinais. Esta tese faz uma análise meticulosa destes tópicos e suas conexões que se encontram em verdadeira ebulição na literatura, sendo o mapeamento de difusão o foco principal deste trabalho. Tal método é construído a partir de um grafo onde os vértices são os sinais (dados do problema) e o peso das arestas é estabelecido a partir do núcleo gaussiano da equação do calor. Além disso, um processo de Markov é estabelecido o que permite a visualização do problema em diferentes escalas conforme variação de um determinado parâmetro t: Um outro parâmetro de escala, Є, para o núcleo gaussiano é avaliado com cuidado relacionando-o com a dinâmica de Markov de forma a poder aprender a variedade que eventualmente seja o suporte do dados. Nesta tese é proposto o reconhecimento de imagens digitais envolvendo transformações de rotação e variação de iluminação. Também o problema da reconstrução de sinais é atacado com a proposta de pré-imagem utilizando-se da otimização de uma função custo com um parâmetro regularizador, γ, que leva em conta também o conjunto de dados iniciais.
Resumo:
As rodovias podem representar um importante fator na fragmentação de habitat para espécies silvestres adaptadas a habitats de alta complexidade estrutural, como as florestas tropicais. As estradas reduzem a conectividade da paisagem e a capacidade da população regional em habitar todas as áreas adequadas e estes efeitos são mais significativos nas espécies que evitam a estrada, que são, muitas vezes, espécies de interior de florestas. A magnitude dos efeitos de barreira dependerá do comportamento e mobilidade destas espécies. Quando as estradas representam ralos (sink) ou barreiras para as populações, devido, respectivamente, aos atropelamentos ou à repulsa, medidas mitigadoras são indicadas para aumentar a conectividade entre as manchas de habitat separadas por essas estradas. A qualidade do habitat é um fator que deve ser considerado, mesmo com baixas frequências de atropelamentos nesses locais. O objetivo desse estudo foi propor dois métodos de seleção de áreas prioritárias para implantação de medidas mitigadoras dos efeitos das estradas sobre espécies de vertebrados florestais: Seleção Hierárquica Multivariada e Seleção Bivariada. A área de estudo foi o bioma Mata Atlântica, sendo recortado em paisagens hexagonais em três escalas diferentes (10.000, 1.000 e 100 km), usando a extensão Repeating Shapes no programa ArcGIS 9.3. Em cada hexágono foram calculados: área de floresta e de Unidade de Conservação, densidade de estradas e de hidrografia. Apenas os hexágonos cobertos por no mínimo 45% pela Mata Atlântica, com mais de 50% de cobertura florestal e mais de 1% de Unidades de Conservação foram incluídos nas análises. Após esta seleção, no método Seleção Hierárquica Multivariada, foi feita uma análise de componentes principais (PCA) com as quatro variáveis medidas, para cada escala separadamente. Os hexágonos foram então ordenados segundo o posicionamento deles no 1 Eixo da PCA de forma hierárquica e da maior para menor escala de hexágonos. Para área de estudo o método de Seleção Bivariada foi construído um gráfico de pontos, para cada escala de hexágono, com as variáveis cobertura florestal e rios. Foram selecionados os hexágonos que estavam localizados no quadrante do gráfico que representasse maior densidade de rios e maior porcentagem de cobertura florestal. Posteriormente foi feita uma simulação para avaliar se os métodos eram capazes de recuperar escores tão alto quanto a ordenação seguindo apenas o posicionamento dos hexágonos no Eixo 1 da PCA, sem uma análise hierárquica. O método de Seleção Hierárquica Multivariada foi mais eficiente para escolha de áreas prioritárias do que a Seleção Bivariada tanto para a escala intermediária (1.000 km) quanto para a menor escala (100 km). Os cinco hexágonos de 100 km mais prioritários estão localizados em São Paulo e Paraná, abrangendo quatro UCs (PARES de Jacupiranga, APA de Guaraqueçaba, APA Cananéia- Jacuípe e PARES da Ilha do Cardoso). Devido à simplicidade e fácil aplicabilidade do método, acredita-se que este pode ser uma opção interessante para escolha de áreas prioritárias para implantação de medidas mitigadoras dos efeitos de estradas
Resumo:
A propriedade de auto-cura, em redes inteligente de distribuição de energia elétrica, consiste em encontrar uma proposta de reconfiguração do sistema de distribuição com o objetivo de recuperar parcial ou totalmente o fornecimento de energia aos clientes da rede, na ocorrência de uma falha na rede que comprometa o fornecimento. A busca por uma solução satisfatória é um problema combinacional cuja complexidade está ligada ao tamanho da rede. Um método de busca exaustiva se torna um processo muito demorado e muitas vezes computacionalmente inviável. Para superar essa dificuldade, pode-se basear nas técnicas de geração de árvores de extensão mínima do grafo, representando a rede de distribuição. Porém, a maioria dos estudos encontrados nesta área são implementações centralizadas, onde proposta de reconfiguração é obtida por um sistema de supervisão central. Nesta dissertação, propõe-se uma implementação distribuída, onde cada chave da rede colabora na elaboração da proposta de reconfiguração. A solução descentralizada busca uma redução no tempo de reconfiguração da rede em caso de falhas simples ou múltiplas, aumentando assim a inteligência da rede. Para isso, o algoritmo distribuído GHS é utilizado como base na elaboração de uma solução de auto-cura a ser embarcada nos elementos processadores que compõem as chaves de comutação das linhas da rede inteligente de distribuição. A solução proposta é implementada utilizando robôs como unidades de processamento que se comunicam via uma mesma rede, constituindo assim um ambiente de processamento distribuído. Os diferentes estudos de casos testados mostram que, para redes inteligentes de distribuição compostas por um único alimentador, a solução proposta obteve sucesso na reconfiguração da rede, indiferentemente do número de falhas simultâneas. Na implementação proposta, o tempo de reconfiguração da rede não depende do número de linhas nela incluídas. A implementação apresentou resultados de custo de comunicação e tempo dentro dos limites teóricos estabelecidos pelo algoritmo GHS.
Resumo:
Métodos de otimização que utilizam condições de otimalidade de primeira e/ou segunda ordem são conhecidos por serem eficientes. Comumente, esses métodos iterativos são desenvolvidos e analisados à luz da análise matemática do espaço euclidiano n-dimensional, cuja natureza é de caráter local. Consequentemente, esses métodos levam a algoritmos iterativos que executam apenas as buscas locais. Assim, a aplicação de tais algoritmos para o cálculo de minimizadores globais de uma função não linear,especialmente não-convexas e multimodais, depende fortemente da localização dos pontos de partida. O método de Otimização Global Topográfico é um algoritmo de agrupamento, que utiliza uma abordagem baseada em conceitos elementares da teoria dos grafos, a fim de gerar bons pontos de partida para os métodos de busca local, a partir de pontos distribuídos de modo uniforme no interior da região viável. Este trabalho tem dois objetivos. O primeiro é realizar uma nova abordagem sobre método de Otimização Global Topográfica, onde, pela primeira vez, seus fundamentos são formalmente descritos e suas propriedades básicas são matematicamente comprovadas. Neste contexto, propõe-se uma fórmula semi-empírica para calcular o parâmetro chave deste algoritmo de agrupamento, e, usando um método robusto e eficiente de direções viáveis por pontos-interiores, estendemos o uso do método de Otimização Global Topográfica a problemas com restrições de desigualdade. O segundo objetivo é a aplicação deste método para a análise de estabilidade de fase em misturas termodinâmicas,o qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. A solução deste problema de otimização global é necessária para o cálculo do equilíbrio de fases, que é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Além disso, afim de ter uma avaliação inicial do potencial dessa técnica, primeiro vamos resolver 70 problemas testes, e então comparar o desempenho do método proposto aqui com o solver MIDACO, um poderoso software recentemente introduzido no campo da otimização global.
Resumo:
Apesar do crescente reconhecimento do potencial dos diagramas causais por epidemiologistas, essa técnica ainda é pouco utilizada na investigação epidemiológica. Uma das possíveis razões é que muitos temas de investigação exigem modelos causais complexos. Neste trabalho, a relação entre estresse ocupacional e obesidade é utilizada como um exemplo de aplicação de diagramas causais em questões relacionadas a confundimento. São apresentadas etapas da utilização dos diagramas causais, incluindo a construção do gráfico acíclico direcionado, seleção de variáveis para ajuste estatístico e a derivação das implicações estatísticas de um diagrama causal. A principal vantagem dos diagramas causais é tornar explícitas as hipóteses adjacentes ao modelo considerado, permitindo que suas implicações possam ser analisadas criticamente, facilitando, desta forma, a identificação de possíveis fontes de viés e incerteza nos resultados de um estudo epidemiológico.
Resumo:
Apesar de significativos avanços obtidos no estudo da esquistossomose mansônica, as relações existentes entre esquistossomose e má-nutrição ainda não se acham completamente esclarecidas. Sendo a fase de lactação um período de vida de extrema importância para o indivíduo, alterações metabólicas na gestante podem afetar diretamente o desenvolvimento do feto sugerindo uma programação (imprinting) no metabolismo deste indivíduo em resposta adaptativa aos fatores ambientais encontrados em períodos iniciais de desenvolvimento. Este trabalho teve como objetivo avaliar as características do baço na fase aguda da infecção esquistossomótica de camundongos programados metabolicamente por restrição calórica e restrição protéica. Os baços dos animais eutanasiados na 9 semana de infecção foram submetidos a cortes histológicos (5m) e corados com hematoxilina-eosina. Foi realizada avaliação histopatológica, análise morfométrica e estereologia. A análise estatística foi realizada utilizando-se o programa Graph Pad Instat. Foi observada desorganização estrutural da polpa branca e da polpa vermelha nos grupos programados, independente da presença de infecção. Animais infectados apresentaram hiperplasia e hipertrofia da polpa branca e maior quantidade de pigmentos dispersos no tecido esplênico, bem como a presença de eosinófilos no interior de estruturas vasculares. A polpa branca dos grupos infectados tanto de restrição calórica quanto de restrição protéica apresentaram medidas morfométricas maiores quando comparados aos grupos não infectados. Os resultados estereológicos mostraram que o grupo de restrição calórica infectado apresentou menor densidade de volume de polpa vermelha, enquanto não houve diferenças significativas na densidade de volume de polpa branca. Megacariócitos foram vistos em maior quantidade nos grupos infectados, com ênfase no grupo de restrição protéica. Estes dados sugerem que a programação pela desnutrição materna na lactação e a infecção esquistossomótica provocam desorganização do tecido esplênico.
Resumo:
As tensões residuais de cravação ocorrem quando a estaca e o solo não são totalmente descomprimidos após dissipação completa da energia transferida à estaca durante sua instalação. Este assunto tem merecido a atenção de vários pesquisadores, uma vez que a presença das tensões residuais na estaca causa uma alteração no seu comportamento quando carregada. A presente dissertação reuniu estudos anteriores que estabeleceram os principais fatores que influenciam as tensões residuais de cravação. Procurou-se executar uma série de simulações objetivando melhor entender o desenvolvimento das tensões residuais com a porcentagem de resistência de ponta, em continuidade aos estudos de Costa (1994). Costa (1994) observou que a porcentagem de carga na ponta é um fator relevante na avaliação das tensões residuais de cravação. Uma análise paramétrica efetuada confirmou estudos anteriores, verificando que a razão entre a carga residual na ponta em relação à capacidade de carga global cresce, a medida que a porcentagem de carga na ponta aumenta, chegando a um valor máximo para, em seguida, diminuir. Este comportamento é similar ao da curva de compactação do solo, quando, ao aumentar a umidade, o peso específico seco aumenta, até um valor máximo, correspondente à umidade ótima, para em seguida reduzir. Verificouse, ainda, semelhantemente ao aumento da energia de compactação, que vai transladando a curva para cima e para à esquerda do gráfico umidade x peso específico seco, que o aumento do comprimento da estaca apresenta um comportamento similar. O aumento do comprimento leva a curva para cima e para a esquerda. Finalmente, selecionou-se um caso de obra com condições propícias para o desenvolvimento de altas tensões residuais de cravação. Trata-se de um caso de estacas metálicas longas, embutidas em solo residual jovem, de elevada resistência, bem documentado com extensa instrumentação, por ocasião da instalação. A retroanálise de cinco estacas do banco de dados mostrou que as cargas residuais previstas, num programa de simulação de cravação, se aproximaram muito dos valores experimentais. Foi observado também que a profundidade do ponto neutro previsto e medido apresentou uma excelente concordância. O resultado mais relevante desta pesquisa foi quando os valores de porcentagem de ponta foram introduzidos no eixo das abscissas e os valores da razão entre a carga residual na ponta e a capacidade de carga global, no eixo das ordenadas, e se observou o aspecto da curva semelhante à de compactação. A dissertação ilustra ser possível e simples a previsão das tensões residuais de cravação através de uma análise pela equação da onda.
Resumo:
Os métodos de otimização que adotam condições de otimalidade de primeira e/ou segunda ordem são eficientes e normalmente esses métodos iterativos são desenvolvidos e analisados através da análise matemática do espaço euclidiano n-dimensional, o qual tem caráter local. Esses métodos levam a algoritmos iterativos que são usados para o cálculo de minimizadores globais de uma função não linear, principalmente não-convexas e multimodais, dependendo da posição dos pontos de partida. Método de Otimização Global Topográfico é um algoritmo de agrupamento, o qual é fundamentado nos conceitos elementares da teoria dos grafos, com a finalidade de gerar bons pontos de partida para os métodos de busca local, com base nos pontos distribuídos de modo uniforme no interior da região viável. Este trabalho tem como objetivo a aplicação do método de Otimização Global Topográfica junto com um método robusto e eficaz de direções viáveis por pontos-interiores a problemas de otimização que tem restrições de igualdade e/ou desigualdade lineares e/ou não lineares, que constituem conjuntos viáveis com interiores não vazios. Para cada um destes problemas, é representado também um hiper-retângulo compreendendo cada conjunto viável, onde os pontos amostrais são gerados.