965 resultados para Extensões de corpos (Matematica)


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A hipóxia isquemia (HI) pré-natal é uma das principais causas de mortalidade e doenças neurológicas crônicas em neonatos, que podem apresentar déficits remanentes como: retardamento, paralisia cerebral, dificuldade de aprendizado ou epilepsia. Estes prejuízos, provavelmente, estão relacionados com o atraso no desenvolvimento neural, astrogliose e com a perda de neurônios e oligodendrócitos. Déficits funcionais e cognitivos estão associados à degeneração de vias dopaminérgicas e de estruturas hipocampais. A enzima tirosina hidroxilase (TH) é a enzima limitante na síntese de dopamina e seus níveis são alterados em eventos de HI. O óxido nítrico (NO) é um gás difusível que atua modulando diferentes sistemas, participando de eventos como plasticidade sináptica e neuromodulação no sistema nervoso central e é produzido em grandes quantidades em eventos de injúria e inflamação, como é o caso da HI. O presente estudo teve por objetivos avaliar, utilizando o modelo criado por Robinson e colaboradores em 2005, os efeitos da HI sobre o comportamento motor e avaliar o desenvolvimento de estruturas encefálicas relacionadas a este comportamento como a substância negra (SN) e o complexo hipocampal. A HI foi induzida a partir do clampeamento das artérias uterinas da rata grávida, por 45 minutos no décimo oitavo dia de gestação (grupo HI). Em um grupo de fêmeas a cirurgia foi realizada, mas não houve clampeamento das artérias (grupo SHAM). A avaliação do comportamento motor foi realizada com os testes ROTAROD e de campo aberto em animais de 45 dias. Os encéfalos foram processados histologicamente nas idades de P9, P16, P23 e P90, sendo então realizada imunohistoquímica para TH e histoquímica para NADPH diaforase (NADPH-d), para avaliação do NO. Nossos resultados demonstraram redução da imunorreatividade para a TH em corpos celulares na SN aos 16 dias no grupo HI e aumento na imunorreatividade das fibras na parte reticulada aos 23 dias, com a presença de corpos celulares imunorreativos nesta região no grupo HI. Demonstramos também aumento do número de células marcadas para NADPH-d no giro dentado nos animais HI, nas idades analisadas, assim como aumento na intensidade de reação no corno de Ammon (CA1 e CA3) aos 9 dias no grupo HI, e posterior redução nesta marcação aos 23 e 90dias neste mesmo grupo. Nos testes comportamentais, observamos diminuição da atividade motora no grupo HI com uma melhora do desempenho ao longo dos testes no ROTAROD, sem entretanto atingir o mesmo nível do grupo SHAM. Os animais HI não apresentaram maior nível de ansiedade em relação ao grupo SHAM, descartando a hipótese das alterações observadas nos testes de motricidade estarem relacionadas a fatores ansiogênicos. O modelo de clampeamento das artérias uterinas da fêmea se mostrou uma ferramenta importante no estudo das alterações decorrentes do evento de HI pré-natal, por produzir diversos resultados que são similares aos ocorridos em neonatos que passam por este evento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os estudos de relação entre a paisagem e a água doce vêm sendo aprofundados pela comunidade científica e pelos propositores de políticas públicas, principalmente, para atender às demandas sobre as maneiras que este sistema ambiental pode ser alterado e na identificação das implicações políticas e ecológicas destas mudanças. Quanto mais se torna intenso e diversificado o uso dos corpos hídricos e da paisagem em bacias hidrográficas maior é a necessidade de se definir formas de planejamento, gerenciamento e gestão ecológica desses ecossistemas. O completo entendimento do funcionamento e dos processos ecológicos que ocorrem em uma bacia hidrográfica exige conhecimento simultâneo de seus sistemas aquáticos e terrestres, da biodiversidade, da fisiografia, da geologia e de sua conservação, temporal e espacial. Este entendimento e conhecimento da área de interesse são vitais para proposições de instrumentos ambientais legais, como Unidades de Conservação (UCs). É muito importante que a fundamentação destas propostas tenha como eixo principal o funcionamento dos ecossistemas e das paisagens, de forma a garantir uma maior conectividade e integração entre água (doce, salobra e salgada) e terra, e seus múltiplos usos. A presente tese foi desenvolvida com base neste contexto, apresentando e aplicando metodologias integradoras, seja na ecologia de paisagem (EP), seja na relação entre os ambientes dulcícola e terrestre. O objetivo principal deste trabalho foi o desenvolvimento de processos para planejamento ambiental em BHs, através do diagnóstico, compreensão e análise do funcionamento e dinâmica da paisagem e de ecossistemas de rios e córregos, apoiados no uso de geotecnologias. De acordo com os resultados obtidos, a BHGM ocupa uma área de 1260,36 km e 204,69 km de perímetro. É uma bacia com forma mais alongada que circular (KC = 1,6144e IC =0,4747 km/km) que indica uma menor susceptibilidade a enchentes em condições normais de precipitação exceto em eventos de intensidades anômalas. O mapeamento base (2007) realizado indicou que a bacia possuía 34,86% de uso antrópico e 64,04 % de remanescente florestal. Os dados de fitofisionomia potencial indicaram predominância da classe Florestas Ombrófila Densa Submontana (40%) e de Terras Baixas (39%). Foram estabelecidas para bacia 269 unidades de paisagem (integração da geomorfologia, geologia, fitofisionomia e uso da terra e cobertura vegetal (2007)) que junto com os dados de métrica de paisagem constituíram a proposta integrativa da tese para ecologia de paisagem. Em relação à qualidade ambiental foram adotados o índice de avaliação visual (IAV), o índice multimétrico físico-químico bacteriológico e o índice biótico estendido (IBE). A comparação entre estes índices demonstrou a confirmação entre os seus resultados para a maioria dos pontos amostrados nas áreas de referência e de pelo menos dois índices para os pontos intermediários e impactados. Foram propostos também dois cenários para a bacia: um considerando as condicionantes e medidas compensatórias vinculadas à licença prévia do complexo petroquímico do Estado do Rio de Janeiro (COMPERJ); e outro, sem considerar estas condições. O primeiro indicou a realização da restauração ecológica, seguindo as diretrizes do mapa síntese, integrada para restauração da paisagem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Bacia Hidrográfica Lagos São João, localizada no sudoeste do Estado do Rio de Janeiro, abrange 13 municípios que abrigam cerca de 520 mil habitantes. Na temporada de férias esse número sobe para mais de 1 milhão de pessoas. A pastagem constitui o principal tipo de uso do solo, em seguida vem as áreas urbanas e as salinas. A partir da década de 1960 essa região passou a receber maior contingente populacional, tanto de veranistas quanto de moradores fixos, beneficiados pela implantação de novas vias de acesso, como a Ponte Rio-Niteroi e pela construção da represa de Juturnaíba, que ampliou o abastecimento de água dos municípios. Surge neste contexto a especulação imobiliária, que acelera a ocupação das terras próximas a Lagoa de Araruama. Rapidamente essas terras foram loteadas e o setor da construção civil foi ganhando força. Entretanto, a região não contou com adequado planejamento, e os investimentos em saneamento básico e outras infraestruturas urbanas não acompanharam o ritmo da construção civil, que cada vez mais investia em casas, prédios e condomínios, que ampliaram consideravelmente a área urbana e a ocupação da zona costeira. Sendo assim, ficou visível o aumento da malha urbana e a ocupação de áreas impróprias, como as margens dos corpos hídricos, os manguezais, dunas e restingas, além da redução da cobertura vegetal. Dessa forma, foi substancial a perda de qualidade ambiental na região, sobretudo, com relação a água da lagoa e dos rios, que passaram a receber maior volume de efluentes sem tratamento. O potencial turístico da região tem sido explorado e provocado altos investimentos dos agentes de especulação imobiliária, entretanto além de promover a ocupação em áreas irregulares, leva a privatização de espaços públicos e incentiva o fenômeno da segunda residência. A chegada de novos turistas iniciou o processo de desenvolvimento do turismo e, consequentemente, a redução da produção salineira. Com isso, o espaço local ganhou novos significados, inseridos pela lógica da urbanização turística. Foi essa nova lógica transformadora que, gradativamente, valorizou a paisagem local, ampliando e encarecendo o seu consumo. Além de ampliar as transformações espaciais, tendo em vista a expansão da malha urbana verificada nas imagens de satélites, atuais, que foram comparadas com fotografias aéreas de décadas anteriores. Todas as transformações ocorridas na região apresentam alguma relação com o desencadeamento de novos problemas ambientais identificados nos seus ecossistemas, sobretudo a Lagoa de Araruama, ou a ampliação de problemas anteriormente existentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho que envolve matemática aplicada e processamento paralelo: seu objetivo é avaliar uma estratégia de implementação em paralelo para algoritmos de diferenças finitas que aproximam a solução de equações diferenciais de evolução. A alternativa proposta é a substituição dos produtos matriz-vetor efetuados sequencialmente por multiplicações matriz-matriz aceleradas pelo método de Strassen em paralelo. O trabalho desenvolve testes visando verificar o ganho computacional relacionado a essa estratégia de paralelização, pois as aplicacações computacionais, que empregam a estratégia sequencial, possuem como característica o longo período de computação causado pelo grande volume de cálculo. Inclusive como alternativa, nós usamos o algoritmo em paralelo convencional para solução de algoritmos explícitos para solução de equações diferenciais parciais evolutivas no tempo. Portanto, de acordo com os resultados obtidos, nós observamos as características de cada estratégia em paralelo, tendo como principal objetivo diminuir o esforço computacional despendido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação trata da estipulação de limite de crédito para empresas clientes, de modo automático, com o uso de técnicas de Inteligência Computacional, especificamente redes neurais artificiais (RNA). Na análise de crédito as duas situações mais críticas são a liberação do crédito, de acordo com o perfil do cliente, e a manutenção deste limite ao longo do tempo de acordo com o histórico do cliente. O objeto desta dissertação visa a automação da estipulação do limite de crédito, implementando uma RNA que possa aprender com situações já ocorridas com outros clientes de perfil parecido e que seja capaz de tomar decisões baseando-se na política de crédito apreendida com um Analista de Crédito. O objetivo é tornar o sistema de crédito mais seguro para o credor, pois uma análise correta de crédito de um cliente reduz consideravelmente os índices de inadimplência e mantém as vendas num patamar ótimo. Para essa análise, utilizouse a linguagem de programação VB.Net para o sistema de cadastro e se utilizou do MatLab para treinamento das RNAs. A dissertação apresenta um estudo de caso, onde mostra a forma de aplicação deste software para a análise de crédito. Os resultados obtidos aplicando-se as técnicas de RNAs foram satisfatórias indicando um caminho eficiente para a determinação do limite de crédito.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo do presente trabalho foi avaliar comparativamente parâmetros biomecânicos (tanto antropométricos, quanto cinemáticos) de dados obtidos a partir do console Microsoft Kinect (2010). A avaliação destes parâmetros foi realizada para validar seu uso para obter informações complementares à Análise Ergonomica do Trabalho (AET) e em outras pesquisas, cujos objetivos envolvem o diagnóstico de uso de produtos ou ambientes de trabalho a partir da análises posturais e interações da população que o utiliza. A pesquisa com este console em particular é justificada uma vez que seu lançamento modificou o cenário da biomecânica, já que se trata de um equipamento acessível e portátil. Porém, sua precisão em relação à outros equipamentos ainda está em aberto, sendo inclusive, objeto de estudo de muitas pesquisas em andamento. Os dados obtidos por meio de sistemas de captura de movimentos tridimensionais permitem a avaliação de produtos, atividades e análises de interações homem-objeto. No campo do Design, é uma importante realização, uma vez que permite que profissionais tenham acesso à ferramenta que, anteriormente, era limitada à nichos especializados. O console foi comparado com o sistema de captura de movimentos inercial MVN Biomech (XSENS TECHNOLOGIES) e com o tradicional registro por meio dedeo. Para obter dados do console Kinect, um software disponível no mercado foi selecionado a partir de critérios predefinidos para obter dados cinemáticos do console. Dois experimentos laboratoriais foram realizados: o primeiro, teve como objetivo obter dados operacionais dos equipamentos e suas limitações de uso; e o segundo foi realizado de forma a obter dados biomecânicos e compará-los a partir de três parâmetros estáticos e um dinâmico. Os parâmetros estáticos envolveram ângulos articulares e segmentares em posturas selecionadas e dimensões segmentares, onde a proposta foi avaliar dados antropométricos e as características do modelo biomecânico referente à manter os corpos rígidos durante a movimentação. O parâmetro dinâmico foi realizado de forma a obter dados de deslocamento global das articulações em movimentações selecionadas. Para possibilitar esta análise, uma plataforma digital foi desenvolvida, constituindo um campo neutro para o tratamento dos dados. A plataforma mantém os dados originais dos sistemas, permitindo a distinção entre os modelos biomecânicos e a retirada de dados que possam ser comparados. Os experimentos realizados permitiram avaliar a usabilidade do console, fornecendo diretrizes para seu uso. Para avaliar a utilização do console em ambientes reais de trabalho, foram realizados registros preliminares em laboratórios químicos, os quais se mostraram viáveis se as limitações, semelhantes às de sistemas baseados em tecnologia ótica, sejam consideradas. Futuras análises devem ser conduzidas para validar estatisticamente os resultados obtidos. Porém, considerando o objetivo do trabalho, pode-se concluir que o sistema avaliado é uma alternativa confiável no contexto proposto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Leito Móvel Simulado (LMS) é um processo de separação de compostos por adsorção muito eficiente, por trabalhar em um regime contínuo e também possuir fluxo contracorrente da fase sólida. Dentre as diversas aplicações, este processo tem se destacado na resolução de petroquímicos e principalmente na atualidade na separação de misturas racêmicas que são separações de um grau elevado de dificuldade. Neste trabalho foram propostas duas novas abordagens na modelagem do LMS, a abordagem Stepwise e a abordagem Front Velocity. Na modelagem Stepwise as colunas cromatográficas do LMS foram modeladas com uma abordagem discreta, onde cada uma delas teve seu domínio dividido em N células de mistura interligadas em série, e as concentrações dos compostos nas fases líquida e sólida foram simuladas usando duas cinéticas de transferência de massa distintas. Essa abordagem pressupõe que as interações decorrentes da transferência de massa entre as moléculas do composto nas suas fases líquida e sólida ocorram somente na superfície, de forma que com essa suposição pode-se admitir que o volume ocupado por cada molécula nas fases sólida e líquida é o mesmo, o que implica que o fator de residência pode ser considerado igual a constante de equilíbrio. Para descrever a transferência de massa que ocorre no processo cromatográfico a abordagem Front Velocity estabelece que a convecção é a fase dominante no transporte de soluto ao longo da coluna cromatográfica. O Front Velocity é um modelo discreto (etapas) em que a vazão determina o avanço da fase líquida ao longo da coluna. As etapas são: avanço da fase líquida e posterior transporte de massa entre as fases líquida e sólida, este último no mesmo intervalo de tempo. Desta forma, o fluxo volumétrico experimental é utilizado para a discretização dos volumes de controle que se deslocam ao longo da coluna porosa com a mesma velocidade da fase líquida. A transferência de massa foi representada por dois mecanismos cinéticos distintos, sem (tipo linear) e com capacidade máxima de adsorção (tipo Langmuir). Ambas as abordagens propostas foram estudadas e avaliadas mediante a comparação com dados experimentais de separação em LMS do anestésico cetamina e, posteriormente, com o fármaco Verapamil. Também foram comparados com as simulações do modelo de equilíbrio dispersivo para o caso da Cetamina, usado por Santos (2004), e para o caso do Verapamil (Perna 2013). Na etapa de caracterização da coluna cromatográfica as novas abordagens foram associadas à ferramenta inversa R2W de forma a determinar os parâmetros globais de transferência de massa apenas usando os tempos experimentais de residência de cada enantiômero na coluna de cromatografia líquida de alta eficiência (CLAE). Na segunda etapa os modelos cinéticos desenvolvidos nas abordagens foram aplicados nas colunas do LMS com os valores determinados na caracterização da coluna cromatográfica, para a simulação do processo de separação contínua. Os resultados das simulações mostram boa concordância entre as duas abordagens propostas e os experimentos de pulso para a caracterização da coluna na separação enantiomérica da cetamina ao longo do tempo. As simulações da separação em LMS, tanto do Verapamil quando da Cetamina apresentam uma discrepância com os dados experimentais nos primeiros ciclos, entretanto após esses ciclos iniciais a correlação entre os dados experimentais e as simulações. Para o caso da separação da cetamina (Santos, 2004), a qual a concentração da alimentação era relativamente baixa, os modelos foram capazes de predizer o processo de separação com as cinéticas Linear e Langmuir. No caso da separação do Verapamil (Perna, 2013), onde a concentração da alimentação é relativamente alta, somente a cinética de Langmuir representou o processo, devido a cinética Linear não representar a saturação das colunas cromatográficas. De acordo como o estudo conduzido ambas as abordagens propostas mostraram-se ferramentas com potencial na predição do comportamento cromatográfico de uma amostra em um experimento de pulso, assim como na simulação da separação de um composto no LMS, apesar das pequenas discrepâncias apresentadas nos primeiros ciclos de trabalho do LMS. Além disso, podem ser facilmente implementadas e aplicadas na análise do processo, pois requer um baixo número de parâmetros e são constituídas de equações diferenciais ordinárias.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação propõe uma abordagem alternativa na simulação matemática de um cenário preocupante em ecologia: o controle de pragas nocivas a uma dada lavoura de soja em uma específica região geográfica. O instrumental teórico empregado é a teoria dos jogos, de forma a acoplar ferramentas da matemática discreta à análise e solução de problemas de valor inicial em equações diferenciais, mais especificamente, as chamadas equações de dinâmica populacional de Lotka-Volterra com competição. Essas equações, que modelam o comportamento predador-presa, possuem, com os parâmetros inicialmente utilizados, um ponto de equilíbrio mais alto que o desejado no contexto agrícola sob exame, resultando na necessidade de utilização da teoria do controle ótimo. O esquema desenvolvido neste trabalho conduz a ferramentas suficientemente simples, de forma a tornar viável o seu uso em situações reais. Os dados utilizados para o tratamento do problema que conduziu a esta pesquisa interdisciplinar foram coletados de material bibliográfico da Empresa Brasileira de Pesquisa Agropecuária EMBRAPA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma dedução dos critérios de multicriticalidade para o cálculo de pontos críticos de qualquer ordem representa a formalização de ideias utilizadas para calcular pontos críticos e tricríticos e ainda amplia tais ideias. De posse desta dedução pode-se compreender os critérios de tricriticalidade e, com isso, através de uma abordagem via problema de otimização global pode-se fazer o cálculo de pontos tricríticos utilizando um método numérico adequado de otimização global. Para evitar um excesso de custo computacional com rotinas numéricas utilizou-se aproximações na forma de diferenças finitas dos termos que compõem a função objetivo. Para simular a relação P v - T optou-se pela equação de estado cúbica de Peng-Robinson e pela regra clássica de fluidos de van der Vaals, para modelagem do problema também se calculou os tensores de ordem 2, 3, 4 e 5 da função do teste de estabilidade. Os resultados obtidos foram comparados com dados experimentais e por resultados obtidos com outros autores que utilizaram métodos numéricos, equação de estado ou abordagem diferente das utilizadas neste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A modernidade exige materiais versáteis, resistentes e, durante um longo tempo os plásticos serviram a esse propósito. Entretanto, o acúmulo desses materiais ao serem descartados no meio ambiente tornou-se um problema Os polímeros biodegradáveis surgiram neste cenário como alternativa para evitar o acúmulo de resíduos plásticos no meio ambiente. O polihidroxibutirato (PHB) representa uma classe de polímeros biodegradáveis, mas que apresenta um alto custo e possui ainda propriedades térmicas limitadas. A borracha natural possui excelentes propriedades mecânicas, resistência ao envelhecimento, flexibilidade e apresenta melhor custo benefício se comparada com as borrachas sintéticas. Neste estudo, foram elaboradas misturas poliméricas de polihidroxibutirato (PHB) e látex de borracha natural em diferentes concentrações, por prensagem à quente. Os ensaios de calorimetria diferencial de varredura (DSC), análise termogravimétrica (TGA), espectrometria na região do infravermelho (FTIR), microscopia ótica (MO) e microscopia eletrônica de varredura (MEV) foram utilizados para caracterizar e avaliar as propriedades das misturas poliméricas. O PHB e as misturas com borracha natural foram submetidos ao ensaio de biodegradabilidade através do enterro em solo simulado, conforme a norma ASTM G 160-03, variando por um período de 2 a 17 semanas. Ao final de cada período foram determinadas a perda de massa, a morfologia dos corpos de prova e foram realizadas as análises de DSC, TGA e FTIR. As misturas poliméricas apresentaram menor resistência térmica do que o PHB. No ensaio de biodegradabilidade, as misturas foram consideradas biodegradáveis, segundo a norma ASTM G 160-03 e tiveram a porcentagem de cristalinidade reduzida, tendo o teor de borracha natural contribuído para aumentar a taxa de biodegradação. As análises por MEV comprovaram a existência de consórcios de microrganismos, responsáveis pela biodegradação do PHB e das misturas poliméricas

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um grande desafio da atualidade é a preservação dos recursos hídricos, bem como o correto manejo dos mesmos, frente à expansão das cidades e às atividades humanas. A qualidade de um corpo hídrico é usualmente avaliada através da análise de parâmetros biológicos, físicos e químicos. O comportamento de tais parâmetros pode convenientemente ser simulado através de modelos matemáticos e computacionais, que surgem assim como uma ferramenta bastante útil, por sua capacidade de geração de cenários que possam embasar, por exemplo, tomadas de decisão. Nesta tese são discutidas técnicas de estimação da localização e intensidade de uma fonte de contaminante conservativo, hipoteticamente lançado na região predominantemente fluvial de um estuário. O lançamento aqui considerado se dá de forma pontual e contínua e a região enfocada compreendeu o estuário do Rio Macaé, localizado na costa norte do Rio de Janeiro. O trabalho compreende a solução de um problema direto, que consiste no transporte bidimensional (integrado na vertical) desse contaminante hipotético, bem como a aplicação de técnicas de problemas inversos. Para a solução do transporte do contaminante, aqui modelada pela versão 2D horizontal da equação de advecção-difusão, foram utilizados como métodos de discretização o Método de Elementos Finitos e o Método de Diferenças Finitas. Para o problema hidrodinâmico foram utilizados dados de uma solução já desenvolvida para estuário do Rio Macaé. Analisada a malha de acordo com o método de discretização, foram definidas a geometria do estuário e os parâmetros hidrodinâmicos e de transporte. Para a estimação dos parâmetros propostos foi utilizada a técnica de problemas inversos, com o uso dos métodos Luus-Jaakola, Algoritmo de Colisão de Partículas e Otimização por Colônia de Formigas para a estimação da localização e do método Seção Áurea para a estimação do parâmetro de intensidade da fonte. Para a definição de uma fonte, com o objetivo de propor um cenário experimental idealizado e de coleta de dados de amostragem, foi realizada a análise de sensibilidade quanto aos parâmetros a serem estimados. Como os dados de amostragem de concentração foram sintéticos, o problema inverso foi resolvido utilizando-os com e sem ruído, esse introduzido de forma artificial e aleatória. Sem o uso de ruído, os três métodos mostraram-se igualmente eficientes, com uma estimação precisa em 95% das execuções. Já com o uso de dados de amostragem com ruídos de 5%, o método Luus-Jaakola mostrou-se mais eficiente em esforço e custo computacional, embora todos tenham estimado precisamente a fonte em 80% das execuções. Considerando os resultados alcançados neste trabalho tem-se que é possível estimar uma fonte de constituintes, quanto à sua localização e intensidade, através da técnica de problemas inversos. Além disso, os métodos aplicados mostraram-se eficientes na estimação de tais parâmetros, com estimações precisas para a maioria de suas execuções. Sendo assim, o estudo do comportamento de contaminantes, e principalmente da identificação de fontes externas, torna-se uma importante ferramenta para a gestão dos recursos hídricos, possibilitando, inclusive, a identificação de possíveis responsáveis por passivos ambientais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Amazônia exibe uma variedade de cenários que se complementam. Parte desse ecossistema sofre anualmente severas alterações em seu ciclo hidrológico, fazendo com que vastos trechos de floresta sejam inundados. Esse fenômeno, entretanto, é extremamente importante para a manutenção de ciclos naturais. Neste contexto, compreender a dinâmica das áreas alagáveis amazônicas é importante para antecipar o efeito de ações não sustentáveis. Sob esta motivação, este trabalho estuda um modelo de escoamento em áreas alagáveis amazônicas, baseado nas equações de Navier-Stokes, além de ferramentas que possam ser aplicadas ao modelo, favorecendo uma nova abordagem do problema. Para a discretização das equações é utilizado o Método dos Volumes Finitos, sendo o Método do Gradiente Conjugado a técnica escolhida para resolver os sistemas lineares associados. Como técnica de resolução numérica das equações, empregou-se o Método Marker and Cell, procedimento explícito para solução das equações de Navier-Stokes. Por fim, as técnicas são aplicadas a simulações preliminares utilizando a estrutura de dados Autonomous Leaves Graph, que tem recursos adaptativos para manipulação da malha que representa o domínio do problema

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A demarcação de Unidades de Conservação é uma forma supostamente eficaz para a conservação da biodiversidade. A Mata Atlântica é caracterizada por apresentar uma elevada biodiversidade e altos níveis de ameaça. O estado do Rio de Janeiro encontra-se totalmente inserido nesse bioma e seus remanescentes florestais são considerados um hotspot dentro de outro hotspot. O Rio de Janeiro pode ser considerado um dos estados melhor amostrados, porém ainda existem lacunas de conhecimentos geográficos sobre a ocorrência de morcegos. Esta tese foi desenvolvida em três capítulos com o objetivo de contribuir com conservação de morcegos no estado do Rio de Janeiro, focando em como e onde eles já foram amostrados e que locais ainda carecem de atenção. Para este estudo foram utilizados dados referentes a buscas bibliográficas e dados de amostragens do Laboratório de Diversidade de Morcegos da Universidade Federal Rural do Rio de Janeiro. No primeiro capítulo pode-se observar que as localidades com mais de 30 espécies de morcegos são resultado de grande esforço de captura e amostragens usando diversas metodologias. Para uma melhor amostragem da riqueza local, devem-se armar redes não somente em trilhas e próximas a árvores em frutificação, mas também sobre corpos de água. Fazer busca em refúgios diurnos também é aconselhável. Devem ser realizadas amostragens durante a noite toda e variar a fase do ciclo lunar, não restringindo a apenas uma ou partes das fases do ciclo lunar. No segundo capítulo observou-se que 43% das Unidades de Conservação aqui estudadas apresentam 20 ou mais espécies. Localidades que apresentam de 20 a 40 espécies de morcegos na Mata Atlântica podem ser consideradas bem amostradas. Isso demonstra que mais da metade das Unidades de Conservação não podem ser consideradas bem inventariadas. Muitos projetos de pesquisas dão prioridade para a localidade estudada ser uma Unidade de Conservação, porém existem poucos trabalhos de longa duração. No Rio de Janeiro ainda existem diversas Unidades de Conservação não amostradas, principalmente aquelas de difícil acesso e em altitudes elevadas. No terceiro capítulo foi possível observar que há uma maior proporção de espécies que apresentam distribuição geográfica restrita. Esse padrão constitui uma informação importante em termos de conservação, visto que indiretamente poderia indicar uma menor capacidade de dispersão desses animais em médias e grandes distâncias. Entretanto existem lacunas de conhecimento em decorrência da falta de amostragem em algumas regiões, sendo imperativos maiores esforços de captura. Importantes municípios para a conservação e/ou preservação de morcegos como Varre-Sai, Cambuci, Miracema, Carmo, Cantagalo, Valença, Barra do Piraí e Piraí não estão sob proteção legal, mesmo constituindo possíveis corredores entre Unidades de Conservação ou mesmo fragmentos importantes que ainda detém espécies que não estão representadas em Unidades de Conservação já estabelecidas. É imperativo que mais estudos e esforços de conservação sejam direcionados para essas áreas

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação aplica a regularização por entropia máxima no problema inverso de apreçamento de opções, sugerido pelo trabalho de Neri e Schneider em 2012. Eles observaram que a densidade de probabilidade que resolve este problema, no caso de dados provenientes de opções de compra e opções digitais, pode ser descrito como exponenciais nos diferentes intervalos da semireta positiva. Estes intervalos são limitados pelos preços de exercício. O critério de entropia máxima é uma ferramenta poderosa para regularizar este problema mal posto. A família de exponencial do conjunto solução, é calculado usando o algoritmo de Newton-Raphson, com limites específicos para as opções digitais. Estes limites são resultados do princípio de ausência de arbitragem. A metodologia foi usada em dados do índice de ação da Bolsa de Valores de São Paulo com seus preços de opções de compra em diferentes preços de exercício. A análise paramétrica da entropia em função do preços de opções digitais sínteticas (construídas a partir de limites respeitando a ausência de arbitragem) mostraram valores onde as digitais maximizaram a entropia. O exemplo de extração de dados do IBOVESPA de 24 de janeiro de 2013, mostrou um desvio do princípio de ausência de arbitragem para as opções de compra in the money. Este princípio é uma condição necessária para aplicar a regularização por entropia máxima a fim de obter a densidade e os preços. Nossos resultados mostraram que, uma vez preenchida a condição de convexidade na ausência de arbitragem, é possível ter uma forma de smile na curva de volatilidade, com preços calculados a partir da densidade exponencial do modelo. Isto coloca o modelo consistente com os dados do mercado. Do ponto de vista computacional, esta dissertação permitiu de implementar, um modelo de apreçamento que utiliza o princípio de entropia máxima. Três algoritmos clássicos foram usados: primeiramente a bisseção padrão, e depois uma combinação de metodo de bisseção com Newton-Raphson para achar a volatilidade implícita proveniente dos dados de mercado. Depois, o metodo de Newton-Raphson unidimensional para o cálculo dos coeficientes das densidades exponenciais: este é objetivo do estudo. Enfim, o algoritmo de Simpson foi usado para o calculo integral das distribuições cumulativas bem como os preços do modelo obtido através da esperança matemática.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos dias atuais, a maioria das operações feitas por empresas e organizações é armazenada em bancos de dados que podem ser explorados por pesquisadores com o objetivo de se obter informações úteis para auxílio da tomada de decisão. Devido ao grande volume envolvido, a extração e análise dos dados não é uma tarefa simples. O processo geral de conversão de dados brutos em informações úteis chama-se Descoberta de Conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases). Uma das etapas deste processo é a Mineração de Dados (Data Mining), que consiste na aplicação de algoritmos e técnicas estatísticas para explorar informações contidas implicitamente em grandes bancos de dados. Muitas áreas utilizam o processo KDD para facilitar o reconhecimento de padrões ou modelos em suas bases de informações. Este trabalho apresenta uma aplicação prática do processo KDD utilizando a base de dados de alunos do 9 ano do ensino básico do Estado do Rio de Janeiro, disponibilizada no site do INEP, com o objetivo de descobrir padrões interessantes entre o perfil socioeconômico do aluno e seu desempenho obtido em Matemática na Prova Brasil 2011. Neste trabalho, utilizando-se da ferramenta chamada Weka (Waikato Environment for Knowledge Analysis), foi aplicada a tarefa de mineração de dados conhecida como associação, onde se extraiu regras por intermédio do algoritmo Apriori. Neste estudo foi possível descobrir, por exemplo, que alunos que já foram reprovados uma vez tendem a tirar uma nota inferior na prova de matemática, assim como alunos que nunca foram reprovados tiveram um melhor desempenho. Outros fatores, como a sua pretensão futura, a escolaridade dos pais, a preferência de matemática, o grupo étnico o qual o aluno pertence, se o aluno lê sites frequentemente, também influenciam positivamente ou negativamente no aprendizado do discente. Também foi feita uma análise de acordo com a infraestrutura da escola onde o aluno estuda e com isso, pôde-se afirmar que os padrões descobertos ocorrem independentemente se estes alunos estudam em escolas que possuem infraestrutura boa ou ruim. Os resultados obtidos podem ser utilizados para traçar perfis de estudantes que tem um melhor ou um pior desempenho em matemática e para a elaboração de políticas públicas na área de educação, voltadas ao ensino fundamental.