404 resultados para topkapi, idrologia, climatologia, precipitazioni, portata volumetrica
Resumo:
La tesi s'ha estructurat en tres apartats que, en conjunt, han de permetre determinar les possibilitats d'aprofitament dins la mateixa indústria alimentària de la fracció plasmàtica de la sang de porc generada per escorxadors que utilitzen sistemes oberts de recollida higiènica. 1. En la primera part s'analitza la composició de la sang higiènica que s'està recollint actualment i s'estudien les característiques tant físico-químiques com microbiològiques que determinen la seva qualitat. La caracterització s'ha realitzat amb sang recollida en diferents escorxadors industrials de les comarques de Girona i s'ha centrat principalment en l'estudi de la contaminació microbiològica i el nivell d'hemòlisi de la sang. S'ha fet un disseny experimental que ha permès alhora valorar l'efecte d'alguns factors sobre la qualitat de la sang: possibles diferències relacionades amb (1) la climatologia del període de l'any en el qual es fa la recollida, (2) particularitats dels escorxadors (grandària, sistemes de dessagnat, tipus, dosi i sistema de dosificació de l'anticoagulant, condicions de processament, maneig i emmagatzematge després de la recollida, etc.). Els resultats obtinguts ens permeten constatar que, en les condicions actuals, la sang que s'està recollint en els escorxadors estudiats no es pot considerar adequada per a una matèria primera de productes destinats a alimentació humana. La major part de la microbiota contaminant s'adquireix en el propi sagnador. S'ha constatat que el sistema de dessagnat en posició horitzontal podria ser una mesura útil per minimitzar la contaminació d'origen fecal o provinent de la pell de l'animal sacrificat i que la separació immediata de les fraccions en el propi escorxador també pot contribuir a reduir la contaminació. Així doncs, en el benentès que l'efectivitat pot obtenir-se del conjunt de mesures preses, més que de l'aplicació d'una sola d'elles, es suggereix la introducció d'una sèrie d'actuacions que potser permetrien reduir els nivells de contaminació que s'obtenen actualment. El tractament mecànic de la sang, el sistema d'addició d'anticoagulant, el volum i concentració de la solució anticoagulant afegida i el període d'emmagatzematge són els factors responsables de l'hemòlisi; mentre que nivells elevats de contaminació microbiològica i el tipus d'anticoagulant utilitzat deterrminen la velocitat d'increment de l'hemòlisi de sang refrigerada. S'ha constatat que quan la sang no pot ser processada immediatament i s'ha d'emmagatzemar en refrigeració és millor utilitzar citrat sòdic enlloc de polifosfat com a anticoagulant ja que l'increment d'hemòlisi es dóna més lentament. 2. El segon apartat s'ha centrat en la fracció plasmàtica de la sang. S'ha utilitzat la deshidratació per atomització com a tecnologia de conservació del plasma i s'ha fet una caracterització del producte en pols resultant des del punt de vista de composició i qualitat. A més de la contaminació microbiològica, que determina la qualitat higiènico-sanitària del producte, s'ha realitzat un estudi de les propietats funcionals que podrien fer del plasma un producte útil en la formulació d'aliments (capacitat escumant, emulsionant, gelificant). S'ha fet especial incidència en (1) determinar l'efecte del procés tecnològic de deshidratació sobre la funcionalitat del producte i (2) estudiar l'estabilitat del plasma deshidratat durant el període d'emmagatzematge. En les condicions de deshidratació per atomització aplicades no es provoca desnaturalització de la fracció proteica i s'obté un producte suficientment deshidratat, amb una aw<0,4 per permetre suposar una bona estabilitat. Algunes mostres de plasma deshidratat analitzades presenten nivells detectables de determinats residus (sulfonamides i corticosteroides). La qualitat microbiològica del producte en pols reflecteix l'elevada contaminació que contenia la matèria primera utilitzada, tot i que la deshidratació per atomització ha comportat la reducció en una unitat logarítmica de la càrrega contaminant. Els recomptes generals de microorganismes són encara preocupants i més tenint en compte que s'ha evidenciat la presència de toxines estafilocòciques en algunes mostres. L'avaluació de les propietats funcionals del producte deshidratat en relació a les que presentava el plasma líquid ens ha permès comprovar que: (1) El procés de deshidratació no ha afectat la solubilitat de les proteïnes. Això, junt amb el fet que no s'obtinguin diferències significatives en l'anàlisi calorimètrica de mostres líquides o deshidratades, permet concloure que el procés no provoca desnaturalització proteica. (2) No s'observen efectes negatius del procés tecnològic sobre la capacitat escumant ni en l'activitat emulsionant de les proteïnes plasmàtiques, dues propietats funcionals que possibiliten l'aplicació del plasma amb aquestes finalitats en l'elaboració d'alguns aliments. (3) La deshidratació tampoc perjudica de manera important les característiques dels gels que s'obtenen per escalfament, ja que els gels obtinguts a partir del plasma líquid i del plasma deshidratat presenten la mateixa capacitat de retenció d'aigua i no s'observen diferències en la microestructura de la xarxa proteica d'ambdós tipus de gel. Tanmateix, els que s'obtenen a partir del producte en pols mostren una menor resistència a la penetració. L'estudi d'estabilitat ens ha permès comprovar que la mostra de plasma deshidratat per atomització perd algunes de les seves propietats funcionals (facilitat de rehidratació, capacitat de retenció d'aigua i fermesa dels gels) si s'emmagatzema a temperatura ambient, mentre que aquestes característiques es mantenen un mínim de sis mesos quan el producte en pols es conserva a temperatura de refrigeració. 3. En l'última part, tenint en compte les conclusions derivades dels resultats dels apartats anteriors, s'han assajat tres possibles sistemes de reducció de la contaminació aplicables a la fracció plasmàtica com a pas previ a la deshidratació, per tal de millorar les característiques de qualitat microbiològica i les perspectives d'estabilitat del producte durant l'emmagatzematge. S'ha determinat l'eficàcia, i l'efecte sobre les propietats del plasma deshidratat, que poden tenir tractaments d'higienització basats en la centrifugació, la microfiltració tangencial i l'aplicació d'altes pressions. Els tractaments de bactofugació aplicats permeten reduir entre el 96 i el 98% la contaminació microbiana del plasma. Aquesta reducció s'aconsegueix tant amb un sistema discontinu com amb un sistema continu treballant a una velocitat de 12 L/h, fet que permetria adaptar el tractament de bactofugació a un procés de producció industrial. Un sistema combinat de bactofugació en continu i microfiltració tangencial permet incrementar l'eficàcia fins a un 99,9 % de reducció. Cal tenir present, però, que aquest tractament provoca també una disminució de l'extracte sec que afecta negativament les propietats funcionals del plasma líquid. Malgrat suposar una pèrdua pel que fa al rendiment, aquest efecte negatiu sobre la funcionalitat no suposaria cap inconvenient si s'utilitzés la deshidratació com a tecnologia de conservació del plasma, ja que es podria corregir l'extracte sec durant la reconstitució del producte. Caldria avaluar si la millora en la qualitat higiènico-sanitària del producte compensa o no les pèrdues que suposa aquest sistema d'higienització combinat. Amb relació als tractaments d'alta pressió, de totes les condicions de tractament assajades, les pressions de fins 450 MPa permeten obtenir plasma sense modificacions importants que impedeixin la seva deshidratació per atomització. Així doncs, les condicions de procés que s'han aplicat són pressuritzacions a 450 MPa de 15 minuts de durada. La temperatura de tractament que s'ha mostrat més eficaç en la reducció dels recomptes de microorganismes ha estat de 40ºC. Els tractaments a aquesta temperatura permeten assolir reduccions del 99,97% i disminuir en un 80% la capacitat de creixement dels microorganismes supervivents a la pressurització en relació a la que presentava la població contaminant del plasma abans del tractament. L'estudi de l'efecte d'aquest tractament (450 MPa, 15 min i 40ºC) sobre les propietats funcionals del plasma ha permès observar que la pressurització comporta una disminució en la solubilitat del producte però una millora en les propietats de superfície -estabilitat de l'escuma i activitat emulsionant- i un increment de la capacitat de retenció d'aigua i de la duresa dels gels obtinguts per escalfament. Calen més estudis per confirmar i caracteritzar aquesta millora en la funcionalitat, així com per establir si el tractament de pressurització afecta també l'estabilitat del producte durant l'emmagatzematge. De totes les tecnologies d'higienització assajades, l'alta pressió és la que permet obtenir millors resultats en el sentit de poder garantir un producte de bona qualitat microbiològica i segur, des del punt de vista sanitari i tecnològic, per a la seva utilització com a ingredient alimentari.
Resumo:
Com o objetivo de verificar qual o controle mais importante das temperaturas no meio urbano, correlacionou-se a temperatura observada em seis estações meteorológicas com três índices representativos do ambiente em torno de cada abrigo meteorológico. Os dados de temperatura corresponderam às médias das temperaturas mínimas e às médias das temperaturas máximas do período abril 1985-março 1986. Também foram extraídos deste conjunto de dados, amostras sazonais de 2 dias consecutivos com tempo anticiclônico. O ambiente em torno dos abrigos meteorológicos foi caracterizado por três variáveis: ângulo de obstrução do horizonte (obstrução por edificações, por vegetação e máxima obstrução), cobertura, vegetal em 10.000 m2 e 40.000 m2 e superfície com edificações também em 10.000 m2 e 40.000 m2. A correlação da obstrução do horizonte por edificações com a média das temperaturas mínimas foi a mais significativa. Diferenças observadas entre a situação outono-inverno e primavera-verão, entretanto, sugerem controle significativo da circulação atmosférica regional.
Resumo:
Esta dissertação investiga relações entre elementos climáticos e informações de saúde no Rio Grande do Sul no período de 1984–2000. Basicamente estuda-se a associação entre temperatura sensível (lida no termômetro de bulbo úmido) e os óbitos por doenças do aparelho respiratório. O trabalho é complementado por uma reflexão mais ampla sobre a abordagem climatológica no âmbito da Geografia. Após a introdução de conceitos básicos usados na dissertação (Clima, Espaço Geográfico e Climatologia Geográfica), segue-se discussão crítica sobre o uso de médias na caracterização do clima sul-rio-grandense. As médias mensais de temperatura sensível do período 1984–2000 são usadas para explorar relações de causalidade com os óbitos totais em Porto Alegre. Os números de horas de frio para junho, julho e agosto (i.e., o inverno) ao longo desses 17 anos também foram usados para estudar as relações de causalidade com os óbitos por grupo de 100.000 habitantes nos municípios de Porto Alegre, Santa Maria, Passo Fundo e Bagé nos mesmos meses. Por fim, aborda-se a função ativa do espaço no dimensionamento da relação entre essas variáveis. Na associação das médias mensais de temperatura sensível com os óbitos totais existe uma relação sazonal, mas que não é confirmada por uma correlação entre o número de horas de frio com os óbitos por grupo de 100.000 habitantes. A correlação entre estas variáveis é ausente ou fraca na maioria das cidades estuda-das para o período de inverno. Exceção é o mês de junho em Porto Alegre (r = 0,58) e o mês de agosto para Santa Maria (com correlação negativa moderada, r = -0,45, ainda não explicada). Em suma, com exceção parcial de Porto Alegre, as variações de temperatura sensível não explicam as taxas de óbitos por doenças respiratórias nas cidades investigadas. Outras causas, provavelmente relacionadas à qualidade de vida da população local, devem ser investigadas.
Resumo:
Com o aperfeiçoamento de técnicas de aquisição de imagens médicas, como, por exemplo, a tomografia computadorizada e ressonância magnética, a capacidade e a fidelidade do diagnóstico por imagens foram ampliadas. Atualmente, existe a tendência de utilizarem-se imagens através de diversas modalidades para um único diagnóstico, principalmente no caso de doenças graves. Entretanto, o registro e a fusão dessas imagens, chamadas mutimodais, em uma única representação 3D do paciente é uma arefa extremamente dif[icil, que consome tempo e que está sujeita a erros. Sendo assim, a integração de imagens de diferentes modalidades tem sido objeto de pesquisa sob a denominação de Visualização de Volumes de Dados Multimodais. Sistemas desenvolvidos com este objetivo são usados, principalmente, para combinar informações metabólicas e funcionais com dados de anatomia, aumentando a precisão do diagnóstico, uma vez que possibilitam extrrair uma superfície ou região da imagem que apresenta a anatomia, e, então, observar a atividade funcional na outra modalidade. Durante a análise de tais imagens, os médicos estão interessados e quantificar diferentes estruturas. Seusobjetivos envolvem, por exemplo, a visualização de artérias e órgãos do corpo humano para análise de patologias, tais como tumores, má-formações artério-venosas, ou lesões em relação às estuturas que as circundam. Assim, um dos principais obetivos de um algoritmo de visualização volumétrica é permitir a identificação e exploração de estruturas internas no volume. Como o volume é normalmente um "bloco de dados", não se pode visualizar o seu interior, a menos que se assuma que é possível ver através de voxels transparentes, ou que é possivel remover voxels que estão na frente na qual o usuário está interessado, o que foi feito através de técnicas de segmentação ou de corte. Este trabalho presenta uma abordagem para a visualização de estruturas internas em volumes de dados multimodais. A abordagem está fundamentada na utilização de ferramentas de corte, tanto geométricas quanto baseadas em conteúdo, evitando, assim, o uso de técnicas de segmentação; e na integração dos dados multimodais na etapa de acumulação de pipeline de visualização volumétrica. Considerando que as aplicações que suportam este tipo de visualização envolvem a integração de várias ferramentas, tais como registro, corte e visualização, também é apresentado o projeto de um framework que permite esta integração e um alto grau de interação com usuário. Para teste e validação das técnicas de visualização de estruturas internas propostas e do algoritmo desenvolvido, que consiste numa extensão do algoritmo de ray casting tradicional, foram implementadas algumas classes desse framework. Uma revisão baseada na análise e na classificação das ferramentas de corte e funções de transferências, que correspondem a técnicas que permitem visualizar estruturas internas, também é apresentada.
Resumo:
Técnicas de visualização volumétrica direta propiciam a geração de imagens de alta qualidade já que se baseiam na amostragem do volume de dados original. Tal característica é particularmente importante na área da Medicina, onde imagens digitais de dados volumétricos devem ganhar maior importância como meio de apoio à tomada de decisão por parte dos médicos. No entanto, a geração de imagens com melhor qualidade possível acarreta um alto custo computacional, principalmente em relação ao algoritmo de ray casting, onde a qualidade de imagens depende de um maior número de amostras ao longo do raio fato este refletido no tempo de geração. Assim, a utilização de tais imagens em ambientes interativos é muitas vezes inviabilizada e, para a redução do custo computacional, é necessário abdicar parcialmente da qualidade da imagem. O conceito de qualidade é altamente subjetivo, e sua quantificação está fortemente relacionada à tarefa para qual a imagem está destinada. Na área da Medicina, imagem de boa qualidade é aquela que possibilita ao médico a análise dos dados através da sua representação visual, conduzindo-o a um diagnóstico ou prognóstico corretos. Nota-se que é necessário, então, avaliar a qualidade da imagem em relação a uma determinada tarefa a partir de critérios e métricas subjetivas ou objetivas. A maior parte das métricas objetivas existentes medem a qualidade de imagens com base no cálculo da diferença de intensidade dos pixels, fator que pode não ser suficiente para avaliar a qualidade de imagens do ponto de vista de observadores humanos. Métricas subjetivas fornecem informação mais qualificada a respeito da qualidade de imagens, porém são bastante custosas de serem obtidas. De modo a considerar tais aspectos, o presente trabalho propõe uma métrica objetiva que procura aproximar a percepção humana ao avaliar imagens digitais quanto à qualidade apresentada. Para tanto, emprega o operador gradiente de Sobel (enfatização de artefatos) e o reconhecimento de padrões para determinar perda de qualidade das imagens tal como apontado por observadores humanos. Os resultados obtidos, a partir da nova métrica, são comparados e discutidos em relação aos resultados providos por métricas objetivas existentes. De um modo geral, a métrica apresentada neste estudo procura fornecer uma informação mais qualificada do que métricas existentes para a medida de qualidade de imagens, em especial no contexto de visualização volumétrica direta. Este estudo deve ser considerado um passo inicial para a investigação de uma métrica objetiva mais robusta, modelada a partir de estudos subjetivos.
Resumo:
Dados volumétricos temporais são usados na representação de fenômenos físicos em várias aplicações de visualização científica, pois tais fenômenos são complexos, alteram-se com o tempo e não possuem uma forma de representação definida. Uma solução é usar amostragens sobre um espaço de forma geométrica simples que contém o fenômeno (um cubo, por exemplo), discretizado ao longo de uma grade em células de mesmo formato e usualmente chamado de volume de amostragem. Este volume de amostragem representa um instante da representação do fenômeno e, para representar dados temporais, simplesmente enumera-se tantos volumes quanto forem as diferentes instâncias de tempo. Esta abordagem faz com que a representação seja extremamente custosa, necessitando de técnicas de representação de dados para comprimir e descomprimir os mesmos. Este trabalho apresenta uma nova abordagem para compressão de volumes de dados temporais que permite a visualização em tempo real destes dados usando hardware gráfico. O método de compressão usa uma representação hierárquica dos vários volumes de dados dentro da memória do hardware gráfico, referenciados pelo hardware como texturas 3D. O método de compressão tem melhor desempenho para dados volumétricos esparsos e com alto grau de coerência (espacial e temporal). A descompressão destes dados é feita por programas especiais que são executados no próprio hardware gráfico. Um estudo de caso usando o método de compressão/descompressão proposto é apresentado com dados provenientes do Projeto MAPEM (Monitoramento Ambiental em Atividades de Perfuração Exploratória Marítima). O objetivo do projeto é propor uma metodologia para o monitoramento dos efeitos das descargas de materiais no ecossistema marinho durante a perfuração de um poço de petróleo. Para estimar certos descarregamentos de fluidos, o projeto usa um simulador CFD que permite mostrar tais descarregamentos, gerando grades planares e uniformes 2D ou 3D em qualquer instante de tempo durante a simulação.
Resumo:
Este trabalho apresenta um conjunto de ferramentas que exploram as capacidades recentes das placas gráficas de computadores pessoais para prover a visualização e a interação com volumes de dados. O objetivo é oferecer ao usuário ferramentas que permitam a remoção interativa de partes não relevantes do volume. Assim, o usuário é capaz de selecionar um volume de interesse, o que pode tanto facilitar a compreensão da sua estrutura quanto a sua relação com os volumes circundantes. A técnica de visualização direta de volumes através do mapeamento de texturas é explorada para desenvolver estas ferramentas. O controle programável dos cálculos realizados pelo hardware gráfico para gerar a aparência de cada pixel na tela é usado para resolver a visibilidade de cada ponto do volume em tempo real. As ferramentas propostas permitem a modificação da visibilidade de cada ponto dentro do hardware gráfico, estendendo o benefício da visualização acelerada por hardware. Três ferramentas de interação são propostas: uma ferramenta de recorte planar que permite a seleção de um volume de interesse convexo; uma ferramenta do tipo “borracha”, para eliminar partes não relevantes da imagem; e uma ferramenta do tipo “escavadeira”, para remover camadas do volume Estas ferramentas exploram partes distintas do fluxo de visualização por texturas, onde é possível tomar a decisão sobre a visibilidade de cada ponto do volume. Cada ferramenta vem para resolver uma deficiência da ferramenta anterior. Com o recorte planar, o usuário aproxima grosseiramente o volume de interesse; com a borracha, ele refina o volume selecionado que, finalmente, é terminado com a escavadeira. Para aplicar as ferramentas propostas ao volume visualizado, são usadas técnicas de interação conhecidas, comuns nos sistemas de visualização 2D. Isto permite minimizar os esforços do usuário no treinamento do uso das ferramentas. Finalmente, são ilustradas as aplicações potenciais das ferramentas propostas para o estudo da anatomia do fígado humano. Nestas aplicações foi possível identificar algumas necessidades do usuário na visualização interativa de conjuntos de dados médicos. A partir destas observações, são propostas também novas ferramentas de interação, baseadas em modificações nas ferramentas propostas.
Resumo:
O livro didático, frente às atuais condições de trabalho do professor de Geografia, torna-se cada vez mais instrumento, senão indispensável, pelo menos necessário como complemento às atividades didático-pedagógicas. Desta forma, é relevante analisar a forma de abordagem, não só o conteúdo proposto por este estudo, bem como os demais conhecimentos e conteúdos que tangem o saber geográfico, sobretudo aqueles ligados à natureza. Neste trabalho são analisadas a concepção e forma de abordagem da natureza nos livros didáticos de Geografia, particularmente na quinta série do ensino fundamental. De maneira específica, investiga-se os conteúdos abordados e suas adequações aos conceitos mais atuais decorrentes do acúmulo e evolução do conhecimento científico no último século. É, também, objetivo desta dissertação apresentar uma estrutura que foge da apresentação acadêmica, mais especificamente nos capítulos 3 e 4, com o intuito de tornar mais dinâmica e interessante a leitura, não só para o público acadêmico, mas também aos professores do ensino fundamental e médio que estão diretamente envolvidos nesta discussão e que necessitam um estímulo à pesquisa e conhecimento de novos materiais a serem investigados. A elaboração desta dissertação compôs-se das seguintes etapas: escolha dos livros didáticos a serem trabalhados; elaboração da ficha de avaliação; mapeamento e apreciação dos livros, análise dos conceitos, identificação de erros e/ou lacunas e avaliação dos resultados encontrados. A análise feita nesta dissertação permite observar que os livros didáticos apresentaram uma melhoria na sua consistência em relação ao conteúdo e à forma de abordar a natureza, objetivo deste trabalho. Percebemos que os materiais didáticos atuais têm muita qualidade, embora apresentem alguns erros, em particular no âmbito da climatologia e geomorfologia do fundo dos oceanos. A estrutura proposta e a forma de abordagem dos conteúdos da natureza demonstram uma evolução e adequação destes às críticas feitas, ao longo dos anos 80, à Geografia, ao ensino de Geografia e em particular aos livros didáticos até então produzidos.
Resumo:
A visualização de conjuntos de dados volumétricos é comum em diversas áreas de aplicação e há já alguns anos os diversos aspectos envolvidos nessas técnicas vêm sendo pesquisados. No entanto, apesar dos avanços das técnicas de visualização de volumes, a interação com grandes volumes de dados ainda apresenta desafios devido a questões de percepção (ou isolamento) de estruturas internas e desempenho computacional. O suporte do hardware gráfico para visualização baseada em texturas permite o desenvolvimento de técnicas eficientes de rendering que podem ser combinadas com ferramentas de recorte interativas para possibilitar a inspeção de conjuntos de dados tridimensionais. Muitos estudos abordam a otimização do desempenho de ferramentas de recorte, mas muito poucos tratam das metáforas de interação utilizadas por essas ferramentas. O objetivo deste trabalho é desenvolver ferramentas interativas, intuitivas e fáceis de usar para o recorte de imagens volumétricas. Inicialmente, é apresentado um estudo sobre as principais técnicas de visualização direta de volumes e como é feita a exploração desses volumes utilizando-se recorte volumétrico. Nesse estudo é identificada a solução que melhor se enquadra no presente trabalho para garantir a interatividade necessária. Após, são apresentadas diversas técnicas de interação existentes, suas metáforas e taxonomias, para determinar as possíveis técnicas de interação mais fáceis de serem utilizadas por ferramentas de recorte. A partir desse embasamento, este trabalho apresenta o desenvolvimento de três ferramentas de recorte genéricas implementadas usando-se duas metáforas de interação distintas que são freqüentemente utilizadas por usuários de aplicativos 3D: apontador virtual e mão virtual. A taxa de interação dessas ferramentas é obtida através de programas de fragmentos especiais executados diretamente no hardware gráfico. Estes programas especificam regiões dentro do volume a serem descartadas durante o rendering, com base em predicados geométricos. Primeiramente, o desempenho, precisão e preferência (por parte dos usuários) das ferramentas de recorte volumétrico são avaliados para comparar as metáforas de interação empregadas. Após, é avaliada a interação utilizando-se diferentes dispositivos de entrada para a manipulação do volume e ferramentas. A utilização das duas mãos ao mesmo tempo para essa manipulação também é testada. Os resultados destes experimentos de avaliação são apresentados e discutidos.
Resumo:
Esta dissertação aborda a implementação de um protótipo de aplicação multimídia referente à Ilha Rei George (61º 50’ S, 57º 30’ W e 62º 15’ S, 59º 00' W), Antártica. Nessa ilha o Brasil mantém sua única estação polar, onde realiza parte das pesquisas do Programa Antártico Brasileiro (PROANTAR). O presente trabalho visa reduzir a carência por materiais didáticos em língua portuguesa sobre as regiões polares e aborda aspectos gerais da biota, geografia física (geologia, climatologia e oceanografia) e geografia humana (história de ocupação, turismo, pesquisa e impactos gerados pela presença humana). O público alvo são pessoas com nível de instrução de ensino médio incompleto ou níveis mais avançados. O conteúdo é apresentado de forma a cativar a atenção do usuário, sem exageros estéticos. A fim de obter material para subsidiar o projeto, foram realizados registros por meio de fotografias, gravações em vídeo e entrevistas durante os trabalhos de campo na ilha, realizados no verão de 2004. Além dos registros em campo, são apresentados materiais didáticos tais como textos, ilustrações e animações em 3D. Parte do material gerado está disponível para utilização posterior em outros projetos O ambiente de desenvolvimento utilizado para a aplicação foi o Macromedia Director, para Apple Macintosh. O produto do projeto é um protótipo que pode ser distribuído em mídia removível, CD-ROM (Compact Disk Read Only Memory) ou DVD-ROM (Digital Versatile Disc Read Only Memory) e é encontrado como um encarte no final desta dissertação. A informação compilada e reunida na aplicação permite ao público acesso a dados atualizados sobre o ambiente antártico de forma simples, didática e interativa. O trabalho esclarece as relações entre a Antártica e o mundo, principalmente no que faz referência à ilha Rei George, buscando a valorização das regiões polares.
Resumo:
In recent years, the DFA introduced by Peng, was established as an important tool capable of detecting long-range autocorrelation in time series with non-stationary. This technique has been successfully applied to various areas such as: Econophysics, Biophysics, Medicine, Physics and Climatology. In this study, we used the DFA technique to obtain the Hurst exponent (H) of the profile of electric density profile (RHOB) of 53 wells resulting from the Field School of Namorados. In this work we want to know if we can or not use H to spatially characterize the spatial data field. Two cases arise: In the first a set of H reflects the local geology, with wells that are geographically closer showing similar H, and then one can use H in geostatistical procedures. In the second case each well has its proper H and the information of the well are uncorrelated, the profiles show only random fluctuations in H that do not show any spatial structure. Cluster analysis is a method widely used in carrying out statistical analysis. In this work we use the non-hierarchy method of k-means. In order to verify whether a set of data generated by the k-means method shows spatial patterns, we create the parameter Ω (index of neighborhood). High Ω shows more aggregated data, low Ω indicates dispersed or data without spatial correlation. With help of this index and the method of Monte Carlo. Using Ω index we verify that random cluster data shows a distribution of Ω that is lower than actual cluster Ω. Thus we conclude that the data of H obtained in 53 wells are grouped and can be used to characterize space patterns. The analysis of curves level confirmed the results of the k-means
Resumo:
The study of complex systems has become a prestigious area of science, although relatively young . Its importance was demonstrated by the diversity of applications that several studies have already provided to various fields such as biology , economics and Climatology . In physics , the approach of complex systems is creating paradigms that influence markedly the new methods , bringing to Statistical Physics problems macroscopic level no longer restricted to classical studies such as those of thermodynamics . The present work aims to make a comparison and verification of statistical data on clusters of profiles Sonic ( DT ) , Gamma Ray ( GR ) , induction ( ILD ) , neutron ( NPHI ) and density ( RHOB ) to be physical measured quantities during exploratory drilling of fundamental importance to locate , identify and characterize oil reservoirs . Software were used : Statistica , Matlab R2006a , Origin 6.1 and Fortran for comparison and verification of the data profiles of oil wells ceded the field Namorado School by ANP ( National Petroleum Agency ) . It was possible to demonstrate the importance of the DFA method and that it proved quite satisfactory in that work, coming to the conclusion that the data H ( Hurst exponent ) produce spatial data with greater congestion . Therefore , we find that it is possible to find spatial pattern using the Hurst coefficient . The profiles of 56 wells have confirmed the existence of spatial patterns of Hurst exponents , ie parameter B. The profile does not directly assessed catalogs verification of geological lithology , but reveals a non-random spatial distribution
Resumo:
The Northeast of Brazil (NEB) shows high climate variability, ranging from semiarid regions to a rainy regions. According to the latest report of the Intergovernmental Panel on Climate Change, the NEB is highly susceptible to climate change, and also heavy rainfall events (HRE). However, few climatology studies about these episodes were performed, thus the objective main research is to compute the climatology and trend of the episodes number and the daily rainfall rate associated with HRE in the NEB and its climatologically homogeneous sub regions; relate them to the weak rainfall events and normal rainfall events. The daily rainfall data of the hydrometeorological network managed by the Agência Nacional de Águas, from 1972 to 2002. For selection of rainfall events used the technique of quantiles and the trend was identified using the Mann-Kendall test. The sub regions were obtained by cluster analysis, using as similarity measure the Euclidean distance and Ward agglomerative hierarchical method. The results show that the seasonality of the NEB is being intensified, i.e., the dry season is becoming drier and wet season getting wet. The El Niño and La Niña influence more on the amount of events regarding the intensity, but the sub-regions this influence is less noticeable. Using daily data reanalysis ERAInterim fields of anomalies of the composites of meteorological variables were calculated for the coast of the NEB, to characterize the synoptic environment. The Upper-level cyclonic vortex and the South atlantic convergene zone were identified as the main weather systems responsible for training of EPI on the coastland
Resumo:
The increase in ultraviolet radiation (UV) at surface, the high incidence of non-melanoma skin cancer (NMSC) in coast of Northeast of Brazil (NEB) and reduction of total ozone were the motivation for the present study. The overall objective was to identify and understand the variability of UV or Index Ultraviolet Radiation (UV Index) in the capitals of the east coast of the NEB and adjust stochastic models to time series of UV index aiming make predictions (interpolations) and forecasts / projections (extrapolations) followed by trend analysis. The methodology consisted of applying multivariate analysis (principal component analysis and cluster analysis), Predictive Mean Matching method for filling gaps in the data, autoregressive distributed lag (ADL) and Mann-Kendal. The modeling via the ADL consisted of parameter estimation, diagnostics, residuals analysis and evaluation of the quality of the predictions and forecasts via mean squared error and Pearson correlation coefficient. The research results indicated that the annual variability of UV in the capital of Rio Grande do Norte (Natal) has a feature in the months of September and October that consisting of a stabilization / reduction of UV index because of the greater annual concentration total ozone. The increased amount of aerosol during this period contributes in lesser intensity for this event. The increased amount of aerosol during this period contributes in lesser intensity for this event. The application of cluster analysis on the east coast of the NEB showed that this event also occurs in the capitals of Paraiba (João Pessoa) and Pernambuco (Recife). Extreme events of UV in NEB were analyzed from the city of Natal and were associated with absence of cloud cover and levels below the annual average of total ozone and did not occurring in the entire region because of the uneven spatial distribution of these variables. The ADL (4, 1) model, adjusted with data of the UV index and total ozone to period 2001-2012 made a the projection / extrapolation for the next 30 years (2013-2043) indicating in end of that period an increase to the UV index of one unit (approximately), case total ozone maintain the downward trend observed in study period
Resumo:
São propostas equações para a determinação da orientação, comprimento e área da sombra projetada por árvores destinadas ao plantio em pastagens para bovinos, considerando o local, a época do ano e a hora do dia. As equações abrangem árvores com os seguintes formatos de copa: esférica, lentiforme, cilíndrica, elipsóide, cônica e cônica invertida. Um exemplo é apresentado, discutindo-se a aplicação no sombreamento de pastagens.