115 resultados para Alteração Climática
Resumo:
Neste trabalho é feito um estudo do processo de dispersão e combustão de uma mistura gasosa, assim como uma avaliação de alguns dos vários métodos disponíveis para estimar os resultados de uma explosão de nuvem de gás inflamável-ar. O método Multienergia foi utilizado para estimar os campos de sobrepressão resultantes de explosões de nuvens de GLP em áreas congestionadas pela presença de árvores, próximas a esferas de armazenamento de gás. Foram considerados como áreas congestionadas propícias para geração de turbulência os hortos florestais como os comumente encontrados em torno de indústrias petroquímicas e refinarias de petróleo. Foram feitas simulações para áreas de horto florestal de formato quadrado variando entre 50.000 m2 e 250.000 m2 e altura de 10 m. Para avaliar o efeito da explosão sobre a esfera, o critério de risco se baseou num elongamento máximo de 0,2% dos tirantes críticos de sustentação da mesma. Foram avaliados os efeitos destas explosões sobre uma esfera de GLP de diâmetro externo de 14,5 m para distâncias de 10 a 100 m entre a esfera e a borda do horto. É mostrado que áreas congestionadas com no mínimo 100.000 m2 podem representar um risco para a integridade das esferas menos preenchidas com GLP. Do ponto de vista da segurança das unidades de armazenamento, foi visto com base nos resultados obtidos que é preferível manter um menor número de esferas com maior preenchimento do que dividir o volume de GLP disponível entre várias unidades. Foi estimado que para áreas com grau de congestionamento de 25% a distância mínima segura entre a borda do horto e a esfera varia entre 10 m, para hortos com área de 100.000 m2, e 87,6 m, para hortos de 250.000 m2 A influência do espaçamento das árvores, representada pelo grau de obstrução da área de passagem da frente de chama, também foi analisada, indicando o quanto sua alteração pode afetar a distância mínima segura para as esferas. Por fim são feitas recomendações quanto à distância mínima entre o parque de esferas e o horto, bem como outras formas de diminuir o risco representado por explosões oriundas da formação acidental de mistura inflamável no interior dos mesmos.
Resumo:
O trabalho foi desenvolvido com a finalidade de verificação da aplicabilidade dos conceitos da moderna Estratigrafia de Seqüências no interior cratônico e a possibilidade do refinamento cronoestratigráfico da seção eo/mesodevoniana da Bacia do Amazonas. O autor utilizou as seguintes ferramentas disponíveis para a interpretação e elaboração de um modelo geológico para a seção sedimentar estudada: a) a análise da Paleogeografia, do Paleomagnetismo e da Paleoecologia, através do estudo da Tectônica e do Clima atuantes no Eo/mesodevoniano, no Supercontinente Gondwana, retratadas em reconstituições do mundo devoniano e apoiada em extensiva consulta bibliográfica e em correlação com os conteúdos faunístico, icnológico e litológico da seção que compõe o intervalo pesquisado, com o auxílio de testemunhos, amostras de calha e afloramentos, b) o estabelecimento de superfícies-chave da Estratigrafia de Seqüências, definidas com o apoio de perfis elétrico-radioativos, notadamente o perfil de raios-gama, c) a Cicloestratigrafia química com a utilização dos teores de carbono orgânico e o índice de hidrogênio, d) a Cicloestratigrafia orbital e climática, mediante a análise espectral do perfil de raios-gama da seção estudada e a definição do controle da sedimentação, influenciada pela excentricidade curta da órbita terrestre, em ciclos dentro da banda de freqüências de Milankovitch. O encadeamento dessas análises levou o autor a montar um arcabouço cronoestratigráfico para o Eo/mesodevoniano da porção ocidental da Bacia do Amazonas. Para tanto, foram consideradas a hierarquização das unidades, a definição dos tratos de sistemas deposicionais, limites de seqüências e outras superfícies-chave estratigráficas, e a duração temporal dos eventos. Além disso, são discutidas as possíveis causas principais da evolução tectono-estratigráfica da seção estudada e sua associação com a curva de variação do nível do mar devoniano. Realizou-se ainda, tentativamente, a correlação com outras bacias intracratônicas gondwânicas através da comparação do conteúdo faunístico, da xvii paleoclimatologia, da tectônica, da análise da variação da curva do nível do mar devoniano, da posição geográfica e da relação com o Pólo Sul devoniano, que serviram de base para a compreensão do evento relacionado à passagem do Givetiano ao Frasniano, nessas bacias. Como contribuições principais o autor aponta a aplicabilidade da Estratigrafia de Seqüências no interior cratônico e a possibilidade de refinamento cronoestratigráfico em pelo menos uma ordem de grandeza (10 6 anos para 10 5 anos) com a utilização da metodologia da Cicloestratigrafia orbital.
Resumo:
As galhas ou cecídeas, são caracterizadas por um crescimento anormal do tecido a estímulos específicos de um organismo invasor, que pode ser: bactéria, fungo, nematódeo ou artrópodo. A interação organismo invasor/planta hospedeira altera os estados químicos e fisiológicos dos tecidos da planta durante a cecidogênese, e provavelmente do organismo indutor. Vários tipos de estímulos bióticos e abióticos são conhecidos como potenciais alteradores da produção de compostos fenólicos nas plantas. Estes compostos estão envolvidos na defesa da planta contra pestes e patógenos. Uma espécie de coccídeo, ainda não identificada, induz galhas foliares em espécimes de Rollinia laurifolia Schdtl. (ANNONACEAE). Os coccídeos são caracterizados por um acentuado dimorfismo sexual, que também é expresso nas galhas que produzem. As galhas fêmeas são relativamente grandes, enquanto as galhas macho são menores e menos complexas. Os objetivos deste estudo foram verificar a relação ecológica/bioquímica entre inseto e planta averiguando possíveis diferenças entre folhas sadias e folhas galhadas, além também de verificá-las entre galhas fêmeas e galhas macho. Técnicas de determinação de fenóis totais, HPLC, TRAP e TBARS foram usadas neste estudo. Observou-se que a ocorrência de galhas nas folhas de R. laurifolia está relacionada à significativa redução no conteúdo fenólico total das mesmas. Qualitativamente também houve alteração no perfil fenólico das folhas galhadas em comparação com as folhas sadias. TRAP e TBARS também mostraram alterações no conteúdo fenólico das folhas galhadas. Alterações no conteúdo fenólico e na capacidade antioxidante relacionada ao sexo do galhador, também foram observadas. Nossos resultados sugerem que a interação galhador/R. laurifolia altera o perfil fenólico das folhas, consequentemente é alterada também a capacidade antioxidante dos extratos de folhas com galhas macho e galhas fêmeas. Uma causa provável para estas mudanças seria a difusão de oxigênio para o tecido foliar e a oxidação de biomoléculas, disparando sinais para a produção de diferentes compostos fenólicos, em conseqüência do estresse biótico durante a cecidogênese, possivelmente em uma tentativa de a planta buscar o equilíbrio fisiológico com o galhador.
Resumo:
A Doença do Xarope do Bordo é uma alteração metabólica hereditária caracterizada bioquimicamente pelo acumulo dos aminoácidos de cadeia ramificada e seus respectivos aminoácidos no sangue e nos tecidos destes pacientes. Os mecanismos patogênicos das alterações neurológicas presentes nos pacientes ainda são pouco conhecidos. Há evidências de que o metabolismo energético esteja alterado no cérebro dos pacientes. A creatinaquinase, enzima chave no metabolismo energético, está envolvida transporte e manutenção da energia cerebral. Neste trabalho investigamos a inibição da creatinaquinase pelos aminoácidos de cadeia ramificada in vitro em cérebro de ratos em desenvolvimento, nas concentrações semelhantes as encontradas no plasma destes pacientes. O mesmo efeito não foi verificado com os cetoácidos de cadeia ramificada. Verificamos ainda que este efeito também ocorreu em ratos tratados com leucina de forma crônica do 60 ao 210 dia, e de forma aguda quando tratados por 12 horas com intervalos de três horas. Os parâmetros cinéticos estudados mostraram um Km baixo (0,8 – 1,4 mM) para a fosfocreatina como substrato, cuja variação no cérebro oscila entre 4 a 8 mM. Assim nas condições fisiopatológicas a enzima estaria saturada em ralação à fosfocreatina, sendo difícil a competição com os aminoácidos de cadeia ramificada, principalmente devido ao alto Ki encontrado (6 a 26 mM), exceto em situações de baixas concentrações deste substrato. Entretanto, o Km encontrado para o ADP como substrato (0,3 ± 0,1 mM) é semelhante à concentração do ADP do cérebro (0,2 – 0.4 mM). Como o Ki encontrado também é alto (14 – 30 mM), é possível que a competição entre o ADP como substrato e os aminoácidos de cadeia ramificada diminua a atividade da enzima alterando a homeostasia energética do cérebro, contribuindo para o dano neurológico encontrado nos pacientes com a Doença do Xarope de Bordo. Os dados deste trabalho propõem um novo mecanismo fisiopatológico para as alterações neurológicas encontradas na Doença do Xarope do Bordo. Os aminoácidos de cadeia ramificada, acumulados no cérebro destes pacientes, ocasionando a inibição da creatinaquinase estariam competindo com o ADP, produzindo deste modo um desequilíbrio energético e conseqüentemente o dano neurológico.
Resumo:
O surgimento de novas aplicações que utilizam o protocolo HTTP nas suas transações e a crescente popularidade da World Wide Web (WWW) provocaram pesquisas pelo aumento do desempenho de servidores Web. Para tal, uma das alternativas propostas neste trabalho é utilizar um conjunto de servidores Web distribuídos que espalham a carga de requisições entre vários computadores, atuando como um só associado a uma estratégia de replicação de conteúdo. Um dos problemas centrais a ser resolvido em servidores Web distribuídos é como manter a consistência das réplicas de conteúdo entre os equipamentos envolvidos. Esta dissertação apresenta conceitos fundamentais envolvendo o tema replicação de conteúdo em servidores Web distribuídos. São mostrados detalhes sobre arquitetura de servidores Web distribuídos, manutenção da consistência em ambientes de servidores Web distribuídos, uso de replicação e formas de replicação. Além disso, são citados alguns trabalhos correlatos ao propósito de manter réplicas consistentes em ambientes de servidores Web distribuídos. Este trabalho tem por objetivo propor um modelo de manutenção da consistência de conteúdo em servidores Web distribuídos com características de transparência e autonomia. O modelo, denominado One Replication Protocol for Internet Servers (ORPIS), adota uma estratégia de propagação otimista porque não existe sincronismo no envio das atualizações para as réplicas. Este trabalho apresenta os principais componentes tecnológicos empregados na Web, além dos problemas causados pela escalabilidade e distribuição inerentes a esse ambiente. São descritas as principais técnicas de aumento de desempenho de servidores Web que atualmente vêm sendo utilizadas. O modelo ORPIS é descrito, sendo apresentados seus pressupostos, elencados seus componentes e detalhados os seus algoritmos de funcionamento. Este trabalho dá uma visão geral sobre a implementação e os testes realizados em alguns módulos do protótipo do modelo, caracterizando o ambiente de desenvolvimento do protótipo e detalhes da implementação. São enumerados os atributos e métodos das classes do protótipo e definidas as estruturas de dados utilizadas. Além disso, apresentam-se os resultados obtidos da avaliação funcional dos módulos implementados no protótipo. Um ponto a ser salientado é a compatibilidade do modelo ORPIS aos servidores Web existentes, sem a necessidade de modificação em suas configurações. O modelo ORPIS é baseado na filosofia de código aberto. Durante o desenvolvimento do protótipo, o uso de software de código aberto proporcionou um rápido acesso às ferramentas necessárias (sistema operacional, linguagens e gerenciador de banco de dados), com possibilidade de alteração nos códigos fonte como uma alternativa de customização.
Resumo:
A visualização em tempo real de cenas complexas através de ambientes de rede é um dos desafios na computação gráfica. O uso da visibilidade pré-computada associada a regiões do espaço, tal como a abordagem dos Potentially Visible Sets (PVS), pode reduzir a quantidade de dados enviados através da rede. Entretanto, o PVS para algumas regiões pode ainda ser bastante complexo, e portanto uma estratégia diferente para diminuir a quantidade de informações é necessária. Neste trabalho é introduzido o conceito de Smart Visible Set (SVS), que corresponde a uma partição das informações contidas no PVS segundo o ângulo de visão do observador e as distâncias entre as regiões. Dessa forma, o conceito de “visível” ou de “não-visível” encontrado nos PVS é estendido. A informação referente ao conjunto “visível” é ampliada para “dentro do campo de visão” ou “fora do campo de visão” e “longe” ou “perto”. Desta forma a informação referente ao conjunto “visível” é subdividida, permitindo um maior controle sobre cortes ou ajustes nos dados que devem ser feitos para adequar a quantidade de dados a ser transmitida aos limites impostos pela rede. O armazenamento dos SVS como matrizes de bits permite ainda uma interação entre diferentes SVS. Outros SVS podem ser adicionados ou subtraídos entre si com um custo computacional muito pequeno permitindo uma rápida alteração no resultado final. Transmitir apenas a informação dentro de campo de visão do usuário ou não transmitir a informação muito distante são exemplos dos tipos de ajustes que podem ser realizados para se diminuir a quantidade de informações enviadas. Como o cálculo do SVS depende da existência de informação de visibilidade entre regiões foi implementado o algoritmo conhecido como “Dual Ray Space”, que por sua vez depende do particionamento da cena em regiões. Para o particionamento da cena em uma BSP-Tree, foi modificada a aplicação QBSP3. Depois de calculada, a visibilidade é particionada em diferentes conjuntos através da aplicação SVS. Finalmente, diferentes tipos de SVS puderam ser testados em uma aplicação de navegação por um cenário 3D chamada BSPViewer. Essa aplicação também permite comparações entre diferentes tipos de SVS e PVS. Os resultados obtidos apontam o SVS como uma forma de redução da quantidade de polígonos que devem ser renderizados em uma cena, diminuindo a quantidade de informação que deve ser enviada aos usuários. O SVS particionado pela distância entre as regiões permite um corte rápido na informação muito distante do usuário. Outra vantagem do uso dos SVS é que pode ser realizado um ordenamento das informações segundo sua importância para o usuário, desde que uma métrica de importância visual tenha sido definida previamente.
Resumo:
Este trabalho teve por objetivo o levantamento dos principais fatores envolvidos na ocorrência de problemas na impermeabilização em lajes de cobertura na cidade de Porto Alegre, assim como salientar para a importância dos diversos cuidados necessários visando a sua estanqueidade. Foi realizada uma coletânea fotográfica sobre alguns defeitos ocorridos em terraços nas diversas etapas da construção. Também utilizou-se questionários enviados ao meio técnico atuante na construção civil (Projetistas, Construtoras, Concreteiras e Aplicadores de produtos impermeabilizantes). O percentual das respostas obtidas foi acima de 60% e, os resultados mostraram que a maioria dos Projetistas consideram a Norma Brasileira inadequada a nossa realidade climática; as Construtoras não utilizam traço especial para a execução do concreto da laje de cobertura, por sua vez as Concreteiras deixam totalmente a critério do solicitante esse traço especial; e os aplicadores na sua totalidade acusam a inexistência do projeto de impermeabilização em obras executadas.
Resumo:
Bancos de Dados Temporais (BDTs) surgiram para tentar suprir a necessidade de se obter um melhor aproveitamento das informações que circulam atualmente. Porém, ao mesmo tempo em que é benéfico o seu uso, uma vez que armazenam o histórico das informações, existe um problema neste tipo de banco de dados, que é o desempenho. Além do grande volume de dados armazenados, este problema se agrava ainda mais devido à complexidade nas operações que governam os BDTs, como por exemplo, inclusão, remoção, alteração e consulta. Portanto, focalizando o problema, existe a necessidade de melhorar o desempenho dos BDTs frente às operações de manipulação de dados. Técnicas de indexação apropriadas para dados temporais podem amenizar este problema de desempenho. Técnicas consagradas de indexação são largamente usadas, amparadas no seu alto grau de desempenho e portabilidade. São exemplos B-Tree, B+-Tree e R-Tree, entre outras. Estas técnicas não suportam indexar os complexos BDTs, mas são fundamentais para que sirvam de base para novas estruturas que suportem esses tipos de dados. As técnicas de indexação para dados temporais existentes não conseguem suprir a semântica temporal na sua totalidade. Existem ainda algumas deficiências do tipo: poucas técnicas que abrangem ao mesmo tempo tempo de validade e tempo de transação; não existe uma técnica que oferece informações do seu desempenho; a maioria não distingue ponto no tempo de intervalo de tempo; entre outras. Entretanto, possuem características relevantes em cada uma delas. Assim, um estudo das características mais importantes se tornou um fator importante para que possa ser desenvolvido um modelo capaz de auxiliar na criação de novas técnicas de indexação para dados temporais, a fim de contemplar melhor estes tipos de dados. O objetivo deste trabalho é, com base nas características das técnicas estudadas, desenvolver um framework conceitual capaz de auxiliar na criação de novas técnicas de indexação para dados temporais. Esta estrutura apresenta as características mais relevantes das técnicas existentes, agregando novas idéias e conceitos para contemplar os dados temporais. O framework conceitual desenvolvido agrega características de diferentes técnicas de indexação, possibilitando de variar a arquitetura de um índice para dados temporais, ajustando-os para um melhor desempenho em diferentes sistemas. Para validar o framework proposto é apresentada uma especificação de índices para o modelo de dados TF-ORM (Temporal Functionality in Objects With Roles Model).
Resumo:
A integração de aplicações heterogêneas é uma tarefa constante entre empresas do mundo moderno. A grande quantidade de fornecedores de software, aliada à extensa variedade de técnicas e linguagens computacionais utilizadas, fazem desta integração uma tarefa trabalhosa e cara para as organizações. As alternativas existentes para a integração de sistemas de diferentes fornecedores podem variar, desde acesso compartilhado a uma base de dados comum, uso de replicadores de dados entre bases de dados distintas, troca de mensagens entre aplicações, ou o uso de programas exportadores/importadores, gerando arquivos em um formato previamente protocolado entre os desenvolvedores dos softwares envolvidos. Este trabalho visa propor uma alternativa para a integração de sistemas heterogêneos, fazendo uso da tecnologia XML para representar os dados que são trocados entre os aplicativos. Para tanto, sugere um framework a ser utilizado no planejamento da arquitetura dos softwares. O objetivo principal da adoção de um framework é a utilização de uma metodologia previamente desenvolvida e certificada, economizando tempo de análise para a solução de um problema. O framework proposto subtrai dos desenvolvedores a necessidade de alteração do código fonte dos seus programas cada vez que a integração com um novo fornecedor de software se faz necessária, ou que há alteração no formato dos dados trocados entre os aplicativos. Este efeito é conseguido através da utilização de XSLT para a conversão de formatos de documentos XML trocados pelos softwares. Tal conversão é realizada por um processador XSLT externo aos programas envolvidos. Para simplificar o processo, foi desenvolvido o protótipo de uma ferramenta para a geração de templates XSLT. Templates são elementos da especificação XSLT capazes de realizar a transformação entre estruturas representadas em XML. O gerador de templates XSLT é uma ferramenta gráfica capaz de converter mapeamentos realizados entre estruturas XML em templates XSLT, podendo aplicar as transformações geradas a documentos XML, com a finalidade de teste ou transformação.
Resumo:
A ultra-sonografia obstétrica é um método diagnóstico tradicionalmente utilizado na rotina do atendimento pré-natal, tendo sido estudados de forma ampla suas vantagens e limitações. O advento do diagnóstico intra-uterino de cardiopatias congênitas e de arritmias através da ecocardiografia fetal modificou completamente o prognóstico perinatal dessas afecções, por permitir planejar o adequado manejo cardiológico no período neonatal imediato e, em algumas situações, o tratamento e sua resolução in utero. Sendo muito elevada a prevalência de cardiopatias congênitas durante a vida fetal, sua detecção torna-se fundamental. Considerando a inviabilidade operacional de realizar rotineiramente ecocardiografia fetal em todas as gestações, levando-se em conta as condições locais do sistema de saúde, o encaminhamento para exame por especialista passa a ser otimizado com a possibilidade da suspeita de alterações estruturais ou funcionais do coração e do sistema circulatório durante o exame ultra-sonográfico obstétrico de rotina. Não são conhecidos, em nosso meio, dados que avaliem de forma sistemática a acurácia da ultra-sonografia obstétrica no que se refere à suspeita pré-natal de cardiopatias. A partir deste questionamento, este trabalho foi delineado com o objetivo de avaliar o papel da ultra-sonografia obstétrica de rotina na suspeita pré-natal de cardiopatias congênitas ou arritmias graves e os fatores envolvidos na sua efetividade. A amostra foi constituída de 77 neonatos ou lactentes internados no Instituto de Cardiologia do Rio Grande do Sul / Fundação Universitária de Cardiologia (IC/FUC) no período de maio a outubro de 2000, com diagnóstico pós-natal confirmado de cardiopatia estrutural ou arritmia grave, que tenham sido submetidos, durante a vida fetal, a pelo menos uma ultra-sonografia obstétrica após a 18a semana de gestação. Para a coleta de dados, foi utilizado um questionário padronizado, respondido pelos pais ou responsáveis, após consentimento informado. As variáveis categóricas foram comparadas pelo teste do qui-quadrado ou pelo teste de Fisher, com um alfa crítico de 0,05. Um modelo de regressão logística foi utilizado para determinar variáveis independentes eventualmente envolvidas na suspeita pré-natal de cardiopatia. Em 19 pacientes (24,7%), a ultra-sonografia obstétrica foi capaz de levantar suspeita de anormalidades estruturais ou de arritmias. Ao serem consideradas apenas as cardiopatias congênitas, esta prevalência foi de 19,2% (14/73). Em 73,7% destes, as cardiopatias suspeitadas eram acessíveis ao corte de 4-câmaras isolado. Observou-se que 26,3% das crianças com suspeita pré-natal de cardiopatia apresentaram arritmias durante o estudo ecográfico, enquanto apenas 3,4% dos pacientes sem suspeita pré-natal apresentaram alterações do ritmo (P=0,009). Constituiram-se em fatores comparativos significantes entre o grupo com suspeita pré-natal e o sem suspeita a paridade (P=0,029), o parto cesáreo (P=0,006), a internação em unidade de tratamento intensivo (P=0,046) e a escolaridade paterna (P=0,014). Não se mostraram significativos o número de gestações, a história de abortos prévios, o estado civil, o sexo dos pacientes, o tipo de serviço e a localidade em que foram realizados o pré-natal e a ultra-sonografia obstétrica, a indicação da ecografia, o número de ultra-sonografias realizadas, a renda familiar e a escolaridade materna. À análise multivariada, apenas a presença de alteração do ritmo cardíaco durante a ultra-sonografia obstétrica mostrou-se como variável independente associada à suspeita pré-natal de anormalidade cardíaca. Este trabalho demonstra que a ultra-sonografia obstétrica de rotina ainda tem sido subutilizada no rastreamento pré-natal de cardiopatias congênitas, levantando a suspeita de anormalidades estruturais em apenas um quinto dos casos. Considerando a importância prognóstica do diagnóstico intra-uterino de cardiopatias congênitas e arritmias graves, todos os esforços devem ser mobilizados no sentido de aumentar a eficácia da ecografia obstétrica de rotina para a suspeita de anormalidades cardíacas fetais. O treinamento dirigido dos ultra-sonografistas e a conscientização do meio obstétrico e da própria população são instrumentos para esta ação.
Resumo:
Neste trabalho realizou-se a vinculação entre o Modelo de Centralidade e um Sistema de Informações Geográficas. A motivação para a realização dessa tarefa surgiu do reconhecimento de que as principais ferramentas utilizadas atualmente em análises espaciais urbanas – Modelos Urbanos e SIGs – apresentam sérias limitações, e que sua união em uma nova ferramenta pode superar muitas dessas limitações. Propôs-se então uma estrutura básica de Sistemas de Suporte ao Planejamento (PSS) que fosse capaz de oferecer suporte efetivo às diversas etapas do processo de planejamento. Essa estrutura serve como base de apoio para a construção da nova ferramenta, cujo objetivo foi testar duas hipóteses: a) A união de Sistemas de Informação Geográficas e o Modelo de Centralidade pode aumentar a qualidade de análises espaciais urbanas, através de aspectos como visualização e precisão dos resultados, e rapidez, facilidade e flexibilidade na realização das análises. b) Sistemas de Informações Geográficas podem contribuir para operacionalizar novos aportes teóricos no Modelo de Centralidade, principalmente através das capacidades de manipulação de elementos espaciais A ferramenta foi construída através de rotinas de personalização do ArcView (scripts), em conjunto com módulos analíticos externos, em forma de DLL, construídos em Delphi. Os scripts se encarregam de compilar os dados necessários à análise de Centralidade, referentes ao traçado e à quantidade e qualidade das formas edificadas, e alimenta o módulo analítico com as informações necessárias. Este as processa e retorna os resultados aos scripts, que então preenchem as tabelas de atributos referentes às unidades espaciais, deixando-as prontas para serem submetidas aos procedimentos de geração de mapas e cruzamentos de dados usualmente realizadas pelos SIGs “comuns”. Para testar a hipótese “a”, realizou-se um estudo de caso na cidade de Pato Branco (PR) para avaliar o desempenho da ferramenta quando aplicada a uma situação próxima da realidade. O desempenho da ferramenta mostrou-se bastante satisfatório, quando comparado com o método tradicional de análise da Centralidade. A organização dos dados foi beneficiada, assim como o tempo de realização das análises, aumentando a flexibilidade para a realização de testes com diferentes configurações. Para testar a hipótese “b”, propôs-se uma pequena alteração no Modelo de Centralidade, que atribuiu pesos diferenciados às conexões entre elementos espaciais, como forma de tentar superar algumas das limitações das representações utilizadas até o momento. Dessa forma, os ângulos entre os trechos de logradouros passaram a definir custos diferenciados entre trechos, que por sua vez influenciavam na determinação dos caminhos mínimos entre trechos, dado essencial para o conceito de Centralidade Ficou provado então que é possível operacionalizar novos aportes teóricos ao modelo de Centralidade utilizando as capacidades de manipulação de dados espaciais oferecidas pelos SIGs, ainda que a validade do aporte utilizado neste trabalho não tenha sido testada. Outras conclusões do estudo são a adequação da estrutura modular da ferramenta, a necessidade de bases de dados completas e adequadas desde o ponto de vista do modelo de dados, e o reconhecimento de um vasto campo de experimentações a serem feitas como evolução natural das idéias apresentadas aqui.
Resumo:
Esta dissertação trata dos critérios para a elaboração de projetos para edificações escolares, em especial destinadas para a educação infantil e ensino fundamental, considerando a sua inserção no contexto ambiental, constituindo, assim, uma concepção arquitetônica bioclimática. Nessa perspectiva a implantação, a geometria, a organização espacial e os parâmetros construtivos do edifício contribuem na materialização de espaços adequados aos requisitos didático-pedagógicos e funcionais e, em especial, às exigências de conforto ambiental dos usuários, de maneira que a escola, na sua configuração física, se constitua em um elemento promotor do desenvolvimento intelectual, social e afetivo da criança. A partir da concepção global baseada nos princípios da bioclimatologia, o trabalho estabelece as necessidades para condicionamento ambiental determinadas pela caracterização climática de Passo Fundo – RS (clima subtropical úmido de altitude), explorando as estratégias solares passivas que utilizam a própria envoltória da edificação na seleção daqueles elementos ambientais externos favoráveis ao aquecimento, resfriamento, ventilação, proteção à radiação solar e iluminação, a fim de agregar aos critérios funcionais de projeto para escolas a maximização do uso desses fatores naturais e a racionalização do uso de energias não-renováveis, tendo como objetivo contribuir para um gradual desenvolvimento sustentável O trabalho aborda a legislação existente pertinente às edificações escolares, bem como apresenta exemplos de escolas solares passivas, com a aplicação de estratégias válidas para as condições locais, confrontadas com estudo de caso simplificado, a fim de que a implementação das sugestões apontadas demostre a sua viabilidade de aplicação.
Resumo:
A modelagem, a correlação e a análise de dados geofísicos e geoquímicos, aplicados para avaliar/definir a distribuição e o controle de teores de minério num espaço 3D, não são procedimentos adotados para o caso de depósitos de metais básicos e Au. Essa tese de doutorado tem o objetivo de avaliar e definir uma metodologia de modelagem, correlação e análise de dados geofísicos e geoquímicos para controle de teores de metais básicos e Au. Tal metodologia foi aplicada no Prospecto Volta Grande (Lavras do Sul, RS). A região de Lavras do Sul (RS) possui uma série de ocorrências minerais do tipo veios de quartzo com metais básicos e Au, as quais estão relacionadas com o processo de alojamento do Complexo Intrusivo Lavras do Sul. Esse complexo é uma intrusão predominantemente granítica, zonada e multifásica, cujas rochas têm filiação com as séries shoshonítica a alcalina. As ocorrências de veios estão relacionadas a zonas de alteração hidrotermal controladas por fraturas predominantemente WNW-ESE. O Prospecto Volta Grande é constituído por uma série de tais veios alojados tanto no granito intrusivo, quanto nas rochas vulcânicas e vulcanoclásticas da Formação Hilário. A metodologia desenvolvida consiste: 1) da construção de uma base de dados comum para o georreferenciamento 3D dos dados; 2) processamento estatístico e geoestatístico das variáveis de interesse (dados geofísicos e geoquímicos); 3) modelagem 3D das variáveis de interesse para definir a distribuição espacial; e 4) análise da correlação entre as variáveis para definir o controle 3D dos teores de minério por meio de métodos indiretos. Essa metodologia, na medida em que haja a possibilidade de várias fontes de informação e a possibilidade de aplicar algorítmos de lógica matemática, poderá incorporar a integração de dados num espaço 3D A aplicação de tal metodologia no Prospecto Volta Grande (Lavras do Sul, RS) permitiu verificar que os dados geofísicos e geoquímicos se adaptam mais adequadamente a uma distribuição do tipo lognormal. Além disso, a comparação múltipla das médias de resistividade aparente permitiu distinguir um controle litológico sobre os dados geofísicos. Desse modo, foram definidos os procedimentos de análise variográfica e, então, os parâmetros para a modelagem 3D dos corpos condutores em cada área de pesquisa. A adequação do suporte amostral dos dados geofísicos e geoquímicos permitiu a correlação entre essas variáveis. A análise dos diagramas de correlação revelou superposição de pulsos de mineralização com distintas cargas metálicas. A utilização de métodos indiretos para controle de teores em depósitos sulfetados do tipo veios de quartzo com Au + Cu é, portanto, uma possibilidade concreta, garantida a adequada resolução espacial dos levantamentos geofísicos.
Resumo:
O setor da extração de rochas ornamentais alimenta um mercado que no Brasil movimenta US$ 2,1 bilhões por ano (Villaschi, 2000). Infelizmente, a maioria das empresas brasileiras que atuam nessa área investe poucos recursos em pesquisas para o planejamento de lavra. Deste modo, são sobretudo as instituições de pesquisa que se encarregam da tarefa de efetuar os estudos necessários para um melhor aproveitamento dos materiais ornamentais extraíveis no País. Esse trabalho, em particular, abordou dois problemas específicos (i) o estudo da variação de cor dos sienitos ornamentais lavrados no Complexo Alcalino de Tunas e (ii) a influência das estruturas na lavra do Sienito Piquiri. Os sienitos extraídos em Tunas (PR) são caracterizados por mostrarem uma variabilidade na coloração. A variedade verde é a mais interessante pela sua raridade como produto natural. Para entender quais são as causas desta variabilidade cromática foram efetuadas observações petrográficas, análises litogeoquímicas e ao microscópio eletrônico de varredura. Mediante as análises foi possível determinar que o conteúdo em ferro pode ser um dos fatores que proporcionam a característica coloração verde nos sienitos de Tunas. Processos de alteração deutérico-hidrotermal são outras possíveis causas que participaram na referida coloração. Os resultados obtidos podem ser utilizados como base para poder hipotizar a localização de novas frentes de lavra de rocha ornamental no CAT ou em maciços geologicamente semelhantes Na lavra do Sienito Piquiri (RS) o controle estrutural do maciço influi decisivamente na recuperação da lavra. O levantamento estrutural convencional aliado ao levantamento de fraturas horizontais por meio de georradar pode auxiliar no processo de blocometria, isto é na determinação de blocos comerciais extraíveis dos maciços rochosos e determinar zonas menos afetadas pelos processos de ruptura. A metodologia adotada revelou-se eficiente para poder aumentar a recuperação e auxiliar no planejamento da lavra.
Resumo:
É certo afirmar que muitas das organizações têm buscado aperfeiçoar seus processos, melhorar seu desempenho, ampliar seus mercados e principalmente medir seus resultados. O mercado postal, que teve como berço o setor estatal, diante das inúmeras transformações tecnológicas e o processo de globalização, tem conduzido as empresas que exploram o setor a se debaterem na busca de aperfeiçoamento das avaliações de seus desempenhos. As empresas postais do mundo inteiro têm procurado métodos capazes de dar sustentação às suas práticas para garantia e ampliação de seus mercados. A Empresa Brasileira de Correios e Telégrafos – ECT, criada em 1969, configurada com muitas lojas similares em todo o Brasil, que prestam e comercializam um conjunto de produtos e serviços semelhantes, mas que utilizam recursos diversos em intensidade diferente, possui sua atual avaliação de desempenho das lojas centrada em um único fator econômico financeiro, denominado índice de receitas e despesas – R/D. Esse índice não considera fatores que estão sendo utilizados pelas lojas, fora da visão financeira. Nesse ponto, considerada a importância e relevância do tema, é que surge a proposta de avaliar um conjunto de lojas da ECT do Rio Grande do Sul, através de modelagem matemática, utilizando uma técnica denominada data envelopment analysis – DEA (em português, análise envoltória de dados), que possibilita a inclusão de outras variáveis fora da visão econômica. Este trabalho tem como objetivos: (1) definir que variáveis podem ser utilizadas para a avaliação das lojas; (2) definir um conjunto de lojas similares, que executam as mesmas funções e que se diferenciam somente na intensidade da utilização dos recursos; (3) gerar, através da técnica, os resultados que podem ser obtidos a partir dos fatores quantitativos definidos e realizar análise de sensibilidades e (4) propiciar aos administradores um referencial para apoio à decisão. Espera-se que através da utilização da técnica seja possível: (1) identificar fatores que sejam usados de forma distinta nas lojas; (2) identificar que práticas estão sendo utilizadas pelas lojas consideradas eficientes e que podem contribuir para as lojas não eficientes e (3) permitir a participação dos gestores locais na alteração e extensão do modelo levando em conta as características das lojas.