93 resultados para Dados de tripla entrada
Resumo:
A linguagem XSLT transforma documentos XML não apenas em novos documentos XML, mas também em documentos HTML, PDF e outros formatos, tornando-se bastante útil. Entretanto, como um ambiente de programação, XSLT apresenta algumas deficiências. Não apresenta um ambiente gráfico de programação e exige conhecimento prévio sobre manipulação de estrutura de dados em árvores, o que compromete a produtividade do programador e limita o uso da linguagem a especialistas. Assim, várias propostas têm sido apresentadas na tentativa de suprir estas deficiências, utilizando recursos variados como geração automática de script XSLT e reuso de transformações. Este trabalho apresenta a ferramenta X2H que visa auxiliar a apresentação de documentos XML em HTML, aumentando a produtividade de programadores que utilizam a linguagem XSLT. Para facilitar a sua utilização, a X2H possui uma interface gráfica com abordagem baseada em exemplos, na qual o usuário compõe um documento exemplo HTML a partir de um documento fonte XML. Estes documentos são visualizados como árvores hierárquicas, nas quais é vinculado um conjunto de operações dependente do contexto, que permitem a composição do documento exemplo. Este documento serve de entrada para um gerador de regras, que gera um script na linguagem XSLT que, se executado, apresenta o documento HTML resultado desejado.
Resumo:
A fumicultura brasileira é, hoje, a mais competitiva no mundo. O Brasil, atualmente, apresenta-se como o maior exportador e segundo maior produtor mundial de fumo devido à qualidade de seu produto e à eficiência de sua cadeia produtiva. A qualidade do fumo brasileiro é garantida pelo modelo de produção adotado. O sistema integrado de produção permite a garantia de produção, qualidade e rastreabilidade do produto. Neste sistema, a cadeia produtiva é liderada pelas empresas fumageiras, que contratam a produção com os produtores integrados, fornecem insumos, tecnologia de produção e assistência técnica ao produtor rural, bem como repassam os recursos necessários ao custeio da produção e investimentos e garantem a compra da produção. O sistema integrado, porém, está sendo enfraquecido em função da alta demanda pelo fumo brasileiro, que ocasionou a entrada de novas empresas que não possuem suficiente base produtiva integrada para garantir a matériaprima suficiente para suas exportações. Estas empresas têm incentivado um comportamento oportunista por parte do produtor integrado, comprometendo a lealdade criada ao longo dos anos. Este cenário levou à realização da presente pesquisa na área do marketing de relacionamento. Diante disso, estabeleceu-se como objetivo geral do presente estudo analisar o relacionamento entre a empresa integradora e seus produtores, identificando os atributos responsáveis pelo relacionamento e satisfação dos produtores e sua classificação dentro dos constructos tradicionais do marketing de relacionamento. Para atingir a estes objetivos foram realizadas entrevistas em profundidade com diferentes atores da cadeia produtiva do fumo e revisada a bibliografia. Com estes dados, foi elaborado um questionário aplicado, após o préteste, a 444 agricultores nos estados de Santa Catarina, Rio Grande do Sul e Paraná. Os dados foram analisados com estatísticas descritivas, correlações, regressão múltipla e análise fatorial. Entre as constatações, está a construção de nove fatores que representam, pela ordem de importância, os seguintes constructos presentes na literatura: comprometimento, confiança, relacionamentos pessoais, dependência, propensão para deixar o relacionamento, comportamento unilateral, valores comuns, interdependência e comunicação. A regressão múltipla indicou quatro variáveis como as mais importantes para a satisfação dos associados com a integradora: estamos satisfeitos com o relacionamento, tenho orgulho de ser produtor da empresa, satisfação com a classificação do fumo e satisfação com as visitas do orientador. A análise de variância comparou as diversidades entre os três estados nos quais a pesquisa foi realizada, apontando diferenças em dez variáveis.
Resumo:
Dois experimentos e um levantamento por amostragem foram analisados no contexto de dados espaciais. Os experimentos foram delineados em blocos completos casualizados sendo que no experimento um (EXP 1) foram avaliados oito cultivares de trevo branco, sendo estudadas as variáveis Matéria Seca Total (MST) e Matéria Seca de Gramíneas (MSGRAM) e no experimento dois (EXP 2) 20 cultivares de espécies forrageiras, onde foi estudada a variável Percentagem de Implantação (%IMPL). As variáveis foram analisadas no contexto de modelos mistos, sendo modelada a variabilidade espacial através de semivariogramas exponencias, esféricos e gaussianos. Verificou-se uma diminuição em média de 19% e 14% do Coeficiente de Variação (CV) das medias dos cultivares, e uma diminuição em média de 24,6% e 33,3% nos erros padrões dos contrastes ortogonais propostos em MST e MSGRAM. No levantamento por amostragem, estudou-se a associação espacial em Aristida laevis (Nees) Kunth , Paspalum notatum Fl e Demodium incanum DC, amostrados em uma transecção fixa de quadros contiguos, a quatro tamanhos de unidades amostrais (0,1x0,1m; 0,1x0,3m; 0,1x0,5m; e 0,1x1,0m). Nas espécies Aristida laevis (Nees) Kunth e Paspalum notatum Fl, existiu um bom ajuste dos semivariogramas a tamanhos menores das unidades amostrais, diminuíndo quando a unidade amostral foi maior. Desmodium incanum DC apresentou comportamento contrario, ajustando melhor os semivariogramas a tamanhos maiores das unidades amostrais.
Resumo:
A pesquisa analisa a aparição do Conselho de Desenvolvimento Econômico e Social (CDES) na cena midiática. Instituído pelo Governo Lula no início de 2003, o Conselho é formado por representantes de diversos segmentos da sociedade e ocupa-se do debate de temas da agenda política. O estudo acompanha a entrada e desenvolvimento desse debate na cena midiática, verificando em especial as vozes que ganharam mais visibilidade. A análise concentra-se sobre o material produzido por cinco jornais – Folha de São Paulo, O Estado de São Paulo, Jornal do Brasil, O Globo e Correio Braziliense – durante os anos de 2003 e 2004. Os dados reunidos para esta pesquisa foram submetidos a um processo de interpretação. O intuito é avaliar se a forma como os temas da agenda política foram lançados para a esfera pública pode privilegiar determinados segmentos na disputa pela formação da opinião pública. É através da midiatização das atividades do CDES que grande parcela da população tem acesso a esses temas. Esses subsídios alimentam o debate público. Ao produzir o material simbólico, a mídia atua como ator importante na disputa pela opinião pública.
Resumo:
O bom dimensionamento de equipes contribui para o aumento do nível dos serviços prestados pelas empresas, com o menor custo possível. Uma alternativa para abordar a questão foi dimensionar as equipes de eletricistas, de uma empresa do setor elétrico, (utilizando técnicas de previsão de demanda, de simulação e de alocação) para atender de forma otimizada, a demanda variável das atividades prestadas - fornecimento de energia. Um equilíbrio entre a demanda por serviços e a capacidade de execução da empresa evitaria longas filas de espera dos clientes e servidores (eletricistas) ociosos. Cinco etapas forma cumpridas: fase exploratória, coleta de dados, previsão de demanda e simulação do processo e alocação do recurso. Na primeira houve um entendimento de como chegava o pedido do serviço na empresa até a finalização da ordem de serviço. Na coleta de dados foram levantados aproximadamente 80 tipos diferentes de atividades desenvolvidas pelos eletricistas e classificadas de acordo com a prioridade de urgência, prazos de atendimento dos serviços e afinidade de execução das tarefas. Nesta etapa ainda foram coletados os volumes de serviços gerados e tempos médios de deslocamento e execução das atividades. Na terceira etapa foi utilizado um software de previsão de demanda chamado Forecast Pro, possibilitando a escolha automática do modelo de previsão mais apropriado para a série histórica em estudo. Na quarta etapa, foi utilizado um software de simulação de processos chamado Arena. Desenvolveu-se um modelo do processo real com os respectivos dados de entrada dos serviços, tempos de deslocamento e execução e número de equipes. Na última etapa, utilizando a ferramenta Solver do Excel otimizou-se o número de equipes. Um dos resultados da ação foi obter vários cenários com a variação do número de equipes e seus respectivos tempos médios de atendimento, sem causar nenhum dano para a empresa, podendo assim ser analisado qual o melhor cenário para ser implementado na companhia, minimizando o problema.
Resumo:
O presente trabalho apresenta uma modelagem detalhada de processos de combustao turbulentos para um jato concentrico de combustıvel e ar. A modelagem é fundamentada nas equacões de conservacão de massa, de quantidade de movimento, de energia e de espécies quımicas. A turbulencia é resolvida pela utilizacão do modelo k- padrão. Dois modelos de reacões quımicas são apresentados. O modelo SCRS – Simple Chemically-Reacting Systems, que assume taxas instantâneas de reacões quımicas. Também é abordado o modelo E-A – Eddy Breakup - Arrhenius, que assume taxas finitas de reacões quımicas. A radiacão térmica, fenômeno de grande importância devido as altas temperaturas alcancadas em processos de combustão,é modelada através do Método das Zonas. O modelo da soma ponderada de gases cinzas – WSGGM,é usado para determinar o espectro de emissão e absorcão dos gases no processo. Para a solucão destas equacões diferenciais, juntamente com os modelos de turbulência, de reaçõoes químicas e radiação térmica, faz-se o uso do Método dos Volumes Finitos. Para validar a modelagem apresentada resolve-se o processo de combustão em uma câmara cilíndrica. A câmara de combustão usada áa mesma abordada no First Workshop on Aerodynamics of Steady State Combustion Chambers and Furnaces, organizado pela ERCORTAC - European Research Community On Flow Turbulence And Combustion, em outubro de 1994, que apresenta dados experimentais de temperatura e concentração das espécies químicas para várias posições de interesse no interior da câmara. Utiliza-se o gás natural como combustível e o ar atmosférico como oxidante. O processo de combustão sem pré-mistura é resolvido para a condição de excesso de combustível de 5 % para ambos os modelos, onde o gás natural é injetado por um duto circular central, e o ar atmosférico por um orifício anular externo a esse duto, no mesmo plano Uma reação química não estagiada é assumida para o modelo SCRS. Para o modelo E-A duas situações são resolvidas: combustão não estagiada, com uma etapa global de reação química; e reação quımica estagiada, com duas etapas globais. Os resultados obtidos com o modelo SCRS para a distribuição de temperaturas, em termos de tendências gerais, são razoáveis. Já as concentrações de espécies químicas não apresentam dados satisfatórios para este modelo. Para o modelo E-A os resultados apresentam boa concordância com os dados experimentais, principalmente para a situação em que o processo de combustão é assumido em duas etapas globais. ´E analisado em detalhe o papel desempenhado pela transferencia de calor por radiacao, com meio participante. Para melhor verificar as trocas de calor, assume-se uma camara de combustao cilındrica com paredes d’agua. A injecao do combustıvel e do oxidante e feita atraves de um queimador central, semelhante ao usado para validar a modelagem, porem com dois orifıcios concentricos para injecao de combustıvel. Nesta situação o efeito do turbilhonamento (swril), assumido como 20 % da velocidade axial de entrada, sobre a injecao de ar e computado atraves da condicao contorno da equacao de conservacao da quantidade de movimento angular. Nesta fase apenas o modelo E-A, com duas etapas globais de reacoes quımicas, e considerado, ja que o mesmo apresenta os melhores resultados. O processo de combustao e simulado com e sem a presenca da radiacao termica. Verifica-se que a presenca da radiacao termica homogeneiza a temperatura dos gases no interior da camara. Com isso verifica-se tambem alterações nas taxas de reacoes quımicas, modificando a magnitude das fracoes das especies quımicas Quando a radiacao termica e considerada efeitos de extinção local da chama sao verificados nas regioes de temperaturas mais altas, diminuindo o consumo de oxigenio e aumentando a producao de monoxido de carbono, caracterizando assim uma combustao incompleta. Em algumas situacoes tem-se uma variacao de temperatura de ate 500 K, a montante da chama. A radiacao termica tambem aumenta a taxa de transferencia de calor dos gases quentes para as paredes da camara, e desta para o seu exterior. Com os resultados obtidos a partir desta modelagem e possıvel determinar o perfil da zona de combustao, a distribuicao de concentracoes de especies quımicas, o campo de velocidades e as taxas de transferencia de calor para as paredes da camara de combustao, total, por conveccao superficial e por radiacao. Estes resultados sao de extrema importancia para prever a performance de camaras de combustao, assim como auxiliar na sua otimizacao.
Resumo:
As atividades de exploração e produção de petróleo e gás no Brasil têm se tornado mais intensas ao longo desta última década, apresentando uma tendência de avanço em direção a ambientes de maior profundidade, onde se localizam grande parte das reservas de óleo já comprovadas. Os processos de exploração e produção de petróleo e gás apresentam muitas etapas com considerável potencial gerador de impactos ao meio ambiente, entre elas, a perfuração de poços exploratórios marítimos, objeto do presente estudo. Este estudo originou-se do Projeto MAPEM – Monitoramento Ambiental em Atividades de Perfuração Exploratória Marítima (Águas Profundas), do qual foram utilizados os dados analisados nesta dissertação. O monitoramento foi realizado visando avaliar os efeitos da perfuração do poço Eagle, localizado em talude continental, região norte da Bacia de Campos, Brasil, próximo ao limite entre os estados do Rio de Janeiro e Espírito Santo, a 902 metros de profundidade. Foram coletadas amostras de sedimentos superficiais na região de entorno da atividade, em 48 estações de monitoramento e 6 estações de controle, durante os cruzeiros oceanográficos realizados um mês antes, um mês após e um ano após a perfuração. As análises dos sedimentos geraram informações sobre sua composição granulométrica, mineralógica (argilominerais e carbonato de cálcio) e química (hidrocarbonetos e metais), e foram comparadas em sua variação espacial (área de monitoramento/estações de controle) e temporal (3 cruzeiros oceanográficos). A variação temporal foi abordada de três maneiras distintas, onde o Cruzeiro I representou o background da área, a variação do Cruzeiro I para o II representou o impacto sobre a área de monitoramento e na variação do Cruzeiro II para o III, buscou-se evidências de recuperação da área monitorada com tendência de retorno às suas características iniciais O background da área definiu os níveis médios de todas variáveis analisadas, identificando, além de teores naturais para alguns dos componentes dos sedimentos, sinais de contaminação de origem antrópica, principalmente de As, Pb e hidrocarbonetos petrogênicos (n-alcanos) e pirogênicos (aromáticos). Na perfuração do poço Eagle foi utilizado fluido de base aquosa (FBA) e fluido de base sintética (FBS), dos quais se buscou identificar as áreas de influência e as alterações causadas nos sedimentos. Identificou-se a ocorrência de um fluxo gravitacional de massa, no período entre o Cruzeiro I e a perfuração, restrito ao cânion submarino que cruza a área de monitoramento, do qual também foi avaliada a influência sobre a composição dos sedimentos. A influência do FBA (indicada pelos teores de bário) estendeu-se por uma grande área, apresentando maiores concentrações nas estações próximas do poço. A área de influência do FBS (indicada pelos n-alcanos entre C14 e C22) apresentou distribuição mais restrita, em duas manchas, uma a norte e outra a oeste do poço. Além dos n-alcanos, foi identificado aumento dos teores de bário, UCM (mistura complexa não resolvida), fluoreno e acenaftaleno. O fluxo gravitacional de massa causou elevações na proporção de areia das estações do cânion submarino e redução do carbono orgânico. Efetivamente pode se concluir que a atividade de perfuração exerceu influência significativa nas propriedades químicas dos sedimentos, contudo, de improvável efeito tóxico sobre a biota. Pode-se concluir também que ocorreu recuperação da área, após o período de um ano, por redução das concentrações médias de algumas variáveis e sinais de reposição de n-alcanos naturais, porém não foi possível a identificação de degradação do material sintético utilizado no FBS.
Resumo:
O fornecimento de facilidades de QoS em redes de computadores tem por objetivo introduzir níveis das garantias que são ausentes, por exemplo, no paradigma de melhor-esforço das redes IP. Diferentes arquiteturas de QoS possuem padrões diferentes para os serviços fornecidos, que conduzem a um cenário em que a QoS prevista não possa ser sempre fornecida corretamente pela arquitetura utilizada. Neste contexto, uma monitoração da QoS é necessária para verificar a QoS observada e para compará-la com a QoS esperada/ contratada. Em uma rede que utilize gerenciamento baseado em políticas, a QoS esperada é definido pelas políticas que regem o comportamento da rede. O Internet Engineering Task Force (IETF) tem padronizado vários elementos para um sistema de gerenciamento de redes baseado em políticas (PBNM), no qual políticas são definidas utilizando-se linguagem de alto nível, armazenadas em repositórios para políticas, aplicadas com o auxilio de Policy Decision Points (PDPs) e mantidas por Enforcement Points (PEPs). Pela definição do IETF, uma vez que uma política é aplicada com sucesso, o sistema de PBNM não mais checará o comportamento desta, e a QoS definida é assumida com a fornecida pela rede. De fato, isso nem sempre é verdade. A arquitetura da qual provém a QoS pode apresentar-se instável ou mediante problemas, logo a QoS esperada não seria atingida. Para verificar a degradação na QoS em ambientes de gerenciamento reais, atualmente, o administrador da rede monitora a rede e determina a QoS fornecida. Tal QoS é, por sua vez, manualmente comparada com a QoS definida pelas políticas de rede. Finalmente, se diferenças são encontradas, o administrador procede com medidas que levem a arquitetura a um estado consistente Nos dias de hoje, as definições e aplicações de políticas e monitoração de QoS são tarefas executadas separadamente pelas soluções disponíveis. Além disso, como demonstrado anteriormente, a verificação da QoS fornecida contra a QoS definida pelas políticas da rede é deixada a cargo do administrador da rede. Nesse contexto, a automação da monitoração das políticas de QoS e a integração entre as tarefas citadas são necessárias do ponto de vista do administrador da rede. Nesta dissertação, é proposta uma definição (e um sistema) para a monitoração de QoS em que as definições de políticas são dados de entrada utilizados para checar a QoS observada. No momento em que uma degradação na QoS é detectada, o sistema de monitoração notifica um gerente com suporte a SNMP utilizando mensagens do tipo InformRequest. A arquitetura do sistema é dividida internamente em monitores de QoS e controladores de monitores de QoS. Cada controlador de monitor de QoS controla vários monitores de QoS, os quais coletam dados da rede. Tais dados são comparados com as políticas traduzidas pelo controlador, e, caso sejam detectadas degradações, o controlador de monitor de QoS notifica o gerente. A comunicação entre controlador de monitores de QoS e monitores de QoS também é baseada em SNMP. O principal objetivo do trabalho é fornecer uma solução que integre monitoração de QoS e PBNM em um único ambiente de gerenciamento.
Resumo:
A maioria dos estudos de impactos de pólos geradores de viagens são desenvolvidos a partir da adequação de metodologias desenvolvidas em diferentes contextos e disponíveis na literatura. Este trabalho buscou avaliar a adequação de algumas destas propostas, em termos de área de influência, distribuição de viagens e escolha modal, em shopping centers de Porto Alegre. Os dados para análise foram provenientes de uma pesquisa origem e destino realizada recentemente em Porto Alegre por meio de entrevistas domiciliares (EDOM). A partir da comparação dos resultados obtidos na análise de cinco shopping centers, foi possível identificar a relação entre as características dos usuários, da região de entorno e do padrão de viagens dos empreendimentos. Com relação à escolha modal, observou-se que as características do empreendimento, a facilidade de acesso ao pólo pelos diversos modos de transporte disponíveis e os aspectos sócio-econômicos da área de influência são variáveis que podem explicar a escolha do modo utilizado. Para a delimitação da área de influência dos shopping centers, constatou-se que as propostas que utilizam a distância de viagem como critério para definição se mostraram mais realistas do que aquelas que adotam o tempo de viagem como base. Na distribuição de viagens, verificou-se que o perfil econômico dos residentes na área de influência, bem como informações que caracterizem as atividades existentes nas zonas de tráfego são variáveis que podem explicar a distribuição de viagens de shopping centers. Por fim, concluiu-se que o banco de dados da EDOM é uma fonte de dados potencial na análise da demanda de shopping centers.
Resumo:
O setor do couro é de grande interesse para a economia do País, pois a produção mundial de couros é de 329,75 milhões e a do Brasil é de 35,50 milhões, com uma participação mundial de 10,77%, da qual grande parte é para exportação. O processamento de peles em couro consiste em diversas etapas, com adições seqüenciais de produtos químicos em meio aquoso, intercaladas por lavagens e processos mecânicos. Sabe-se que os mais diversos impactos ambientais são gerados nesta indústria, tornando o presente trabalho importante por analisar quantidades adicionadas de água, pele e insumos químicos, também por avaliar a produção, e respectivas quantidades geradas de couro, de resíduos sólidos, de efluentes líquidos, assim como de suas concentrações. Este trabalho teve por objetivo a caracterização das peles e dos banhos residuais, de ribeira e curtimento, através de análises químicas, para efetuar o balanço de massa destas operações. Para a realização desse balanço, foram definidos critérios para o monitoramento dos processos e foram estabelecidos e/ou adaptados os métodos analíticos adequados para quantificar as correntes de entrada e as concentrações das correntes de saída, através de amostragens de águas residuais e de peles, em cada etapa dos processos de ribeira e de curtimento. Foi feito o balanço global e por componentes em escalas piloto e industrial. Através da caracterização das peles por meio das análises químicas, foi mostrado que o processo piloto é representativo para o processo industrial A pesquisa demonstrou a importância do balanço de massa, pois somente através da análise do aproveitamento e das perdas nas diferentes etapas de transformação da matéria-prima pele em wet-blue, é possível otimizar a relação entre os materiais empregados no processo. Os dados obtidos podem ser utilizados como ferramenta para a implementação da gestão e gerenciamento de melhorias no processo produtivo em curtumes, onde se busca manter a qualidade do produto final e diminuir o impacto ambiental e econômico.
Resumo:
O agronegócio da soja, caracterizado como investimento em atividade produtiva, envolve problemas de incertezas com o comprometimento definitivo de recursos, com a impossibilidade de reverter decisões tomadas e, também, com o esforço de prever a renda a ser obtida com a colheita. A questão relevante para o sojicultor é como avaliar o rendimento esperado de grãos em um contexto de incertezas, base para o cômputo da taxa de retorno do investimento na produção de soja. Este trabalho teve como objetivo estabelecer uma metodologia que associa um modelo estocástico de precipitação a um modelo de predição do rendimento da cultura de grãos de modo a permitir a atribuição de probabilidades aos rendimentos esperados de soja. Foram utilizados dados meteorológicos diários referentes à precipitação pluvial, temperatura máxima, mínima e média do ar, umidade relativa do ar, radiação solar global e velocidade do vento a 2 metros, bem como o rendimento de soja de Cruz Alta(RS) do período 1/1/1975-31/12/1997 A precipitação pluvial diária foi ajustada à cadeia de Markov de primeira ordem e dois estados e na função gama com variação sazonal para os meses de outubro a abril. Os resultados indicaram que a metodologia associando a geração de séries de precipitação pluvial, evapotranspiração da soja e evapotranspiração real, aplicadas como variáveis de entrada no modelo de predição do rendimento de grãos, possibilitou a definição da densidade de probabilidade do rendimento esperado de soja e, por conseguinte, a quantificação do risco na forma da distribuição de probabilidade acumulada do rendimento. O risco de ocorrência de um valor de rendimento de soja, menor que um valor mínimo de aceitação, quantiifcado pela sua distribuição de probabilidade acumulada, fundamentada em um fenômeno da natureza - a precipitação pluvial - que não depende da vontade humana. A obtenção do rendimento desejado envolve um processo que depende de organização, isto é, depende de fatores subjetivos, de decisões e escolhas. Enfim, um processo que comporta alternativas e depende de iniciativas humanas.
Resumo:
Este trabalho tem como objetivo o levantamento e análise de fatores intervenientes na capacidade de processamento de veículos em cabines de praças de pedágio com o recolhimento manual de tarifas. Buscando o entendimento de como estes fatores interferem nos tempos de atendimento nas cabines foi realizada uma análise estatística e posterior modelagem, que utilizou redes neurais artificiais. Redes neurais artificiais são úteis no entendimento de problemas com alto grau de complexidade, que agregam diversas variáveis de entrada com relações não-lineares entre si. As variáveis de entrada escolhidas para a modelagem foram forma de pagamento, intensidade de fluxo, valor das tarifas e classes de veículos. A variável de saída foi o tempo de atendimento nas cabines de cobrança de pedágios. Foram obtidos três modelos que buscaram refletir a variação dos tempos de atendimento para um mesmo conjunto de dados de entrada: Modelo de Tempos Mínimos de Atendimento; Modelo de 85° Percentil de Tempos de Atendimento, e; Modelo de Tempos Máximos de Atendimento. As análises de sensibilidade dos modelos indicaram que tempos de atendimento são fortemente influenciados pelo fluxo de veículos nas praças. Quanto mais intenso o fluxo de veículos, tempos mínimos de atendimento tendem a sofrer leve aumento, indicando pequena perda de rendimento do processo. Perda de rendimento pode ser resultado de (i) necessidade de digitação das placas de licença dos veículos no sistema operacional das praças-dificuldade de visualização das mesmas em situação de filas, e (ii) desgaste físico dos arrecadadores. O desgaste físico dos arrecadadores também se apresenta como provável causa para o aumento de tempos mínimos de atendimento para fluxos altos. Quanto mais intenso o fluxo de veículos, menores são os tempos máximos de atendimento. Quanto maior o fluxo de veículos nas praças, as modelagens indicam uma maior estabilidade do sistema com relação ao processamento de veículos.
Resumo:
Os processamentos de imagens orbitais efetuados através de técnicas de sensoriamento remoto geraram informações qualitativas de natureza textural (morfo-estruturas). Estas permitiram (1) o reconhecimento de áreas com diferentes padrões estruturais tendo diferentes potencialidades para a prospecção de fluorita, (2) a identificação de novos lineamentos estruturais potencialmente favoráveis à mineralização e (3) evidenciaram prolongamentos extensos para as principais estruturas mineralizadas, (4) às quais se associam um grande número de estruturas, antes desconhecidas, com grande potencial prospectivo. O aprimoramento de técnicas de classificação digital sobre produtos de razões de bandas e análise por componentes principais permitiu identificar a alteração hidrotermal associada às estruturas, incorporando novos critérios para a prospecção de fluorita. Buscando-se quantificar os dados de alteração hidrotermal, foi efetuada a análise espectrorradiométrica das rochas do distrito fluorítico. Integrando estas informações com dados TM LANDSAT 5, em nível de reflectância, obteve-se a classificação espectral das imagens orbitais, o que permitiu a identificação de estruturas menores com um detalhe nunca antes obtido. Os processamentos de dados aerogeofísicos forneceram resultados sobre estruturas (magnetometria) e corpos graníticos afetados por alteração hidrotermal (aerogamaespectrometria). Estes produtos foram integrados com dados TM LANDSAT 5 associando o atributo textural da imagem orbital ao comportamento radiométrico das rochas. Diagnosticou-se o lineamento Grão-Pará como o principal prospecto do distrito. E levantaram-se uma série de dados sobre a compartimentação tectônica da região, a zonação de fácies das rochas graníticas (rocha fonte do flúor) e as alterações hidrotermais associadas ao magmatismo granítico. Isto permitiu a compreensão da distribuição regional dos depósitos de fluorita, adicionando-se um novo critério à prospecção de fluorita, a relação espacial entre a mineralização e a rocha fonte de F. Esta última corresponde à fácies granítica da borda do Maciço Pedras Grandes.
Resumo:
A elaboração de diagnósticos e a tomada de decisões sobre o meio físico, com a finalidade de estabelecer diretrizes para a ocupação racional do solo, são cada vez mais prementes, especialmente, no que diz respeito ao direcionamento da expansão urbana para áreas mais favoráveis. Da mesma forma, a facilidade de acesso aos parâmetros geotécnicos de uma região constituí um inestimável recurso nas etapas preliminares dos projetos de Engenharia, no planejamento de atividades extrativas e nos programas de preservação ambiental. A cartografia geotécnica, nesse sentido, tem sido um dos instrumentos mais eficientes para a avaliação do meio físico nas últimas décadas. Entretanto, o desenvolvimento de um mapa geotécnico requer a análise de um grande número de informações que precisam ser tratadas e combinadas com rapidez. Esta tese apresenta uma metodologia para a integração de dados, por meio da ferramenta básica geoprocessamento, visando agilizar, na fase de escritório, a elaboração de mapas geotécnicos e a análise de determinados aspectos do meio físico sob o ponto de vista da Geotecnia, bem como suas interações com a mancha urbana existente. A área teste escolhida é o município de Porto Alegre (RS) situado na porção leste do estado do Rio Grande do Sul, à margem esquerda do Lago Guaiba, cuja paisagem é marcada pela diversidade de cenários naturais formados por terrenos de coxilhas, morros, cristas, lagos e planícies. A metodologia envolve a captura, o processamento e a integração de informações provenientes de fontes diversas como mapas temáticos, levantamento aerofotogramétrico, cartas topográficas, fotografias aéreas, imagens de satélite, boletins de sondagens SPT (Standart Penetration Test), dissertações e teses acadêmicas. Para isso, é constituída por nove etapas distintas, que utilizam: a) sistema de digitalização para a conversão de informações analógicas para o meio digital; b) modelagem digital do terreno (MDT) para o modelamento e a identificação do relevo, a determinação de declividades, o mapeamento de áreas com isodeclividades e o cálculo do fator topográfico, esse último objetivando a determinação da suscetibilidade à erosão laminar; c) técnicas de processamento e classificação de imagens orbitais para os mapeamentos das áreas inundáveis e da mancha urbana; d) Sistemas de Informações Geográficas (SIGs) para o processamento e a integração de informações georreferenciadas no computador; e) banco de dados digital para o armazenamento de dados descritivos sobre o meio físico e parâmetros geotécnicos obtidos em laboratório, sondagens e outras formas de investigação in situ. A estimativa das unidades geotécnicas é procedida com base na proposta metodológica para mapeamento geotécnico desenvolvida por Davison Dias (1995), na Universidade Federal do Rio Grande do Sul (UFRGS). Além da elaboração do mapa geotécnico, a metodologia propõe a análise e o cruzamento de vários fatores do meio físico com a mancha urbana existente, ou com uma subárea pertencente à região de estudo, a geração de mapas de aptidão do solo para diferentes usos e a identificação das áreas consideradas de eventos perigosos e de risco geológico. Os principais softwares empregados são o AutoCAD@, o SURFER@, ACESS@ e o IDRISI 2.0@, desenvolvido pela Clark University, USA. Os resultados obtidos a partir da implementação da metodologia demonstraram a importância e a contribuição que a ferramenta básica geoprocessamento pode trazer aos estudos geotécnicos. Os diferentes sistemas de geoprocessamento utilizados para a manipulação e tratamento das informações espaciais mostraram-se adequados e eficientes quando aplicados na coleta, processamento e integração de dados geotécnicos. Para a área teste foram identificadas trinta e sete unidades com perfis de solos com comportamento geotécnico praticamente similar frente ao uso e à ocupação do solo, cujas informações descritivas sobre o meio físico puderam ser facilmente acessadas e visualizadas, no computador, por meio da integração banco de dados geotécnicos com Sistema de Informações Geográficas. Por outro lado, o emprego de técnicas de processamento e classificação de imagens digitais revelou-se um recurso importante para a obtenção de informações sobre o meio físico, enquanto o uso de modelagem digital do terreno (MDT) agilizou o mapeamento das declividades e o cálculo da suscetibilidade potencial à erosão laminar, além de permitir a geração do relevo em perspectiva da região estudada.