190 resultados para Redutores de velocidade


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os sistemas operacionais de tempo real, assim como os sistemas embarcados, estão inseridos no desenvolvimento de projetos de automação industrial segmentado em diversas áreas de pesquisa como, por exemplo, robótica, telecomunicações, e barramentos industriais. As aplicações de sistemas modernos de controle e automação necessitam de alta confiabilidade, velocidade de comunicação, além de, determinismo temporal. Sistemas operacionais de tempo real (SOTR) têm-se apresentado como uma solução confiável quando aplicadas em sistemas que se fundamentam no cumprimento de requisitos temporais. Além disso, o desempenho computacional é totalmente dependente da capacidade operacional da unidade de processamento. Em um sistema monoprocessado, parte da capacidade computacional da unidade de processamento é utilizada em atividades administrativas, como por exemplo, processos de chaveamento e salvamento de contexto. Em decorrência disto, surge a sobrecarga computacional como fator preponderante para o desempenho do sistema. Este trabalho tem por objetivo, analisar e fornecer uma arquitetura alternativa para realizar o co-processamento de tarefas em uma plataforma IBM-PC, aumentando a capacidade computacional do microprocessador principal. No presente trabalho, a plataforma de coprocessamento realiza a execução do algoritmo de escalonamento do sistema operacional, desta forma distribuiu-se o gerenciamento temporal das tarefas entre a plataforma IBM-PC e a unidade de co-processamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O tráfego de veículos, principalmente nas vias públicas de regiões densamente povoadas, tem sido objeto de preocupação por diversos aspectos: segurança no trânsito, supervisão da frota, controle de poluição, prevenção, registro de irregularidades, etc. Sistemas eletrônicos tradicionais são apontados como limitados pelas dificuldades apresentadas na instalação dos sensores e poucos recursos para extração de informações. Este trabalho propõe um sistema baseado no processamento digital de imagens em vídeo para detectar, acompanhar e extrair informações de um veículo em movimento, tais como: posição, velocidade e dimensões. Embora técnicas de pré-processamento sejam empregadas para minimizar problemas iluminação e trepidação, informações obtidas nas etapas finais do processamento, tendem a distorcer em função destes fatores. Algoritmos baseados em análise probabilística no domínio espaço temporal de imagens 2-D são propostos para segmentar o objeto mesmo na presença destes fatores. A fim de tornar o acompanhamento mais robusto a oclusões e pixels espúrio s, é proposto um método que detecta e rejeita posições inconsistentes do objeto de acordo com a estimativa de sua próxima posição.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A seqüência de nucleotídeos codificante do peptídeo derivado da hidrólise da canatoxina (jaburetox-2Ec), foi clonada e expressa nos sistema pET101/E. coli BL 21. Neste trabalho, estudamos a estabilidade dos plasmídeos da série pET contendo a seqüência codificante do jaburetox-2Ec no sistema de expressão E. coli BL 21 (Mulinari, 2004), e as condições para aumentar produção do peptídeo recombinante, avaliando a velocidade de transferência de oxigênio, o controle do pH, e a utilização da lactose como indutor em substituição ao IPTG. O cultivo da bactéria recombinante em incubadora orbital contendo 10 g/l de lactose como indutor produziu 1,26 μg de jaburetox-2Ec/mg de proteína total após oito horas de cultivo. A estabilidade do plasmídeo e a expressão do peptídeo recombinante foram estudadas em biorreatores. A expressão do jaburetox-2Ec foi fortemente afetada pelo pH da cultura, com a diminuição de mais de 50 % da concentração desse peptídeo quando ocorre acidificação do meio de cultura. Da mesma forma, o aumento da aeração e agitação tem efeito negativo sobre a produção do peptídeo, diminuindo em sete vezes a produção do jaburetox-2Ec Apesar do aumento da biomassa devido ao cultivo da E. coli recombinante em meio mínimo, contendo como fonte de carbono a glicose, isto não representou aumento da concentração do peptídeo recombinante. Contudo, sob a melhor condição de cultivo em biorreator estudada (pH controlado e menor transferência de oxigênio), obteve-se uma produção de 7,14 μg de jaburetox-2Ec/mg de proteína total, representando em torno de 2 % da proteína total da célula. Em todas as bateladas, após atingir a máxima expressão do peptídeo, essa concentração diminui provavelmente devido à atividade das proteases da célula causando a degradação do peptídeo recombinante. A carga metabólica imposta à célula devido à expressão do jaburetox-2Ec, é uma das possíveis causas da instabilidade do plasmídeo observada em todas as bateladas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, discutimos o movimento de uma macromolécula carregada em um fluido ionizado. A interação do campo elétrico é descrita pela equação de Poisson-Boltzmann acoplada às equações governantes para a dinâmica do fluido e às equações dinâmicas da partícula. Uma formulação fraca é introduzida no caso em que o domínio ocupado pelo fluido é finito e um teorema de existência de soluções fracas, local em tempo, é estabelecido. Dois modelos são considerados: fluxos não-estacionários e estacionários. No primeiro caso, a hidrodinâmica do sistema é governada pelas equações de Navier-Stokes, considerando-se um termo forçante relacionado ao potencial elétrico; no segundo caso, uma velocidade de deslizamento, a qual depende não linearmente sobre os potenciais, é introduzida como uma condição de contorno para um problema estacionário de Stokes. O caso de um fluido ocupando uma região infinita é também discutido supondo-se uma hipótese de aproximação sobre o campo elétrico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde a antigüidade a medição do escoamento dos fluidos tem sido uma marca de nossa civilização, ajudando a predizer a fertilidade das terras e o consumo d’água em fontes e aquedutos. Nos nossos dias, a área de medição de fluxo está bem estabelecida e ainda desperta grande interesse nas linhas de pesquisa da mecânica dos fluidos experimental e computacional. Em particular, o estudo da medição de fluxo com elementos intrusivos, tais como placas de orifício, é de grande interesse dado o preço baixo do medidor, e sua boa precisão quando comparada à sua simplicidade de instalação e manutenção. Esta dissertação tem como objetivo o estudo da aplicação de elementos finitos aos escoamentos de fluidos viscosos - via aproximação clássica de Galerkin e Galerkin/mínimos-quadrados (GLS) – com particular ênfase na aproximação das equações de Navier-Stokes incompressível no escoamento newtoniano através de um canal obstruído por uma placa de orifício. Inicialmente, são apresentadas as dificuldades do método de Galerkin clássico na aproximação de escoamentos incompressíveis; ou seja, através da simulação de escoamentos viscosos bem conhecidos - como o escoamento no interior de uma cavidade e através de uma expansão súbita - fica evidenciada a restrição imposta pela condição de Babuška-Brezzi quando da escolha dos subespaços aproximantes do campo de velocidade e pressão Como alternativa às patologias do método de Galerkin clássico, esta dissertação emprega a metodologia de Galerkin/mínimos-quadrados na simulação acima mencionada da placa de orifício, a qual permite o uso de elementos de igual-ordem para aproximar velocidade e pressão e capturar de maneira estável escoamentos sujeitos a altos números de Reynolds. Os testes computacionais realizados se apresentaram fisicamente realistas quando comparados com a literatura e dados experimentais, sendo todos desenvolvidos no Laboratório de Mecânica dos Fluidos Aplicada e Computacional (LAMAC) do Departamento de Engenharia Mecânica da Universidade Federal do Rio Grande do Sul.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A seqüência evaporítica Aptiana da Bacia de Santos constitui-se num dos maiores depósitos salíferos antigos conhecidos no mundo, tanto em área como em espessura. Esta última chega a atingir 2.500 m em alguns locais com baixa deformação. Devido à intensa halocinese ocorrida a partir do Albiano, sua estratificação deposicional ficou preservada em poucos locais. O Platô de São Paulo, feição fisiográfica que se estende até as águas profundas da Bacia de Santos, teve papel importante na preservação do acamadamento original. Dois poços e traços de uma seção sísmica, localizados nesta área, foram utilizados para o estudo cicloestratigráfico do pacote evaporítico. A correlação dos dois poços, a partir de seus perfis geofísicos, permitiu a identificação de um ciclo evaporítico principal com grande continuidade lateral e de espessura variável. Este ciclo deposicional foi classificado como do tipo brining upward/downward, e caracteriza-se pela precipitação rítmica de anidrita, halita, sais complexos, halita e, novamente, anidrita, no final de um ciclo e início do seguinte. Esta ordem de deposição foi interpretada como função da variação da espessura da lâmina de água e da concentração da salmoura. A análise cicloestratigráfica dos perfis geofísicos dos dois poços (raios gama, velocidade e densidade) e dos dois traços sísmicos resultou na correlação do principal ciclo identificado com o ciclo orbital de Milankovich de precessão longa, com 22 ka. Um outro ciclo secundário, com maior espessura, foi interpretado como resultado de variações climáticas em função do ciclo de obliqüidade, com um período de 39 ka. As taxas de deposição de cada ciclo são bastante variáveis em função da quantidade de cada tipo de evaporito. Através das análises cicloestratigráficas e do estudo das proporções em que cada sal ocorre, chegou-se a uma taxa de deposição da halita entre 10 e 11,5 m/ka, e de 0,61 a 0,64 m/ka para a anidrita. Esta diferença entre as taxas de deposição da halita e da anidrita explica a grande variação de espessura do ciclo principal, especialmente entre o depocentro e a borda da bacia. A menor concentração da salmoura nas proximidades da borda justifica uma menor espessura do ciclo e uma proporção bem maior de anidrita, quando se compara com uma deposição próxima ao depocentro. A cicloestratigrafia aplicada aos traços sísmicos apresentou resultados similares aos encontrados nos dois poços. A grande variação das propriedades físicas entre os diferentes tipos de evaporitos, especialmente entre a anidrita e os sais complexos, permite a intercalação de refletores com grande amplitude e continuidade. Foram contabilizados 22 ciclos nos dois traços analisados, os quais somados com o nível superior não analisado, mais rico em anidrita, totalizam 573 ka para a idade da seqüência evaporítica. Este resultado, mais os encontrados nos dois poços, permite uma previsão de tempo para a deposição de toda a seqüência entre 400 e 600 ka. Como um modelo mais provável para a deposição de toda a seqüência evaporítica, defende-se, neste trabalho, a hipótese de uma bacia profunda com lâmina de água também profunda. Os ciclos teriam se depositados a partir de mudanças de concentração da salmoura originadas pela variação de uma lâmina de água de cerca de 1000 m, na deposição da anidrita, para menos de 200 na deposição dos sais complexos, na parte mais profunda da bacia. Corroboram para este modelo, a grande continuidade, do depocentro até as bordas, das camadas de cada ciclo, a declividade, mesmo que bastante baixa, da bacia e a impossibilidade de valores de taxas de subsidência similares aos de deposição do ciclo evaporítico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

With the ever increasing demands for high complexity consumer electronic products, market pressures demand faster product development and lower cost. SoCbased design can provide the required design flexibility and speed by allowing the use of IP cores. However, testing costs in the SoC environment can reach a substantial percent of the total production cost. Analog testing costs may dominate the total test cost, as testing of analog circuits usually require functional verification of the circuit and special testing procedures. For RF analog circuits commonly used in wireless applications, testing is further complicated because of the high frequencies involved. In summary, reducing analog test cost is of major importance in the electronic industry today. BIST techniques for analog circuits, though potentially able to solve the analog test cost problem, have some limitations. Some techniques are circuit dependent, requiring reconfiguration of the circuit being tested, and are generally not usable in RF circuits. In the SoC environment, as processing and memory resources are available, they could be used in the test. However, the overhead for adding additional AD and DA converters may be too costly for most systems, and analog routing of signals may not be feasible and may introduce signal distortion. In this work a simple and low cost digitizer is used instead of an ADC in order to enable analog testing strategies to be implemented in a SoC environment. Thanks to the low analog area overhead of the converter, multiple analog test points can be observed and specific analog test strategies can be enabled. As the digitizer is always connected to the analog test point, it is not necessary to include muxes and switches that would degrade the signal path. For RF analog circuits, this is specially useful, as the circuit impedance is fixed and the influence of the digitizer can be accounted for in the design phase. Thanks to the simplicity of the converter, it is able to reach higher frequencies, and enables the implementation of low cost RF test strategies. The digitizer has been applied successfully in the testing of both low frequency and RF analog circuits. Also, as testing is based on frequency-domain characteristics, nonlinear characteristics like intermodulation products can also be evaluated. Specifically, practical results were obtained for prototyped base band filters and a 100MHz mixer. The application of the converter for noise figure evaluation was also addressed, and experimental results for low frequency amplifiers using conventional opamps were obtained. The proposed method is able to enhance the testability of current mixed-signal designs, being suitable for the SoC environment used in many industrial products nowadays.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho teve como objetivo o desenvolvimento de uma nova técnica para determinação do tamanho médio e da distribuição de tamanho de bolhas de ar em meio aquoso. A nova técnica, denominada de LTM-BSizer, uma vez otimizada, foi aplicada na caracterização das bolhas geradas por diversos métodos utilizados tanto na flotação para tratamento de efluentes líquidos quanto na flotação de partículas minerais e, principalmente, na investigação de parâmetros operacionais e do efeito do tamanho de bolhas na flotação de partículas minerais (quartzo como modelo) finas (40-10 µm) e ultrafinas (<10 µm). A técnica LTM-BSizer é baseada no conceito da captura, ou seja, ao contrário das técnicas fotográficas até agora propostas, onde as imagens (fotos ou vídeos) das bolhas em movimento foram obtidas com visores verticais, este método obteve as imagens das bolhas estabilizadas em um visor disposto na horizontal. Entre as vantagens em relação aos métodos fotográficos existentes destacam-se a melhor qualidade das imagens e a capacidade de medir distribuições de tamanho de bolha com grande amplitude, desde microbolhas (<100 µm) até bolhas maiores (~ 1 a 3 mm). Os métodos de geração de bolhas pesquisados foram: microbolhas geradas por despressurização de água saturada com ar em um vaso saturador (processo de flotação por ar dissolvido-FAD) ou por uma bomba centrífuga multifase (novo equipamento para geração de microbolhas), injeção de mistura ar-líquido através de um constritor tipo venturi (destaque na flotação não convencional), injeção de ar em cilindro inox poroso (comumente aplicado para dispersão de gás) e bolhas geradas em uma célula de flotação por ar induzido (FAI), convencional de bancada Para todos os métodos citados, exceto o último, a distribuição de tamanho de bolha foi avaliada numa coluna em acrílico com 200 cm de altura e 72 mm de diâmetro, onde através de um ponto de amostragem parte do fluxo foi conduzida até o visor. Os resultados obtidos com esta técnica foram, para os diâmetros médios de bolha: 30 a 70 µm para FAD, 65 a 130 µm para bomba multifase, 200 a 1400 µm para venturi, 500 a 1300 µm para FAI e 500 a 1000 µm para o cilindro poroso. A influência de alguns parâmetros operacionais na formação das bolhas foi estudada em detalhe e os resultados obtidos mostraram uma boa correspondência com os valores encontrados na literatura e em outros casos, elucidaram efeitos considerados contraditórios na literatura técnica. Este trabalho demonstrou que, o tamanho médio e a distribuição de tamanho das microbolhas, não são influenciados pela pressão de saturação no intervalo de 294 a 588 kPa, mas sim pela quantidade de bolhas e pelo tempo de retenção Também foi constatado que a diminuição da tensão superficial da água (adição de 30 mg/L de oleato de sódio) aumenta consideravelmente (3 a 8 vezes) o número de microbolhas na FAD a baixas pressões de saturação (196 e 294 kPa). O tamanho e a distribuição de tamanho de bolhas geradas em constrições de fluxo tipo venturi variam em função dos parâmetros concentração de tensoativo, velocidade superficial de líquido (UL) e razão gás/líquido (Qr). Uma pequena diminuição da tensão superficial, de 73 para 68 mN/m, provocada pela adição de 20 mg/L do tensoativo DF 250, foi suficiente para diminuir consideravelmente o tamanho das bolhas geradas, permanecendo constante para concentrações maiores, sugerindo que esta seja a concentração crítica de coalescência (CCC) para este sistema. Um aumento de UL (mantendo Qr constante) e diminuição de Qr (com UL constante) levaram a distribuições com menor amplitude e diâmetro médio. No caso das microbolhas geradas através da bomba multifase, o tamanho de bolhas diminuiu com a pressão até atingir o limite de solubilidade teórico ar/líquido. O tamanho das bolhas gerados através de placa porosa e FAI apresentaram boa correspondência com os reportados na literatura e em ambas as técnicas foi, de novo, encontrada, para DF 250, a mesma CCC igual a 20 mg/L. O sistema de flotação de partículas finas e ultrafinas, foi estudado via recuperação de finos de quartzo (50% < 10µm) em coluna de laboratório. As variáveis estudadas foram; a distribuição de tamanho de bolhas e a concentração de coletor (amina). Os resultados obtidos mostraram que a recuperação das frações mais finas aumenta com a diminuição do tamanho de bolhas de acordo com os modelos existentes de flotação. Entretanto, foi encontrado, na captura de partículas ultrafinas pelas bolhas, um valor ótimo de tamanho de partícula. Assim, a captura diminui com o tamanho de partícula até 5-7 µm e aumenta, de novo, nas frações menores. Esses resultados são discutidos em termos de um mecanismo de difusão como fenômeno predominante nos mecanismos de adesão bolha-partícula.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A validação de projetos de sistemas eletrônicos pode ser feita de diversas maneiras, como tem sido mostrado pelas pesquisas em síntese automática e verificação formal. Porém, a simulação ainda é o método mais utilizado. O projeto de um sistema digital típico pode ser desenvolvido em diversos níveis de abstração, como os níveis algorítmico, lógico ou analógico. Assim, a simulação também deve ser executada em todos esses níveis. A simulação apresenta, contudo, o inconveniente de não conseguir conciliar uma alta acuracidade de resultados com um baixo tempo de simulação. Quanto mais detalhada é a descrição do circuito, maior é o tempo necessário para simulá-lo. O inverso também é verdadeiro, ou seja, quanto menor for a acuracidade exigida, menor será o tempo dispendido. A simulação multinível tenta conciliar eficiêencia e acuracidade na simulação de circuitos digitais, propondo que partes do circuito sejam descritas em diferentes níveis de abstração. Com isso, somente as partes mais críticas do sistema são descritas em detalhes e a velocidade da simulação aumenta. Contudo, essa abordagem não é suficiente para oferecer um grande aumento na velocidade de simulação de grandes circuitos. Assim, surge como alternativa a aplicação de técnicas de processamento distribuído à simulação multinível. Os aspectos que envolvem a combinação dessas duas técnicas são abordados nesse trabalho. Como plataforma para os estudos realizados, optou-se por usar duas ferramentas desenvolvidas nessa Universidade: os simuladores do Sistema AMPLO e o Sistema Operacional HetNOS. São estudadas técnicas de sincronização em sistemas distribuídos, fundamentais para o desenvolvimento dos simuladores e, finalmente, são propostas alternativas para a distribuição dos simuladores. É realizada, ainda, uma análise comparativa entre as versões propostas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução: Embora a imagem com segunda harmônica esteja largamente disponível na maioria dos aparelhos de ultra-sonografia, sua acurácia para avaliar a morfologia e a função do apêndice atrial esquerdo (AAE) permanece precariamente caracterizada. Objetivos: Explorar o desempenho diagnóstico da ecocardiografia transtorácica com segunda harmônica (ETTsh) na avaliação do AAE após eventos neurológicos agudos. Métodos: Realizamos um estudo transversal em pacientes com eventos neurológicos isquêmicos agudos, encaminhados para realização de ETTsh e Ecocardiografia Transesofágica (ETE). As análises da área longitudinal máxima e do pico da velocidade de esvaziamento de fluxo do AAE foram realizadas por observadores cegos. Resultados: Foram avaliados 51 pacientes (49% femininas, 62 ± 12 anos) com eventos neurológicos isquêmicos agudos. Contraste ecocardiográfico espontâneo foi observado em 11 (22%) pacientes no AE, em 7(14%) no AAE e em 3 (6%) na aorta torácica descendente. Trombo no AAE foi identificado em apenas 2 (4%) pacientes. O mapeamento e a análise do AAE foi factível na maioria dos casos (98%), tanto para o estudo com Doppler quanto para avaliação da área do AAE. Observamos uma associação positiva e significativa entre o ETTsh e o ETE, tanto para a avaliação das velocidades máximas de esvaziamento do AAE (r=0,63; p<0,001) quanto para a área longitudinal máxima do AAE (r=0,73; p<0,001). Ademais, todos os pacientes com trombos no AAE ou contraste espontâneo (n=7) tiveram velocidade de esvaziamento inferior a 50 cm/s no mapeamento transtorácico (valor preditivo negativo de 100%). Na análise multivariada ajustada para diversos potenciais preditores transtorácicos de risco, a velocidade máxima de esvaziamento do AAE permaneceu independentemente associada com trombos no AAE ou contraste espontâneo. Conclusão: ETTsh pode fornecer informações relevantes a respeito da morfologia e dinâmica do AAE. Em particular, pacientes com velocidades altas de esvaziamento do AAE podem não necessitar de avaliação adicional com ETE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho utilizamos inicialmente as descrições dos possíveis modelos mentais construídos por estudantes de Física Geral na área de Mecânica Clássica, segundo a perspectiva teórica de Philip N. Johnson-Laird (1983), pesquisadas por Lagreca (1997 e 1999). A partir destas descrições, estendemos seus resultados de acordo com uma revisão da literatura, procurando a formação de possíveis modelos simuláveis computacionalmente. O Qsim (Kuipers, 1994) foi o algoritmo de simulação escolhido para o nosso trabalho, devido à semelhança com pesquisas analíticas encontradas sobre o pensamento dos estudantes. Para a simulação, implementamos dois modelos. O modelo newtoniano utiliza noções semelhantes às idéias de Newton, pelo menos com as forças de contato e o atrito com dependência direta com a velocidade. O modelo do impetus possui a concepção de força proporcional à velocidade com o atrito constante. Neste último caso não foi possível a construção de simulações a partir de um atrito dependente da velocidade, devido ao reconhecimento do programa de apenas uma única função crescente. Além disso, simulamos três modelos provenientes do modelo do impetus quando a situação envolve queda na presença da força gravitacional Para a simulação dos modelos, selecionamos alguns problemas para estudo. Iniciamos com o estudo do movimento horizontal e, em seguida, os problemas do páraquedista, do penhasco e do movimento balístico. Comparamos os resultados com algumas concepções dos estudantes encontradas em pesquisas analítico-qualitativas, mostrando que muitas concepções surgiam naturalmente da manipulação dos modelos nos problemas. Isto sugere que a abordagem dos modelos mentais seja mais ampla que a das concepções alternativas e que muitas dessas concepções possam ser reflexos da manipulação dos modelos em algumas situações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nas últimas décadas, o papel do Governo brasileiro na oferta de habitação de interesse social tem sofrido mudanças, com a participação mais ativa do setor privado no desenvolvimento de produtos. Isto tem levado à crescente complexidade financeira, regulamentar, ambiental, social e técnica. Um grande número de profissionais é envolvido, demandando muito esforço no gerenciamento de requisitos conflitantes e trade-offs. Além disso, o aumento na velocidade das inovações tecnológicas e a crescente exigência por qualidade por parte dos clientes tem demandado mudanças no processo de desenvolvimento do produto (PDP) no sentido de aumentar o seu valor do ponto de vista do cliente final. O objetivo principal deste trabalho é identificar oportunidades de melhorias para o gerenciamento de requisitos do cliente em empreendimentos do Programa de Arrendamento Residencial (PAR), no contexto atual brasileiro. Este programa é uma nova forma de provisão habitacional, gerenciada pela Caixa Econômica Federal. O desenvolvimento desta pesquisa foi dividido em três etapas. A Etapa A teve como objetivo principal a compreensão do PDP de empreendimentos PAR, através da elaboração de um modelo descritivo. Para tanto, foram realizados sete estudos de caso, analisando o desenvolvimento de diferentes empreendimentos do PAR, além de entrevistas semi-estruturadas com diversos agentes do processo. A Etapa B teve como objetivo a captação de requisitos do cliente final de empreendimentos do PAR, realizada através de quatros estudos de caso. Na última etapa, foram realizados nove seminários, em oito cidades brasileiras, para apresentar os resultados a técnicos da CEF, Prefeituras Municipais e empresas construtoras. As principais contribuições deste trabalho dizem respeito a melhorias na captação de requisitos do cliente final e à compreensão da diversidade dos requisitos dos clientes finais desse modo de provisão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

o monitoramento da expansão das áreas urbanas e a análise da sua interação com o meio físico têm sido um grande desafio para os técnicos de planejamento urbano. No Brasil, em especial, dada a velocidade com que o fenômeno se processa e graças a um crescimento desordenado das cidades nas últimas décadas, esses estudos, que envolvem um elevado número de informações, tem exigido decisões e diagnósticos urbanos cada vez mais rápidos. Esta dissertação propõe uma metodologia para o planejamento racional do uso do solo urbano através do emprego integrado de tecnologias recentes como Sistema de Informações Geográficas (SIG), Modelagem Numérica do Terreno (MNT) e Sensoriamento Remoto através de imagens orbitais. Para isso, são implementados no SIG desenvolvido pelo INPE dados provenientes de cartas topográficas, de mapas temáticos do meio físico e de imagens orbitais LANSAT/TM da região estudada. A partir desses dados iniciais são geradas, também num SIG, outras informações com objetivo de estudar a evolução da área urbana, identificar áreas com suscetibilidade preliminar à erosão laminar, áreas com restrição ao uso urbano e áreas de eventos perigosos e riscos. o trabalho apresenta inicialmente uma revisão bibliográfica sobre a aplicação de Sensoriamento Remoto, Modelagem Numérica do Terreno (MNT) e Sistema de Informações Geográficas (SIG) em estudos urbanos. Segue-se a conceituação e aspectos teóricos dessas três ferramentas básicas utilizadas. A metodologia propriamente dita traz os planos de informações originais e as suas respectivas fontes de informações, os processos de classificação de imagens digitais empregados e os modelos de cruzamentos desenvolvidos para um SIG. A área teste escolhida é a sub-bacia do Arroio Feijó, localizada na região metropolitana de Porto Alegre, na porção centro-leste do Estado do Rio Grande do Sul. A região é caracterizada por uma elevada densidade populacional, pela presença de áreas inundáveis e pela ocorrência de processos eroslVOS. Os resultados mostram que a metodologia proposta é adequada e eficiente para agilizar as atividades de planejamento urbano, subsidiando a elaboração de Planos Diretores de Desenvolvimento Integrado e orientando o crescimento das cidades para regiões mais favoráveis. Além disso, contribui para a prevenção de parcela dos riscos e problemas geotécnicos relacionados ao meio físico nas áreas urbanas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A crescente preocupação com a qualidade e durabilidade das estruturas de concreto tem gerado grandes avanços na tecnologia do concreto, porém existem muitas questões ligadas aos processos de deterioração ainda a serem esclarecidas. Entre os vários processos que afetam a durabilidade do concreto, encontra-se a reação álcali-agregado (RAA), um fenômeno bastante complexo, mas que foi descoberto há muitos anos, porém responsável por ter afetado mais de 140 barragens no mundo. Ainda não se dispõe de uma maneira totalmente eficiente e econômica de combater a reação, uma vez instalada no concreto. A presente pesquisa aborda, do ponto de vista científico e tecnológico, o tema RAA. A investigação se deu em três etapas. Na primeira, o objetivo principal foi estudar aproximadamente cem testemunhos de concreto, provenientes de uma estrutura de usina hidrelétrica já afetada pela RAA, e verificar o reflexo desta patologia nas suas propriedades como a resistência à compressão, à tração, módulo de elasticidade, velocidade de pulsos ultra-sônicos e permeabilidade. Em conjunto, foram realizados ensaios para avaliar expansões residuais e investigações microscópicas com o objetivo de verificar os agentes causadores da reação. Na segunda etapa, o agregado quartzito, proveniente da região da usina hidrelétrica avaliada, foi estudado, desde análises microscópicas, ensaios de expansão em argamassas e concretos até a determinação das propriedades de concretos confeccionados em laboratório. As propriedades avaliadas foram as mesmas dos testemunhos. Nas duas primeiras etapas realizadas, o papel do lítio também foi abordado com o objetivo de verificar a sua eficiência no combate a RAA Por fim, na terceira etapa, foi realizado um amplo estudo do gel exsudado coletado na superfície do concreto da estrutura deteriorada pela RAA. O estudo envolveu desde a sua simples caracterização através da determinação de suas propriedades até uma caracterização avançada fazendo-se o emprego de técnicas como a difração de raios X, microscopia eletrônica de varredura, análise térmica, espectroscopia no infravermelho e espectroscopia de ressonância nuclear magnética. Nesta etapa, o lítio também foi abordado com o objetivo de se verificar o seu efeito no gel exsudado. Os resultados com os testemunhos de concreto indicam que houve reflexos negativos em algumas propriedades devido a RAA, destacando o módulo de elasticidade. Verificou-se ainda a existência de expansões residuais nos testemunhos de concreto extraídos quando expostos a determinadas condições ambientais. Nos ensaios de expansão com os testemunhos, o lítio se mostrou capaz de reduzir em parte as expansões residuais nos testemunhos de concreto estudados. Adicionalmente, o agregado quartzito provou ser bastante reativo, chegando a expansões de 0,24% nas argamassas pelo método acelerado e 0,09% nos prismas de concreto, nas idades de 16 e 365 dias, respectivamente. Entre as propriedades estudadas nos concretos moldados, e atacados em laboratório, verificou-se também que o módulo de elasticidade foi a propriedade mais afetada no tempo. Ainda o lítio nesta etapa também mostrou algum efeito positivo nas expansões. No estudo do gel exsudado, foi possível caracterizá-lo como um silicato de potássio hidratado com grande potencialidade para expandir. A partir principalmente da ressonância nuclear magnética, verificou-se que o potássio faz parte da estrutura do gel enquanto que o sódio se apresenta combinado na forma de trona, um produto cristalizado que se encontra segregado na rede do silicato de potássio amorfo. O lítio em contato com o gel se mostrou capaz de afetar a sua estrutura através das alterações observadas por ressonância nas ligações do silício.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A tendência atual de desenvolvimento de novos equipamentos geotécnicos combina diferentes técnicas, aliando a robustez do ensaio de cone às informações adicionais de outros ensaios. O cone sísmico constitui-se em exemplo típico adotado internacionalmente. Geofones ou acelerômetros podem ser incorporados ao fuste do cone para medida de velocidade de propagação de ondas de compressão e cisalhamento. O cone possibilita uma estimativa da resistência ao cisalhamento de materiais geotécnicos, enquanto as medias sísmicas permitem medir o módulo cisalhante a pequenas deformações. A combinação de valores de resistência e deformabilidade, expressa através da razão entre Go/qc, pode representar uma alternativa importante na caracterização de solos. Nesta dissertação o cone sísmico foi projetado, construído, calibrado e testado no depósito argiloso do Aeroporto Internacional Salgado Filho em Porto Alegre. O equipamento é composto de um módulo onde são acondicionados dois sensores (geofones), distantes de 1,0 m, para a captação das ondas de cisalhamento. Os sinais são captados e enviados para um pré-amplificador com filtro, acondicionado no módulo sísmico, sendo posteriormente conduzidos para um segundo amplificador cuja taxa de amplificação pode ser regulada. O sinal adquirido é armazenado em um computador para análise posterior O ensaio de cone sísmico consiste basicamente na geração de uma onda de cisalhamento na superfície do solo e seu armazenamento com o sistema de aquisição de sinais. A determinação do módulo de cisalhamento é feita através da teoria da elasticidade, medindo-se os tempos de chegada da onda de cisalhamento em cada geofone e calculando-se a velocidade de percurso da onda entre os dois sensores. O trabalho contempla o desenvolvimento do cone sísmico, montagem, calibração e aplicação na Área do Aeroporto Internacional Salgado Filho. Os resultados obtidos são comparados a resultados de ensaios de cross-hole existentes no referido local.