854 resultados para móveis
Resumo:
A motivação geológica deste trabalho reside no imageamento de estruturas de bacias sedimentares da região Amazônica, onde a geração e o acúmulo de hidrocarboneto estão relacionados com a presença de soleiras de diabásio. A motivação sísmica reside no fato de que essas rochas intrusivas possuem grandes contrastes de impedância com a rocha encaixante, o que resulta em múltiplas, externas e internas, com amplitudes semelhantes as das primárias. O sinal sísmico das múltiplas podem predominar sobre o sinal das reflexões primárias oriundas de interfaces mais profundas, o que pode dificultar o processamento, a interpretação e o imageamento da seção sísmica temporal. Neste trabalho, estudamos a atenuação de múltiplas em seções sintéticas fonte-comum (FC) através da comparação de dois métodos. O primeiro método resulta da combinação das técnicas Wiener-Hopf-Levinson de predição (WHLP) e o de empilhamento superfície-de-reflexão-comum (CRS), e denominando WHLP-CRS, onde o operador é desenhado exclusivamente no domínio do tempo-espaço. O segundo método utilizado é o filtro de velocidade (ω-k) aplicado após o empilhamento superfície-de-reflexão (CRS), onde o operador é desenhado exclusivamente no domínio bidimensional de freqüência temporal-espacial. A identificação das múltiplas é feita na seção de afastamento-nulo (AN) simulada com o empilhamento CRS, e utiliza o critério da periodicidade entre primária e suas múltiplas. Os atributos da frente de onda, obtidos através do empilhamento CRS, são utilizados na definição de janelas móveis no domínio tempo-espaço, que são usadas para calcular o operador WHLP-CRS. O cálculo do filtroω-k é realizado no domínio da freqüência temporal-espacial, onde os eventos são selecionados para corte ou passagem. O filtro (ω-k) é classificado como filtro de corte, com alteração de amplitude, mas não de fase, e limites práticos são impostos pela amostragem tempo-espaço. Em termos práticos, concluímos que, para o caso de múltiplas, os eventos separados no domínio x-t não necessariamente se separam no domínio ω-k, o que dificulta o desenho de um operador ω-k semelhante em performance ao operador x-t.
Resumo:
Os maiores problemas de contaminação de aquíferos e solos são atribuídos aos hidrocarbonetos monoaromáticos, que são os constituintes mais solúveis e mais móveis da fração de algumas substâncias, como por exemplo, da gasolina. Para a remoção destes contaminantes, a adsorção por carvão ativado é o método mais utilizado, pois o carvão apresenta uma habilidade significativa para adsorver componentes orgânicos de baixo peso molecular, como o benzeno, o tolueno e o p-xileno. Neste trabalho, verificou-se a adsorção dos mesmos sobre carvão ativado via simulação computacional. Como base, utilizou-se o modelo postulado de carvão preparado por Bourke et al. (2007). Várias etapas foram concluídas desde os modelos das estruturas do carvão e dos poluentes até as simulações de dinâmica molecular. Para a análise conformacional da estrutura do carvão, foi utilizado o método semi-empírico PM3 e para o processo de dinâmica, o campo de força AMBER FF99SB. A estrutura passou por um aquecimento, à pressão constante, até alcançar uma temperatura final de 298K (25ºC), sendo suas informações coletadas a cada 50ps. Posteriormente, a estrutura foi submetida a equilíbrio de sistema, à temperatura constante de 298K (25ºC), por 500ps para então suas informações serem analisadas. Por fim, o sistema foi então submetido à dinâmica molecular durante 15 ns. Após análise dos resultados, constatou-se que os grupos éter, lactona e carbonila (cetona) presentes na estrutura de carvão ativado conferem caráter ácido à mesma e devido a isto e à sua consequente carga superficial negativa, a adsorção tornou-se viável uma vez que os poluentes apresentavam carga superficial positiva, o que corrobora o entendimento que já se tem a respeito desse tipo de fenômeno.
Resumo:
A crescente demanda por capacidade vem levando os padrões de comunicação sem-fio a prover suporte para a coexistência de macro e pico células. O backhaul, conexão entre a rede de acesso e o núcleo da rede, é de grande interesse neste contexto devido aos diversos desafios técnicos e financeiros envolvidos ao tentar satisfazer o crescente tráfego dos usuários. Fibra óptica e micro-ondas com linha de visada são as opções mais amplamente adotadas para o backhaul de macro-células. Contudo, em muitas situações de interesse prático, estas não são factíveis devido aos altos custos e logística envolvidos. Este trabalho avalia o backhaul de pico-células, focando primeiramente na utilização de cobre como backhaul. O simulador OPNET foi utilizado para avaliar os requerimentos de backhaul para redes móveis em cenários específicos considerando garantir qualidade de serviço para os diversos tipos de tráfego envolvidos. Assumindo demandas de tráfego para LTE e LTE-Advanced, as tecnologias VDSL2 e G.fast são avaliadas e os resultados mostram que mesmo com uma grande demanda de aplicações de vídeo de alta definição, estas tecnologias podem acomodar o tráfego no backhaul de pico-células. VDSL2 é capaz de prover as taxas requeridas para cenários de pico-células LTE, mas não é capaz de acomodar tráfego LTE-Advanced típico. Por outro lado, considerando as taxas atingidas com a tecnologia G.fast, o tráfego backhaul para pico-células LTE-Advanced pode ainda ser entregue com garantias de qualidade de serviço. Neste trabalho também é proposta uma solução para simulação de cenários contendo redes de acesso heterogêneas considerando backhaul LTE sem linha de visada. São demonstrados também os resultados de simulações no OPNET com o backhaul LTE proposto para validar a solução proposta como capaz de caracterizar o tráfego de ambas as tecnologias WiFi e LTE na rede de acesso de acordo com o tipo de serviço.
Resumo:
O volume de tráfego de dados em redes celulares está crescendo exponencialmente. A explosão do uso de dispositivos e aplicações móveis nos últimos anos, tem levado a uma sobrecarga da infraestrutura da rede responsável pelo escoamento desse tráfego, afetando tanto o desempenho da rede quanto a experiência do usuário. Um dos elementos-chave nas redes LTE (Long Term Evolution) é a possibilidade de implantação de múltiplas femtocells para a melhoria de cobertura e taxa de dados. No entanto, as sobreposições arbitrárias na cobertura dessas células tornam a gestão do mecanismo de handover complexo e desafiador. Nesse sentido, esta dissertação propõe uma metodologia para o estudo do impacto do handover em redes LTE com femtocells. A partir de uma abordagem de simulação discreta, os efeitos da implantação de femtocells foram avaliados. Objetivou-se com isso, mensurar os impactos e a correlação do uso de femtocell nos parâmetros de QoS (Quality of Service) e indicadores de desempenho de handover.
Resumo:
Este trabalho apresenta os resultados do reconhecimento e mapeamento dos ambientes costeiros da região do Golfão Maranhense, Brasil, utilizando uma abordagem metodológica que incluiu: (a) análise integrada com base no processamento digital de imagens, ópticas Landsat-4 TM e SPOT-2 HRV, de imagens SAR (Synthetic Aperture Radar) do RADARSAT-1, e dados de elevação da SRTM (Shuttle Radar Topography Mission); (b) sistema de informações geográficas; e (c) levantamentos de campo relativos à geomorfologia, topografia e sedimentologia. Os ambientes costeiros, assim mapeados foram agrupados em quatro setores: Setor 1, com pântanos salinos, pântanos de água doce, lagos intermitentes e canal estuarino; Setor 2, abrangendo tabuleiro costeiro, planície de maré lamosa, planície fluvial, planície de maré arenosa, praias de macromaré, área construída e lagos artificiais; Setor 3, com manguezal, paleodunas e planície de maré mista; e Setor 4, constituído por dunas móveis. Além disso, foram também reconhecidos lagos perenes, deltas de maré vazante e planícies de supramaré arenosas. O processamento digital e a análise visual das imagens de sensores remotos orbitais, associados ao uso de sistemas de informações geográficas, mostraram-se eficazes no mapeamento de zonas costeiras tropicais, possibilitando a geração de produtos com boa acurácia e precisão cartográfica.
Resumo:
O uso da comunicação de voz e dados através de dispositivos móveis vem aumentando significativamente nos últimos anos. Tal expansão traz algumas dificuldades inerentes, tais como: ampliação constante de capacidade das redes e eficiência energética. Neste contexto, vem se consolidando o conceito de Green networks, que se concentra no esforço para economia de energia e redução de CO2. Neste sentido, este trabalho propõe validar um modelo de uma política baseado em processo markoviano de decisão, visando a otimizar o consumo de energia, QoS e QoE, na alocação de usuários em redes macrocell e femtocell. Para isso o modelo foi inserido no simulador NS-2, aliando a solução analítica markoviana à flexibilidade característica da simulação discreta. A partir dos resultados apresentados na simulação, a política obteve uma economia significativa no consumo energético, melhorando a eficiência energética em até 4%, além de melhorar a qualidade de serviço em relação às redes macrocell e femtocell, demonstrando-se eficaz, de modo a alterar diretamente as métricas de QoS e de QoE.
Resumo:
O presente trabalho apresenta um projeto e análise de uma antena monopolo planar multibanda operante nas frequências de 2000 MHz, 2500 MHz e 3500 MHz para aplicação em dispositivos móveis 3G e 4G. Dentre essas faixas estão contidos os espectros 3G (1895- 2165 MHz), 4G (2500-2690 MHz) e 4G (3400-3600 MHz) utilizadas pelo LTE e WIMAX 3,5. Para o desenvolvimento desse estudo foi tomado como referência uma antena dual-band de Hua- Ming Chen projetada para operar em sistemas ISM 1800 MHz, redes Wireless e Bluetooth 2400 MHz. O projeto proposto neste trabalho é uma modificação na estrutura da antena dual-band adaptada para tripla ressonância simultânea em frequências utilizadas em redes móveis 4G. Para alcançar o objetivo proposto utilizou-se para simulação o software CST® MICROWAVE STUDIO baseado no método Integração Finita no Domínio, as simulações foram feitas no domínio do tempo. Após obtenção satisfatória dos resultados simulados, um protótipo da antena foi confeccionado para medição e teste, os resultados apresentados são coerentes aos obtidos na simulação, o que valida o método proposto.
Resumo:
A predição do preço da energia elétrica é uma questão importante para todos os participantes do mercado, para que decidam as estratégias mais adequadas e estabeleçam os contratos bilaterais que maximizem seus lucros e minimizem os seus riscos. O preço da energia tipicamente exibe sazonalidade, alta volatilidade e picos. Além disso, o preço da energia é influenciado por muitos fatores, tais como: demanda de energia, clima e preço de combustíveis. Este trabalho propõe uma nova abordagem híbrida para a predição de preços de energia no mercado de curto prazo. Tal abordagem combina os filtros autorregressivos integrados de médias móveis (ARIMA) e modelos de Redes Neurais (RNA) numa estrutura em cascata e utiliza variáveis explanatórias. Um processo em dois passos é aplicado. Na primeira etapa, as variáveis explanatórias são preditas. Na segunda etapa, os preços de energia são preditos usando os valores futuros das variáveis exploratórias. O modelo proposto considera uma predição de 12 passos (semanas) a frente e é aplicada ao mercado brasileiro, que possui características únicas de comportamento e adota o despacho centralizado baseado em custo. Os resultados mostram uma boa capacidade de predição de picos de preço e uma exatidão satisfatória de acordo com as medidas de erro e testes de perda de cauda quando comparado com técnicas tradicionais. Em caráter complementar, é proposto um modelo classificador composto de árvores de decisão e RNA, com objetivo de explicitar as regras de formação de preços e, em conjunto com o modelo preditor, atuar como uma ferramenta atrativa para mitigar os riscos da comercialização de energia.
Resumo:
O objetivo desse estudo foi analisar a relação entre descargas elétricas, associadas à precipitação dentro de áreas selecionadas no leste da Amazônia no período de setembro de 2008 a dezembro de 2010. Os estudos foram realizados dentro de um raio de 100 km centralizados em pluviômetros instalados das localidades de Belém, Caxiuanã e Santarém. Essas áreas foram escolhidas por encontrarem-se aproximadamente na mesma latitude, e vão se distanciando do Oceano Atlântico, buscando observar a sazonalidade dos sistemas precipitantes causadores de raios e sua penetração no continente, observando as características climatológica distintas de cada área. Os dados de chuvas foram obtidos através do banco de dados da ANA, RPCH, INMET e através do Projeto LBA. Os sistemas meteorológicos de grande escala acompanhados de sistemas de escala menores, parecem atuar primeiramente em Belém e vão adentrando o continente atingindo as outras áreas de estudo. Em Belém, também foram observadas as maiores ocorrências de raios comparados com Caxiuanã e Santarém, sendo que nessas localidades, os raios antecedem as chuvas em quase todas as observações. Foram observadas as defasagens dos máximos de ocorrências de raios e chuvas de aproximadamente dois meses acompanhando principalmente o sentido norte sul de deslocamento da ZCIT e seu acoplamento com outros sistemas de escala local ou de meso escala. Foi feito um estudo de caso em Belém e Santarém onde observou-se que a ZCIT não segue o mesmo padrão de deslocamento para as duas localidades , ou seja, ela atinge primeiramente Belém e aproximadamente três dias depois o sistema atingiu a cidade de Santarém. Mesmo com essa defasagem de tempo foi visto que nas duas localidades as ocorrências de raios antecederam as chuvas. Também foi realizado um estudo pioneiro dentro das bacias do Tocantins e Xingu sobre a relação entre raios e chuva, na tentativa de se desenvolver uma alternativa de método auxiliar para prognostico dos períodos de cheias e secas dentro dessas bacias através das ocorrências de raios sobre essas áreas. Os estudos mais detalhados foram realizados nas áreas a montante das barragens de Tocantins onde se encontra a usina hidroelétrica de Tucuruí, e dentro da área da bacia do Xingu onde está sendo construída a barragem de Belo Monte. Foram utilizados dados de precipitação pluviométrica das bacias do Tocantins e Xingu obtidos através da HIDROWEB-ANA operados pela CPRM dentro de cada área de estudo. Usando filtros de médias móveis foram observados que as melhores correlações entre raios e chuvas, se encontravam dentro da bacia do Tocantins, provavelmente pela influencia da presença da barragem na bacia do Tocantins onde possibilitou respostas positivas entre a relação da cota do rio com os raios. Considerando o fato de que o período de dois anos de dados não possuem peso estatístico suficiente para estabelecer relações definitivas entre raios e precipitação, os resultados apresentados devem ser considerados como preliminares. No entanto essa metodologia pode ser aplicada para subsidiar modelos de estimativas de precipitação em localidades selecionadas e aplicações no modelamento hidrológico de bacias hidrográficas, onde dados pluviométricos ainda são escassos no leste da Amazônia.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Pós-graduação em Ciência Florestal - FCA
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Para se realizar a técnica da quimigação é necessário que o sistema de irrigação possua um injetor para incorporar os produtos na água de irrigação. Dentre os métodos existentes, o que tem se destacado nos últimos anos é o injetor do tipo Venturi. Essa preferência tem sido motivada pela sua simplicidade, por não possuir peças móveis e ser de baixo custo. Apesar dessas vantagens, o uso do injetor Venturi, assim como os demais injetores, necessita de dispositivos de segurança que minimizem o risco de contaminação ambiental. Neste trabalho, objetivou-se analisar a influência da válvula de retenção na taxa de injeção de água de um injetor do tipo Venturi instalado em pivô central e seu rendimento. O dispositivo de injeção era constituído de um injetor Venturi de 1,5 polegadas associado a uma motobomba centrífuga de 2,2 kW. O equipamento foi instalado na base do pivô central. Foram tomados tempos de esvaziamento de um reservatório de volume de 20 litros. O delineamento experimental utilizado foi o inteiramente casualizado, sendo realizadas dez repetições em cada situação avaliada, ou seja, injetor equipado com válvula de retenção e sem a presença da mesma. Aplicou-se a análise de variância, seguida do teste de Tukey. Concluiu-se que a presença de válvula de retenção em injetores do tipo Venturi não influenciou de forma significativa as taxas de injeção e o rendimento, tendo este último apresentado valores da ordem de 10%.
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)