25 resultados para sacos móveis
Resumo:
Desde o início do século XX, a poluição do ar nos grandes centros piorou em consequência processo de industrialização e urbanização, juntamente com o rápido crescimento populacional e do transporte motorizado. Algumas espécies de plantas absorvem os poluentes atmosféricos pelas suas folhas e então, fixa-os em sua matriz, tornando-se assim um biomonitor de poluição nessa área. Assim, a análise foliar dessas espécies de vegetal pode ser usado como monitoramento ambiental. Uma das plantas que tem a habilidade de reter certos elementos químicos do ambiente e pode ser usada como biomonitor é a Nerium oleander L.. Neste estudo utilizou-se folhas de Nerium oleander L. para avaliar os níveis de poluição ambiental em uma sub-região da Região Metropolitana do Rio de Janeiro através da Fluorescência de Raios X (EDXRF). O sistema de EDXRF foi desenvolvido no próprio laboratório e consiste de um sistema portátil de XRF formado por um mini tubo raio X de baixa potência (anodo de Ag e operação em 20 kV/50 μA) e um detector de SiPIN. As amostras de Nerium oleander L. foram coletadas de plantas adultas. As amostras foram coletadas durante as quatros estações do ano (verão, outono, inverno e primavera). Todas as folhas foram coletadas a uma distância superior de 1,5 m em relação ao solo. As amostras foram acondicionadas em sacos plásticos e depois da chegada ao laboratório foram colocados sob refrigeração a 5 C. No laboratório, as amostras foram limpas com um pincel com cerdas macias para retirar a poeira. Depois disso, as amostras foram colocadas na estufa a 60 C por 48 h. Em seguida, as amostras foram pulverizadas (44 μm). Depois desse processo, alíquotas de 500 mg de massa foram prensadas a uma pressão de 2.32×108 por cerca de 15 minutos, afim de se obter pastilhas finas com diâmetro de 2,54 cm e densidade superficial de 100 mg/cm2. Foi possível detectar a concentração de 13 elementos: S, Cl, K, Ca, Mn, Fe, Cu, Zn, Br, Rb, Sr, Ba e Pb. A partir da concentração de cada elemento foram obtidos os mapas de distribuição elementar da área de estudo para cada estação. A análise da correlação de Pearson mostrou que existe uma correlação significativa entre os elementos Fe, Zn, Ba e Pb, entre os elementos Ca e Sr e entre os elementos Cl, K, Rb. A análise do PCA (Análise por Componentes Principais) mostrou que existem dois fatores principais da emissão de poluição ambiental: emissão por ressuspensão do solo (Cl, K, Ca, Mn, Rb e Sr) e emissões veiculares e industriais (Fe, Zn, Ba e Pb). O estudo da poluição ambiental através da técnica de EDXRF utilizando folhas de Nerium oleander L. como biomonitor se mostrou uma técnica de baixo custo e eficiência substancial na determinação da concentração elementar dos poluentes atmosféricos.
Resumo:
Recentemente as tecnologias digitais de informação e comunicação vêm promovendo alterações na forma como os mapas são produzidos, o que pode ser uma fonte de renovação na educação geográfica em tempos de cibercultura. Nos últimos anos, aplicativos e sites voltados para o mapeamento on-line tornaram-se mais uma forma de expressão da cultura digital. Esta dissertação consiste em uma investigação acerca das possíveis mediações das cartografias multimídias e colaborativas, construídas através de interfaces da internet, em processos de ensino e aprendizagem de geografia. Os mapas colaborativos digitais são representações cartográficas produzidas de forma interativa, descentralizada e em rede. Eles permitem a inserção colaborativa de conteúdos hipermidiáticos (textos, fotos, vídeos) georreferenciados e constituem uma forma alternativa e potencialmente subversiva de produção cartográfica. A pesquisa realizada com alunos do nono ano de uma escola da Rede Municipal de Itaboraí se deu a partir do desenvolvimento de um projeto de mapeamento da região onde os alunos vivem. Os resultados revelaram que estas práticas cartográficas podem contribuir para a superação do atual mal-estar na relação entre jovens e a cultura escolar, bem como favorecer a construção de práticas pedagógicas comprometidas com a formação de cidadãos críticos e engajados.
Resumo:
O dimensionamento de uma rede de monitoramento e controle da qualidade do ar requer o conhecimento da área onde os poluentes atmosféricos, emitidos por fontes fixas e móveis, tendem a se concentrar e os seus fenômenos de dispersão. A definição das áreas de monitoramento da poluição atmosférica na Região Metropolitana do Rio de Janeiro é um tema discutido desde o início dos anos 80 quando foram estabelecidas as bacias aéreas a partir de cartas topográficas. Este projeto consiste em pesquisa aplicada ao estabelecimento da configuração espacial e mapeamento das bacias aéreas a partir de dados digitais. Tal esforço é justificado em função do alcance dos beneficiados diretamente e à sociedade em geral, a partir do conhecimento das condições da qualidade do ar e seu comportamento ao longo do tempo. O estudo realizado se concentra na Região Metropolitana do Rio de Janeiro, com base em dados necessários para a avaliação da dinâmica das massas de ar na área de estudo e suas características para definição das novas bacias aéreas com suporte de um Sistema de Informação Geográfica (SIG). Apoiado nos dados cartográficos digitais e nos dados cadastrais das estações de monitoramento, foi projetado e implementado um SIG, em atendimento aos requisitos de mapeamento digital das bacias aéreas, da distribuição espacial das estações de monitoramento da qualidade do ar, das principais fontes de emissão de poluentes e das principais vias de circulação veicular, onde foram identificadas e mapeadas regiões com características semelhantes para diversos cenários com uso potencial do SIG. Foi criado um banco de dados georeferenciado, previamente modelado oferecendo consultas espaciais destinadas às necessidades de gestão ambiental. Com a utilização do SIG, foram identificadas áreas com deficiência no monitoramento, áreas críticas de poluição atmosférica e propostas as novas bacias aéreas delimitadas a partir dos dados digitais. O SIG se mostrou uma ferramenta eficiente para a gestão ambiental da qualidade do ar na RMRJ, pois permitiu em ambiente de escritório a representação dos elementos necessários para a avaliação da configuração espacial das bacias aéreas e proporcionou uma visualização dinâmica da distribuição espacial das estações de monitoramento nas bacias aéreas propostas.
Resumo:
O crescimento dos serviços de banda-larga em redes de comunicações móveis tem provocado uma demanda por dados cada vez mais rápidos e de qualidade. A tecnologia de redes móveis chamada LTE (Long Term Evolution) ou quarta geração (4G) surgiu com o objetivo de atender esta demanda por acesso sem fio a serviços, como acesso à Internet, jogos online, VoIP e vídeo conferência. O LTE faz parte das especificações do 3GPP releases 8 e 9, operando numa rede totalmente IP, provendo taxas de transmissão superiores a 100 Mbps (DL), 50 Mbps (UL), baixa latência (10 ms) e compatibilidade com as versões anteriores de redes móveis, 2G (GSM/EDGE) e 3G (UMTS/HSPA). O protocolo TCP desenvolvido para operar em redes cabeadas, apresenta baixo desempenho sobre canais sem fio, como redes móveis celulares, devido principalmente às características de desvanecimento seletivo, sombreamento e às altas taxas de erros provenientes da interface aérea. Como todas as perdas são interpretadas como causadas por congestionamento, o desempenho do protocolo é ruim. O objetivo desta dissertação é avaliar o desempenho de vários tipos de protocolo TCP através de simulações, sob a influência de interferência nos canais entre o terminal móvel (UE User Equipment) e um servidor remoto. Para isto utilizou-se o software NS3 (Network Simulator versão 3) e os protocolos TCP Westwood Plus, New Reno, Reno e Tahoe. Os resultados obtidos nos testes mostram que o protocolo TCP Westwood Plus possui um desempenho melhor que os outros. Os protocolos TCP New Reno e Reno tiveram desempenho muito semelhante devido ao modelo de interferência utilizada ter uma distribuição uniforme e, com isso, a possibilidade de perdas de bits consecutivos é baixa em uma mesma janela de transmissão. O TCP Tahoe, como era de se esperar, apresentou o pior desempenho dentre todos, pois o mesmo não possui o mecanismo de fast recovery e sua janela de congestionamento volta sempre para um segmento após o timeout. Observou-se ainda que o atraso tem grande importância no desempenho dos protocolos TCP, mas até do que a largura de banda dos links de acesso e de backbone, uma vez que, no cenário testado, o gargalo estava presente na interface aérea. As simulações com erros na interface aérea, introduzido com o script de fading (desvanecimento) do NS3, mostraram que o modo RLC AM (com reconhecimento) tem um desempenho melhor para aplicações de transferência de arquivos em ambientes ruidosos do que o modo RLC UM sem reconhecimento.
Resumo:
Esta pesquisa traz um panorama do mercado jornalístico para tablet. Classifica as variações de publicações digitais. Mostra os hábitos de leitura em dispositivos móveis e as formas de negócios. Apresenta como o designer se posiciona nesse fluxo de trabalho. Analisa o caso do jornal O Globo, que, com produtos impressos e digitais, proporcionou entrevistas com designers de diversas mídias. Ainda há a análise de O Globo a Mais, revista exclusivamente digital.
Resumo:
As emissões atmosféricas têm sido consideradas por especialistas, poder público, iniciativa privada e organizações ambientalistas, um dos maiores impactos ambientais que o planeta vem enfrentando. Neste contexto estão tanto as fontes estacionárias quanto as fontes móveis. Ao mesmo tempo em que se lançam na atmosfera milhões de toneladas de poluentes a cada ano através da indústria, o homem procura soluções alternativas através de fontes de energia limpa. Adicionalmente, procura-se ao diminuir as emissões das fontes fixas exercer melhor controle e tratamento. Apresenta-se nesse trabalho, a possibilidade da implementação de ações que visem minimizar o impacto causado pelas caldeiras geradoras de energia, em especial as que operam com queimadores convencionais. Experimentou-se um procedimento capaz de ser utilizado de imediato pelas indústrias, antes mesmo de se implementar inovações tecnológicas, que demandam tempo e recursos. Desta forma, pode-se reduzir, de maneira imediata, o volume de poluentes lançados diariamente na atmosfera, em especial o monóxido de carbono, CO, os óxidos de nitrogênio, NOx, e o material particulado, MP. Objetivou-se atingir um nível de emissões capaz de minimizar o custo do dano, sem perder a eficiência da combustão. Apresenta-se ainda a base metodológica de um modelo, utilizando-se a lógica difusa, como forma de se obter um controle e confiabilidade na gestão das emissões.
Resumo:
Apesar de serem intensamente estudados em muitos países que caminham na vanguarda do conhecimento, os métodos sem malha ainda são pouco explorados pelas universidades brasileiras. De modo a gerar uma maior difusão ou, para a maioria, fazer sua introdução, esta dissertação objetiva efetuar o entendimento dos métodos sem malha baseando-se em aplicações atinentes à mecânica dos sólidos. Para tanto, são apresentados os conceitos primários dos métodos sem malha e o seu desenvolvimento histórico desde sua origem no método smooth particle hydrodynamic até o método da partição da unidade, sua forma mais abrangente. Dentro deste contexto, foi investigada detalhadamente a forma mais tradicional dos métodos sem malha: o método de Galerkin sem elementos, e também um método diferenciado: o método de interpolação de ponto. Assim, por meio de aplicações em análises de barras e chapas em estado plano de tensão, são apresentadas as características, virtudes e deficiências desses métodos em comparação aos métodos tradicionais, como o método dos elementos finitos. É realizado ainda um estudo em uma importante área de aplicação dos métodos sem malha, a mecânica da fratura, buscando compreender como é efetuada a representação computacional da trinca, com especialidade, por meio dos critérios de visibilidade e de difração. Utilizando-se esses critérios e os conceitos da mecânica da fratura, é calculado o fator de intensidade de tensão através do conceito da integral J.
Resumo:
Os escoamentos altamente convectivos representam um desafio na simulação pelo método de elementos finitos. Com a solução de elementos finitos de Galerkin para escoamentos incompressíveis, a matriz associada ao termo convectivo é não simétrica, e portanto, a propiedade de aproximação ótima é perdida. Na prática as soluções apresentam oscilações espúrias. Muitos métodos foram desenvolvidos com o fim de resolver esse problema. Neste trabalho apresentamos um método semi- Lagrangeano, o qual é implicitamente um método do tipo upwind, que portanto resolve o problema anterior, e comparamos o desempenho do método na solução das equações de convecção-difusão e Navier-Stokes incompressível com o Streamline Upwind Petrov Galerkin (SUPG), um método estabilizador de reconhecido desempenho. No SUPG, as funções de forma e de teste são tomadas em espaços diferentes, criando um efeito tal que as oscilações espúrias são drasticamente atenuadas. O método semi-Lagrangeano é um método de fator de integração, no qual o fator é um operador de convecção que se desloca para um sistema de coordenadas móveis no fluido, mas restabelece o sistema de coordenadas Lagrangeanas depois de cada passo de tempo. Isto prevê estabilidade e a possibilidade de utilizar passos de tempo maiores.Existem muitos trabalhos na literatura analisando métodos estabilizadores, mas não assim com o método semi-Lagrangeano, o que representa a contribuição principal deste trabalho: reconhecer as virtudes e as fraquezas do método semi-Lagrangeano em escoamentos dominados pelo fenômeno de convecção.
Resumo:
Diversas das possíveis aplicações da robótica de enxame demandam que cada robô seja capaz de estimar a sua posição. A informação de localização dos robôs é necessária, por exemplo, para que cada elemento do enxame possa se posicionar dentro de uma formatura de robôs pré-definida. Da mesma forma, quando os robôs atuam como sensores móveis, a informação de posição é necessária para que seja possível identificar o local dos eventos medidos. Em virtude do tamanho, custo e energia dos dispositivos, bem como limitações impostas pelo ambiente de operação, a solução mais evidente, i.e. utilizar um Sistema de Posicionamento Global (GPS), torna-se muitas vezes inviável. O método proposto neste trabalho permite que as posições absolutas de um conjunto de nós desconhecidos sejam estimadas, com base nas coordenadas de um conjunto de nós de referência e nas medidas de distância tomadas entre os nós da rede. A solução é obtida por meio de uma estratégia de processamento distribuído, onde cada nó desconhecido estima sua própria posição e ajuda os seus vizinhos a calcular as suas respectivas coordenadas. A solução conta com um novo método denominado Multi-hop Collaborative Min-Max Localization (MCMM), ora proposto com o objetivo de melhorar a qualidade da posição inicial dos nós desconhecidos em caso de falhas durante o reconhecimento dos nós de referência. O refinamento das posições é feito com base nos algoritmos de busca por retrocesso (BSA) e de otimização por enxame de partículas (PSO), cujos desempenhos são comparados. Para compor a função objetivo, é introduzido um novo método para o cálculo do fator de confiança dos nós da rede, o Fator de Confiança pela Área Min-Max (MMA-CF), o qual é comparado com o Fator de Confiança por Saltos às Referências (HTA-CF), previamente existente. Com base no método de localização proposto, foram desenvolvidos quatro algoritmos, os quais são avaliados por meio de simulações realizadas no MATLABr e experimentos conduzidos em enxames de robôs do tipo Kilobot. O desempenho dos algoritmos é avaliado em problemas com diferentes topologias, quantidades de nós e proporção de nós de referência. O desempenho dos algoritmos é também comparado com o de outros algoritmos de localização, tendo apresentado resultados 40% a 51% melhores. Os resultados das simulações e dos experimentos demonstram a eficácia do método proposto.
Resumo:
A região da Bacia de Campos está exposta a diversas atividades antrópicas, que interferem diretamente no funcionamento do ecossistêmico marinho. O estudo da fauna marinha na costa centro-norte fluminense mostra grande relevância, diversas aves marinhas residem ou passam grande parte de seu período migratório ao longo da Bacia de Campos, entre elas está Sula leucogaster (Boddaert, 1783). Embora essas aves sejam altamente móveis, suas populações apresentam uma estrutura populacional genética robusta. Com o intuito de verificar a estruturação e as relações evolutivas da população de Sula leucogaster na Bacia de Campos foram recolhidas 91 amostras de encalhe e os dados gerados para esta região foram comparados com dados já publicados de outras bacias oceânicas. A partir da região controle do DNA mitocondrial foram gerados 26 haplótipos, todos exclusivos da Bacia de Campos, muitos raros e apenas oito possuíram frequência comum. As análises mostraram que a população da Bacia de Campos é um estoque genético de Sula leucogaster. Tal fato pode ser atribuído ao comportamento filopátrico e ao hábito costeiro dessa espécie que impede o fluxo gênico entre populações. Além disso, a população da Bacia de Campos detém baixa variabilidade genética e possivelmente está sofrendo efeito gargalo ou seleção purificadora, corroborados por valores do teste Fu, o que é comum para espécies que se dividem em subpopulações. Os dados filogenéticos demonstram um contato recente entre as populações da Bacia de Campos e da ilha de Ascensão. As condições oceanográficas também têm influência na estruturação de populações de Sula leucogaster, visto que a ausência de barreiras e a proximidade geográfica poderiam favorecer contato secundário com o Mar do Caribe, fato não evidenciado nas análises. Sendo assim, a divergência de populações nessa espécie e a baixa variabilidade genética são fatores preocupantes para a manutenção da população de atobás marrons em uma área de grande impacto ambiental