5 resultados para bigdata, data stream processing, dsp, apache storm, cyber security

em Universidade Federal do Pará


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta dissertação consiste no projeto e implementação parcial de um sistema integrado de monitoramento da ave Harpia (Harpia harpyja), espécie encontrada na Amazônia, Cerrado e Mata Atlântica. O sistema de monitoramento é estruturado em três etapas: coleta, armazenamento e transmissão de dados. A primeira etapa consiste na coleta de dados a partir de sensores, podendo detectar a presença de pássaros no ninho, também o sistema conta com o auxílio de uma câmera responsável pela captura de vídeo e áudio. A segunda etapa destina-se ao pré-processamento e armazenamento de todas as informações coletadas. A terceira etapa é responsável pela transmissão dos dados através de satélite, utilizando o Sistema Brasileiro de Coleta de Dados Ambientais (SBCDA). Além disso, foi realizado o desenvolvimento de um protótipo utilizado para o monitoramento. Técnicas de sistemas embarcados são expostas para o leitor e o processo de detecção desta espécie é avaliado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente trabalho tem por objetivo central demonstrar a variabilidade existente na floresta no que tange aos estoques de biomassa e carbono florestal acima do solo, a partir da identificação e caracterização, com base em técnicas de sensoriamento remoto, de unidades de paisagem em uma área situada no município de Belterra, região oeste do Estado do Pará, a partir da matriz teórico-conceitual da abordagem Ecologia da Paisagem. Para o alcance de tal proposição, a metodologia empregada partiu da revisão da literatura sobre o tema, aquisição de dados cartográficos e orbitais, uso de técnicas de sensoriamento remoto, coleta de dados em campo, tratamento e análise estatística. O trabalho está dividido em quatro capítulos, seguidos pelas considerações gerais da obra. Partindo da matriz teórico-metodológica da Ecologia da Paisagem, analisa-se a dinâmica socioambiental do município de Belterra, que atualmente experimenta a expansão das atividades agrícolas, com destaque para a agricultura mecanizada da soja. A partir da análise multitemporal de imagens Landsat do município pôde-se avaliar a distribuição da cobertura florestal existente no mesmo, bem como o padrão espacial de distribuição das principais unidades de paisagem identificadas. Considerando esse recorte, realizou-se a coleta de dados em campo via inventário florestal em quatro tipologias florestais (floresta de alto platô, floresta de baixo platô, vegetação secundária e tensão ecológica) para obtenção de parâmetros morfométricos da vegetação e posterior quantificação dos estoques de biomassa e carbono contidos em cada unidade, bem como observar o comportamento estrutural da floresta nas mesmas. A adoção da paisagem como escala espacial de análise mostrou-se bastante satisfatória na quantificação dos estoques de biomassa e carbono florestal ao permitir considerar a influência da dinâmica socioeconômica na redução desses estoques. Além disso, possibilitou constatar que o reconhecimento da heterogeneidade da cobertura florestal é um elemento fundamental para a obtenção de estimativas de carbono de acordo com as características estruturais da vegetação, que varia de acordo com a topografia do terreno, com as espécies existentes e com as características geográficas, o que envolve a tipologia climática, as características geomorfológicas, pedológicas e geológicas da área.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Este artigo apresenta um estudo experimental de técnicas de identificação paramétrica aplicadas à modelagem dinâmica de um servidor web Apache. Foi desenvolvido um arranjo experimental para simular variações de carga no servidor. O arranjo é composto por dois computadores PC, sendo um deles utilizado para executar o servidor Apache e o outro utilizado como um gerador de carga, solicitando requisições de serviço ao servidor Apache. Foram estimados modelos paramétricos auto-regressivos (AR) para diferentes pontos de operação e de condição de carga. Cada ponto de operação foi definido em termos dos valores médios para o parâmetro de entrada MaxClients (parâmetro utilizado para definir o número máximo de processos ativos) e a saída percentual de consumo de CPU (Central Processing Unit) do servidor Apache. Para cada ponto de operação foram coletadas 600 amostras, com um intervalo de amostragem de 5 segundos. Metade do conjunto de amostras coletadas em cada ponto de operação foi utilizada para estimação do modelo, enquanto que a outra metade foi utilizada para validação. Um estudo da ordem mais adequada do modelo mostrou que, para um ponto de operação com valor reduzido de MaxClients, um modelo AR de 7a ordem pode ser satisfatório. Para valores mais elevados de MaxClients, os resultados mostraram que são necessários modelos de ordem mais elevada, devido às não-linearidades inerentes ao sistema.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Este trabalho apresenta um método rápido de inversão de matrizes densas, e uma possível aplicação com métodos de Vectoring, em pré-codificação e cancelamento de crosstalk de sistemas xDSL. A família de tecnologias xDSL utiliza os pares trançados de fios de cobre telefônicos como meio físico para transmitir dados digitais. O crosstalk é a principal causa de degradação de sinais na mais nova geração de sistemas xDSL, o G.fast, e para combatê-lo são utilizadas técnicas de pré-codificação e cancelamento, chamadas de Vectoring. O método proposto, chamado de GSGR, consiste em uma abordagem diferente para o método clássico de Squared Givens Rotations (SGR), adequado a implementações em plataformas embarcadas de processamento digital de sinais. Foram realizados testes comparativos do método GSGR com métodos diretos clássicos de inversão, utilizando uma plataforma digital multicore baseada no chip TI DSP TMS320C6670 e a plataforma de software Matlab. Os resultados dos testes de inversão de matrizes usando dados reais e dados simulados mostraram que o GSGR foi superior em velocidade de execução sem apresentar perdas significativas de acurácia para a aplicação em sistemas xDSL.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A automação na gestão e análise de dados tem sido um fator crucial para as empresas que necessitam de soluções eficientes em um mundo corporativo cada vez mais competitivo. A explosão do volume de informações, que vem se mantendo crescente nos últimos anos, tem exigido cada vez mais empenho em buscar estratégias para gerenciar e, principalmente, extrair informações estratégicas valiosas a partir do uso de algoritmos de Mineração de Dados, que comumente necessitam realizar buscas exaustivas na base de dados a fim de obter estatísticas que solucionem ou otimizem os parâmetros do modelo de extração do conhecimento utilizado; processo que requer computação intensiva para a execução de cálculos e acesso frequente à base de dados. Dada a eficiência no tratamento de incerteza, Redes Bayesianas têm sido amplamente utilizadas neste processo, entretanto, à medida que o volume de dados (registros e/ou atributos) aumenta, torna-se ainda mais custoso e demorado extrair informações relevantes em uma base de conhecimento. O foco deste trabalho é propor uma nova abordagem para otimização do aprendizado da estrutura da Rede Bayesiana no contexto de BigData, por meio do uso do processo de MapReduce, com vista na melhora do tempo de processamento. Para tanto, foi gerada uma nova metodologia que inclui a criação de uma Base de Dados Intermediária contendo todas as probabilidades necessárias para a realização dos cálculos da estrutura da rede. Por meio das análises apresentadas neste estudo, mostra-se que a combinação da metodologia proposta com o processo de MapReduce é uma boa alternativa para resolver o problema de escalabilidade nas etapas de busca em frequência do algoritmo K2 e, consequentemente, reduzir o tempo de resposta na geração da rede.