95 resultados para Dados em painel


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dois experimentos e um levantamento por amostragem foram analisados no contexto de dados espaciais. Os experimentos foram delineados em blocos completos casualizados sendo que no experimento um (EXP 1) foram avaliados oito cultivares de trevo branco, sendo estudadas as variáveis Matéria Seca Total (MST) e Matéria Seca de Gramíneas (MSGRAM) e no experimento dois (EXP 2) 20 cultivares de espécies forrageiras, onde foi estudada a variável Percentagem de Implantação (%IMPL). As variáveis foram analisadas no contexto de modelos mistos, sendo modelada a variabilidade espacial através de semivariogramas exponencias, esféricos e gaussianos. Verificou-se uma diminuição em média de 19% e 14% do Coeficiente de Variação (CV) das medias dos cultivares, e uma diminuição em média de 24,6% e 33,3% nos erros padrões dos contrastes ortogonais propostos em MST e MSGRAM. No levantamento por amostragem, estudou-se a associação espacial em Aristida laevis (Nees) Kunth , Paspalum notatum Fl e Demodium incanum DC, amostrados em uma transecção fixa de quadros contiguos, a quatro tamanhos de unidades amostrais (0,1x0,1m; 0,1x0,3m; 0,1x0,5m; e 0,1x1,0m). Nas espécies Aristida laevis (Nees) Kunth e Paspalum notatum Fl, existiu um bom ajuste dos semivariogramas a tamanhos menores das unidades amostrais, diminuíndo quando a unidade amostral foi maior. Desmodium incanum DC apresentou comportamento contrario, ajustando melhor os semivariogramas a tamanhos maiores das unidades amostrais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sistemas para a geração de eletricidade a partir de fontes renováveis de energia, com um mínimo impacto ambiental, apresentam uma contribuição energética cada vez mais significativa, sendo importante conhecer em detalhe o comportamento dos mesmos. A radiação solar e o vento podem se mostrar complementares, sendo interessante empregar uma combinação eólica e fotovoltaica em um sistema único. Os sistemas assim constituídos recebem o nome de sistemas híbridos eólico-fotovoltaicos e em algumas aplicações podem mostrar vantagens em relação aos sistemas singelos. Esta Tese tem por objetivo contribuir com o conhecimento sobre o comportamento de sistemas híbridos eólico-fotovoltaicos de pequeno porte. Para obter dados experimentais foi montado um protótipo no Laboratório de Energia Solar, constituído de um painel de 420 Wp e de um aerogerador de 400 W de potência nominal, sendo que para o acionamento do aerogerador foi instalado um túnel de vento. Para a observação do comportamento do sistema híbrido foi também montado um sistema de monitoramento, sendo analisadas na Tese as incertezas associadas às medições realizadas. O sistema de monitoramento forma parte de um sistema mais amplo, que permite também o controle da velocidade do vento no túnel de vento e a ativação automática de um conjunto de cargas resistivas para simular o perfil de consumo. A Tese discute os modelos matemáticos de todos os componentes do sistema, assim como as principais configurações que podem ser dadas aos sistemas híbridos. Foram realizadas várias experiências com o sistema híbrido que permitiram a coleta de informações sobre o comportamento dos componentes independentes e como um todo Essas informações, por sua vez, serviram de base para a validação de modelos matemáticos dos diversos componentes do sistema, que foram integrados em um programa computacional de simulação elaborado como parte desta Tese. Além dos resultados do funcionamento do sistema híbrido experimental, a Tese mostra os resultados do programa de simulação e faz uma estimativa da aplicação de sistemas híbridos semelhantes em localidades de Rio Grande do Sul, a partir da informação do Atlas Eólico do Estado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As atividades de exploração e produção de petróleo e gás no Brasil têm se tornado mais intensas ao longo desta última década, apresentando uma tendência de avanço em direção a ambientes de maior profundidade, onde se localizam grande parte das reservas de óleo já comprovadas. Os processos de exploração e produção de petróleo e gás apresentam muitas etapas com considerável potencial gerador de impactos ao meio ambiente, entre elas, a perfuração de poços exploratórios marítimos, objeto do presente estudo. Este estudo originou-se do Projeto MAPEM – Monitoramento Ambiental em Atividades de Perfuração Exploratória Marítima (Águas Profundas), do qual foram utilizados os dados analisados nesta dissertação. O monitoramento foi realizado visando avaliar os efeitos da perfuração do poço Eagle, localizado em talude continental, região norte da Bacia de Campos, Brasil, próximo ao limite entre os estados do Rio de Janeiro e Espírito Santo, a 902 metros de profundidade. Foram coletadas amostras de sedimentos superficiais na região de entorno da atividade, em 48 estações de monitoramento e 6 estações de controle, durante os cruzeiros oceanográficos realizados um mês antes, um mês após e um ano após a perfuração. As análises dos sedimentos geraram informações sobre sua composição granulométrica, mineralógica (argilominerais e carbonato de cálcio) e química (hidrocarbonetos e metais), e foram comparadas em sua variação espacial (área de monitoramento/estações de controle) e temporal (3 cruzeiros oceanográficos). A variação temporal foi abordada de três maneiras distintas, onde o Cruzeiro I representou o background da área, a variação do Cruzeiro I para o II representou o impacto sobre a área de monitoramento e na variação do Cruzeiro II para o III, buscou-se evidências de recuperação da área monitorada com tendência de retorno às suas características iniciais O background da área definiu os níveis médios de todas variáveis analisadas, identificando, além de teores naturais para alguns dos componentes dos sedimentos, sinais de contaminação de origem antrópica, principalmente de As, Pb e hidrocarbonetos petrogênicos (n-alcanos) e pirogênicos (aromáticos). Na perfuração do poço Eagle foi utilizado fluido de base aquosa (FBA) e fluido de base sintética (FBS), dos quais se buscou identificar as áreas de influência e as alterações causadas nos sedimentos. Identificou-se a ocorrência de um fluxo gravitacional de massa, no período entre o Cruzeiro I e a perfuração, restrito ao cânion submarino que cruza a área de monitoramento, do qual também foi avaliada a influência sobre a composição dos sedimentos. A influência do FBA (indicada pelos teores de bário) estendeu-se por uma grande área, apresentando maiores concentrações nas estações próximas do poço. A área de influência do FBS (indicada pelos n-alcanos entre C14 e C22) apresentou distribuição mais restrita, em duas manchas, uma a norte e outra a oeste do poço. Além dos n-alcanos, foi identificado aumento dos teores de bário, UCM (mistura complexa não resolvida), fluoreno e acenaftaleno. O fluxo gravitacional de massa causou elevações na proporção de areia das estações do cânion submarino e redução do carbono orgânico. Efetivamente pode se concluir que a atividade de perfuração exerceu influência significativa nas propriedades químicas dos sedimentos, contudo, de improvável efeito tóxico sobre a biota. Pode-se concluir também que ocorreu recuperação da área, após o período de um ano, por redução das concentrações médias de algumas variáveis e sinais de reposição de n-alcanos naturais, porém não foi possível a identificação de degradação do material sintético utilizado no FBS.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A maioria dos estudos de impactos de pólos geradores de viagens são desenvolvidos a partir da adequação de metodologias desenvolvidas em diferentes contextos e disponíveis na literatura. Este trabalho buscou avaliar a adequação de algumas destas propostas, em termos de área de influência, distribuição de viagens e escolha modal, em shopping centers de Porto Alegre. Os dados para análise foram provenientes de uma pesquisa origem e destino realizada recentemente em Porto Alegre por meio de entrevistas domiciliares (EDOM). A partir da comparação dos resultados obtidos na análise de cinco shopping centers, foi possível identificar a relação entre as características dos usuários, da região de entorno e do padrão de viagens dos empreendimentos. Com relação à escolha modal, observou-se que as características do empreendimento, a facilidade de acesso ao pólo pelos diversos modos de transporte disponíveis e os aspectos sócio-econômicos da área de influência são variáveis que podem explicar a escolha do modo utilizado. Para a delimitação da área de influência dos shopping centers, constatou-se que as propostas que utilizam a distância de viagem como critério para definição se mostraram mais realistas do que aquelas que adotam o tempo de viagem como base. Na distribuição de viagens, verificou-se que o perfil econômico dos residentes na área de influência, bem como informações que caracterizem as atividades existentes nas zonas de tráfego são variáveis que podem explicar a distribuição de viagens de shopping centers. Por fim, concluiu-se que o banco de dados da EDOM é uma fonte de dados potencial na análise da demanda de shopping centers.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os processamentos de imagens orbitais efetuados através de técnicas de sensoriamento remoto geraram informações qualitativas de natureza textural (morfo-estruturas). Estas permitiram (1) o reconhecimento de áreas com diferentes padrões estruturais tendo diferentes potencialidades para a prospecção de fluorita, (2) a identificação de novos lineamentos estruturais potencialmente favoráveis à mineralização e (3) evidenciaram prolongamentos extensos para as principais estruturas mineralizadas, (4) às quais se associam um grande número de estruturas, antes desconhecidas, com grande potencial prospectivo. O aprimoramento de técnicas de classificação digital sobre produtos de razões de bandas e análise por componentes principais permitiu identificar a alteração hidrotermal associada às estruturas, incorporando novos critérios para a prospecção de fluorita. Buscando-se quantificar os dados de alteração hidrotermal, foi efetuada a análise espectrorradiométrica das rochas do distrito fluorítico. Integrando estas informações com dados TM LANDSAT 5, em nível de reflectância, obteve-se a classificação espectral das imagens orbitais, o que permitiu a identificação de estruturas menores com um detalhe nunca antes obtido. Os processamentos de dados aerogeofísicos forneceram resultados sobre estruturas (magnetometria) e corpos graníticos afetados por alteração hidrotermal (aerogamaespectrometria). Estes produtos foram integrados com dados TM LANDSAT 5 associando o atributo textural da imagem orbital ao comportamento radiométrico das rochas. Diagnosticou-se o lineamento Grão-Pará como o principal prospecto do distrito. E levantaram-se uma série de dados sobre a compartimentação tectônica da região, a zonação de fácies das rochas graníticas (rocha fonte do flúor) e as alterações hidrotermais associadas ao magmatismo granítico. Isto permitiu a compreensão da distribuição regional dos depósitos de fluorita, adicionando-se um novo critério à prospecção de fluorita, a relação espacial entre a mineralização e a rocha fonte de F. Esta última corresponde à fácies granítica da borda do Maciço Pedras Grandes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A elaboração de diagnósticos e a tomada de decisões sobre o meio físico, com a finalidade de estabelecer diretrizes para a ocupação racional do solo, são cada vez mais prementes, especialmente, no que diz respeito ao direcionamento da expansão urbana para áreas mais favoráveis. Da mesma forma, a facilidade de acesso aos parâmetros geotécnicos de uma região constituí um inestimável recurso nas etapas preliminares dos projetos de Engenharia, no planejamento de atividades extrativas e nos programas de preservação ambiental. A cartografia geotécnica, nesse sentido, tem sido um dos instrumentos mais eficientes para a avaliação do meio físico nas últimas décadas. Entretanto, o desenvolvimento de um mapa geotécnico requer a análise de um grande número de informações que precisam ser tratadas e combinadas com rapidez. Esta tese apresenta uma metodologia para a integração de dados, por meio da ferramenta básica geoprocessamento, visando agilizar, na fase de escritório, a elaboração de mapas geotécnicos e a análise de determinados aspectos do meio físico sob o ponto de vista da Geotecnia, bem como suas interações com a mancha urbana existente. A área teste escolhida é o município de Porto Alegre (RS) situado na porção leste do estado do Rio Grande do Sul, à margem esquerda do Lago Guaiba, cuja paisagem é marcada pela diversidade de cenários naturais formados por terrenos de coxilhas, morros, cristas, lagos e planícies. A metodologia envolve a captura, o processamento e a integração de informações provenientes de fontes diversas como mapas temáticos, levantamento aerofotogramétrico, cartas topográficas, fotografias aéreas, imagens de satélite, boletins de sondagens SPT (Standart Penetration Test), dissertações e teses acadêmicas. Para isso, é constituída por nove etapas distintas, que utilizam: a) sistema de digitalização para a conversão de informações analógicas para o meio digital; b) modelagem digital do terreno (MDT) para o modelamento e a identificação do relevo, a determinação de declividades, o mapeamento de áreas com isodeclividades e o cálculo do fator topográfico, esse último objetivando a determinação da suscetibilidade à erosão laminar; c) técnicas de processamento e classificação de imagens orbitais para os mapeamentos das áreas inundáveis e da mancha urbana; d) Sistemas de Informações Geográficas (SIGs) para o processamento e a integração de informações georreferenciadas no computador; e) banco de dados digital para o armazenamento de dados descritivos sobre o meio físico e parâmetros geotécnicos obtidos em laboratório, sondagens e outras formas de investigação in situ. A estimativa das unidades geotécnicas é procedida com base na proposta metodológica para mapeamento geotécnico desenvolvida por Davison Dias (1995), na Universidade Federal do Rio Grande do Sul (UFRGS). Além da elaboração do mapa geotécnico, a metodologia propõe a análise e o cruzamento de vários fatores do meio físico com a mancha urbana existente, ou com uma subárea pertencente à região de estudo, a geração de mapas de aptidão do solo para diferentes usos e a identificação das áreas consideradas de eventos perigosos e de risco geológico. Os principais softwares empregados são o AutoCAD@, o SURFER@, ACESS@ e o IDRISI 2.0@, desenvolvido pela Clark University, USA. Os resultados obtidos a partir da implementação da metodologia demonstraram a importância e a contribuição que a ferramenta básica geoprocessamento pode trazer aos estudos geotécnicos. Os diferentes sistemas de geoprocessamento utilizados para a manipulação e tratamento das informações espaciais mostraram-se adequados e eficientes quando aplicados na coleta, processamento e integração de dados geotécnicos. Para a área teste foram identificadas trinta e sete unidades com perfis de solos com comportamento geotécnico praticamente similar frente ao uso e à ocupação do solo, cujas informações descritivas sobre o meio físico puderam ser facilmente acessadas e visualizadas, no computador, por meio da integração banco de dados geotécnicos com Sistema de Informações Geográficas. Por outro lado, o emprego de técnicas de processamento e classificação de imagens digitais revelou-se um recurso importante para a obtenção de informações sobre o meio físico, enquanto o uso de modelagem digital do terreno (MDT) agilizou o mapeamento das declividades e o cálculo da suscetibilidade potencial à erosão laminar, além de permitir a geração do relevo em perspectiva da região estudada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A implementação da outorga do uso da água no Brasil implica no estabelecimento de um balanço hídrico de disponibilidades quali-quantitativas, que permita, ao gestor do recurso hídrico, determinar se existe possibilidade de incluir algum uso novo na bacia hidrográfica ou se é necessário algum tipo de racionamento do uso da água. Este balanço deve garantir que as vazões necessárias para o abastecimento público e para a manutenção dos ecossistemas aquáticos e ribeirinhos sejam mantidas. Nesta tese, discute-se a evolução da ecologia de rios e sua implicação nas metodologias desenhadas para avaliação de vazões ecológicas, demonstrando-se que metodologias sintonizadas com os avanços teóricos da ecologia de rios somente surgem no final do século XX e início do século XXI. Discute-se, também, a necessidade de desenvolvimento de metodologias constituídas com ancoragem ecológica em situações de carência ou ausência de dados, que compõem a realidade da maior parte da rede hidrográfica brasileira. Propõe-se uma metodologia e apresenta-se um programa (FFTSint) para avaliação da significância de pulsos em análise espectral de séries temporais de vazões diárias, com base em séries sintéticas, partindo-se do pressuposto de que processos adaptativos, manifestados em termos de tipos funcionais de plantas, dependem de um grau de previsibilidade dos pulsos (associada a pulsos significativos) A série de vazões diárias, filtrada com utilização do FFTSint, é o hidrograma significativo, que pode, então ser estudado através de programas como o IHA e Pulso. Aplicou-se esta abordagem metodológica na estação fluviométrica Rosário do Sul, rio Santa Maria, Estado do Rio Grande do Sul, Brasil, onde verificou-se que o hidrograma significativo, está associado às cotas mais baixas da planície de inundação, enquanto que os componentes aleatórios do hidrograma estão associados às cotas mais altas. Discute-se que processos adaptativos estão associados aos componentes previsíveis, enquanto que processos sucessionais estão mais associados aos aleatórios. Esta observação permitiu a construção de um conjunto de limitações ecológicas ao regime de vazões resultantes do uso na bacia hidrográfica, utilizando-se descritores do regime de pulsos da série não filtrada (original) para as cotas mais altas e descritores filtrados com alta significância para as cotas mais baixas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho é investigada uma abordagem para extração de feições baseada na otimização da distância de Bhattacharyya em um classificador hierárquico de estrutura binária. O objetivo é mitigar os efeitos do fenômeno de Hughes na classificação de dados imagem hiper-espectrais. A utilização de um classificador em múltiplo-estágio, analisando um sub-conjunto de classes em cada etapa ao invés do conjunto total, permite modos mais eficientes para extrair as feições mais adequadas em cada etapa do procedimento de classificação. Em uma abordagem de árvore binária, somente duas classes são consideradas em cada etapa, permitindo a implementação da distância de Bhattacharyya como um critério para extração de feições em cada nó da árvore. Experimentos foram realizados utilizando dados imagem do sensor AVIRIS. A performance da metodologia proposta é comparada com métodos tradicionais para extração e seleção de feições.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dados volumétricos temporais são usados na representação de fenômenos físicos em várias aplicações de visualização científica, pois tais fenômenos são complexos, alteram-se com o tempo e não possuem uma forma de representação definida. Uma solução é usar amostragens sobre um espaço de forma geométrica simples que contém o fenômeno (um cubo, por exemplo), discretizado ao longo de uma grade em células de mesmo formato e usualmente chamado de volume de amostragem. Este volume de amostragem representa um instante da representação do fenômeno e, para representar dados temporais, simplesmente enumera-se tantos volumes quanto forem as diferentes instâncias de tempo. Esta abordagem faz com que a representação seja extremamente custosa, necessitando de técnicas de representação de dados para comprimir e descomprimir os mesmos. Este trabalho apresenta uma nova abordagem para compressão de volumes de dados temporais que permite a visualização em tempo real destes dados usando hardware gráfico. O método de compressão usa uma representação hierárquica dos vários volumes de dados dentro da memória do hardware gráfico, referenciados pelo hardware como texturas 3D. O método de compressão tem melhor desempenho para dados volumétricos esparsos e com alto grau de coerência (espacial e temporal). A descompressão destes dados é feita por programas especiais que são executados no próprio hardware gráfico. Um estudo de caso usando o método de compressão/descompressão proposto é apresentado com dados provenientes do Projeto MAPEM (Monitoramento Ambiental em Atividades de Perfuração Exploratória Marítima). O objetivo do projeto é propor uma metodologia para o monitoramento dos efeitos das descargas de materiais no ecossistema marinho durante a perfuração de um poço de petróleo. Para estimar certos descarregamentos de fluidos, o projeto usa um simulador CFD que permite mostrar tais descarregamentos, gerando grades planares e uniformes 2D ou 3D em qualquer instante de tempo durante a simulação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A modelagem conceitual de banco de dados geográficos (BDG) é um aspecto fundamental para o reuso, uma vez que a realidade geográfica é bastante complexa e, mais que isso, parte dela é utilizada recorrentemente na maioria dos projetos de BDG. A modelagem conceitual garante a independência da implementação do banco de dados e melhora a documentação do projeto, evitando que esta seja apenas um conjunto de documentos escritos no jargão da aplicação. Um modelo conceitual bem definido oferece uma representação canônica da realidade geográfica, possibilitando o reuso de subesquemas. Para a obtenção dos sub-esquemas a serem reutilizados, o processo de Descoberta de Conhecimento em Bancos de Dados (DCBD – KDD) pode ser aplicado. O resultado final do DCBD produz os chamados padrões de análise. No escopo deste trabalho os padrões de análise constituem os sub-esquemas reutilizáveis da modelagem conceitual de um banco de dados. O processo de DCBD possui várias etapas, desde a seleção e preparação de dados até a mineração e pós-processamento (análise dos resultados). Na preparação dos dados, um dos principais problemas a serem enfrentados é a possível heterogeneidade de dados. Neste trabalho, visto que os dados de entrada são os esquemas conceituais de BDG, e devido à inexistência de um padrão de modelagem de BDG largamente aceito, as heterogeneidades tendem a aumentar. A preparação dos dados deve integrar diferentes esquemas conceituais, baseados em diferentes modelos de dados e projetados por diferentes grupos, trabalhando autonomamente como uma comunidade distribuída. Para solucionar os conflitos entre esquemas conceituais foi desenvolvida uma metodologia, suportada por uma arquitetura de software, a qual divide a fase de préprocessamento em duas etapas, uma sintática e uma semântica. A fase sintática visa converter os esquemas em um formato canônico, a Geographic Markup Language (GML). Um número razoável de modelos de dados deve ser considerado, em conseqüência da inexistência de um modelo de dados largamente aceito como padrão para o projeto de BDG. Para cada um dos diferentes modelos de dados um conjunto de regras foi desenvolvido e um wrapper implementado. Para suportar a etapa semântica da integração uma ontologia é utilizada para integrar semanticamente os esquemas conceituais dos diferentes projetos. O algoritmo para consulta e atualização da base de conhecimento consiste em métodos matemáticos de medida de similaridade entre os conceitos. Uma vez os padrões de análise tendo sido identificados eles são armazenados em uma base de conhecimento que deve ser de fácil consulta e atualização. Novamente a ontologia pode ser utilizada como a base de conhecimento, armazenando os padrões de análise e possibilitando que projetistas a consultem durante a modelagem de suas aplicações. Os resultados da consulta ajudam a comparar o esquema conceitual em construção com soluções passadas, aceitas como corretas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pesquisa o uso de indicadores para avaliação do desempenho de serviços de informação tecnológica, sob a ótica da abordagem centrada no usuário. Tem por objetivo principal propor um conjunto de indicadores de desempenho que sejam aplicáveis à mensuração e à gestão dos serviços brasileiros de informação tecnológica, com foco no cliente-usuário. O referencial teórico engloba aspectos referentes à informação tecnológica, serviços de informação, gestão da qualidade, avaliação de serviços, métrica e indicadores. Faz uma análise de documentos sobre indicadores de desempenho aplicados à Sociedade do Conhecimento, Ciência e Tecnologia, Inovação Tecnológica, Tomada de Decisão e Unidades de Informação. Define a Norma Internacional ISO 11620 e o EQUINOX como os documentos base para a seleção dos indicadores de desempenho propostos à análise de especialistas. Utiliza, para o levantamento dos dados, a técnica Delphi, tendo como instrumento o questionário. O questionário é aplicado em duas ocasiões, em dez (10) especialistas, que avaliam cada questão proposta. As questões, em número de vinte e cinco (25), referem-se aos indicadores de desempenho selecionados pela pesquisadora. Estes indicadores são analisados pelos especialistas sob os aspectos pertinência, relevância e viabilidade, a partir de uma escala de atitude, os quais justificam suas escolhas. A cada rodada, o painel de especialistas recebe, como feedback, os aportes da rodada anterior. Esta interação permite um reposicionamento de cada um dos participantes, reposicionamento este que se reflete nas respostas da rodada seguinte. Como produto final da pesquisa , gera-se uma relação de vinte e dois (22) indicadores considerados pela maioria dos especialistas como os mais pertinentes e relevantes. Conclui com a análise dos aportes dos especialistas e da técnica metodológica utilizada. Recomenda o uso de indicadores de desempenho pelos serviços de informação tecnológica; a promoção de ações que visem sensibilizar órgãos de pesquisa e organismos governamentais quanto à sua utilização; o incentivo à implementação, junto aos cursos de Ciência da Informação, de conteúdos sobre avaliação por indicadores. Completamenta com a relação de outros indicadores propostos pelo painel de especialistas. Sugere novos temas de estudo, relacionados ao desenvolvido.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho versa sobre a avaliação da compressão de dados e da qualidade de imagens e animações usando-se complexidade de Kolmogorov, simulação de máquinas e distância de informação. Complexidade de Kolmogorov é uma teoria da informação e da aleatoriedade baseada na máquina de Turing. No trabalho é proposto um método para avaliar a compressão de dados de modelos de animação gráfica usando-se simulação de máquinas. Também definimos formalmente compressão de dados com perdas e propomos a aplicação da distância de informação como uma métrica de qualidade de imagem. O desenvolvimento de uma metodologia para avaliar a compressão de dados de modelos de animação gráfica para web é útil, a medida que as páginas na web estão sendo cada vez mais enriquecidas com animações, som e vídeo, e a economia de banda de canal tornase importante, pois os arquivos envolvidos são geralmente grandes. Boa parte do apelo e das vantagens da web em aplicações como, por exemplo, educação à distância ou publicidade, reside exatamente na existência de elementos multimídia, que apoiam a idéia que está sendo apresentada na página. Como estudo de caso, o método de comparação e avaliação de modelos de animação gráfica foi aplicado na comparação de dois modelos: GIF (Graphics Interchange Format) e AGA (Animação Gráfica baseada em Autômatos finitos), provando formalmente que AGA é melhor que GIF (“melhor” significa que AGA comprime mais as animações que GIF). Foi desenvolvida também uma definição formal de compressão de dados com perdas com o objetivo de estender a metodologia de avalição apresentada Distância de informação é proposta como uma nova métrica de qualidade de imagem, e tem como grande vantagem ser uma medida universal, ou seja, capaz de incorporar toda e qualquer medida computável concebível. A métrica proposta foi testada em uma série de experimentos e comparada com a distância euclidiana (medida tradicionalmente usada nestes casos). Os resultados dos testes são uma evidência prática que a distância proposta é efetiva neste novo contexto de aplicação, e que apresenta, em alguns casos, resultados superiores ao da distância euclidiana. Isto também é uma evidência que a distância de informação é uma métrica mais fina que a distância euclidiana. Também mostramos que há casos em que podemos aplicar a distância de informação, mas não podemos aplicar a distância euclidiana. A métrica proposta foi aplicada também na avaliação de animações gráficas baseadas em frames, onde apresentou resultados melhores que os obtidos com imagens puras. Este tipo de avaliação de animações é inédita na literatura, segundo revisão bibliográfica feita. Finalmente, neste trabalho é apresentado um refinamento à medida proposta que apresentou resultados melhores que a aplicação simples e direta da distância de informação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta a montagem de uma instalação fotovoltaica de 4,8 kWp conectada à rede elétrica e uma análise experimental do seu comportamento, com o propósito de otimizar o fator de dimensionamento. Para fins de análise comparativa a instalação foi dividida em três subsistemas com arranjos de potências diferentes, os quais possuem fatores de dimensionamentos de 0,65, 0,73 e 0,86 (razão entre a potência nominal do inversor e a potência do gerador fotovoltaico), respectivamente para os subsistemas 1, 2 e 3. Cada subsistema possui um arranjo formado por dois painéis que utilizam módulos de 100 Wp/24 V, com células de silício monocristalino. Estes arranjos alimentam, de forma independente, três inversores senoidais monofásicos comutados pela própria rede e com potência máxima na saída de 1100 W cada um, caracterizando desta forma uma planta modular. O sistema de aquisição de dados monitora sistematicamente a instalação a uma varredura por minuto, a fim de se obter um acompanhamento ao longo do tempo e poder caracterizá-la. São monitoradas as tensões elétricas de cada painel de módulos e as suas correspondentes correntes, as tensões elétricas e as correntes alternadas, as potências elétricas contínuas e alternadas, a irradiância no plano do gerador, as temperaturas do ar ambiente, de um módulo do gerador e dos inversores. A metodologia de análise desta instalação consiste no monitoramento, na caracterização e na quantificação das medidas adquiridas, com a finalidade de determinar correlações que possam predizer a potência injetada na rede bem como a determinação da performance energética para dias típicos ensolarados, parcialmente nublados e encobertos. A divisão da instalação em três subsistemas permitiu caracterizá-los quanto aos seus comportamentos energéticos, além de possibilitar a análise de arranjos superdimensionados, os quais fornecem uma potência superior a máxima na entrada dos inversores, originando desperdício de energia nos momentos de elevada irradiância. O método desenvolvido para determinar a energia perdida na entrada dos inversores possibilitou avaliar o quanto se perde mensalmente nos subsistemas 1 e 2, uma vez que as perdas de captura e de sistema aumentam quando o arranjo está superdimensionado e isto significa uma redução na produtividade. Com as correlações encontradas para cada subsistema e com a equação geral foi possível predizer o quanto de energia pode ser injetada na rede.