939 resultados para Dados ambientais
Resumo:
A implementação da outorga do uso da água no Brasil implica no estabelecimento de um balanço hídrico de disponibilidades quali-quantitativas, que permita, ao gestor do recurso hídrico, determinar se existe possibilidade de incluir algum uso novo na bacia hidrográfica ou se é necessário algum tipo de racionamento do uso da água. Este balanço deve garantir que as vazões necessárias para o abastecimento público e para a manutenção dos ecossistemas aquáticos e ribeirinhos sejam mantidas. Nesta tese, discute-se a evolução da ecologia de rios e sua implicação nas metodologias desenhadas para avaliação de vazões ecológicas, demonstrando-se que metodologias sintonizadas com os avanços teóricos da ecologia de rios somente surgem no final do século XX e início do século XXI. Discute-se, também, a necessidade de desenvolvimento de metodologias constituídas com ancoragem ecológica em situações de carência ou ausência de dados, que compõem a realidade da maior parte da rede hidrográfica brasileira. Propõe-se uma metodologia e apresenta-se um programa (FFTSint) para avaliação da significância de pulsos em análise espectral de séries temporais de vazões diárias, com base em séries sintéticas, partindo-se do pressuposto de que processos adaptativos, manifestados em termos de tipos funcionais de plantas, dependem de um grau de previsibilidade dos pulsos (associada a pulsos significativos) A série de vazões diárias, filtrada com utilização do FFTSint, é o hidrograma significativo, que pode, então ser estudado através de programas como o IHA e Pulso. Aplicou-se esta abordagem metodológica na estação fluviométrica Rosário do Sul, rio Santa Maria, Estado do Rio Grande do Sul, Brasil, onde verificou-se que o hidrograma significativo, está associado às cotas mais baixas da planície de inundação, enquanto que os componentes aleatórios do hidrograma estão associados às cotas mais altas. Discute-se que processos adaptativos estão associados aos componentes previsíveis, enquanto que processos sucessionais estão mais associados aos aleatórios. Esta observação permitiu a construção de um conjunto de limitações ecológicas ao regime de vazões resultantes do uso na bacia hidrográfica, utilizando-se descritores do regime de pulsos da série não filtrada (original) para as cotas mais altas e descritores filtrados com alta significância para as cotas mais baixas.
Resumo:
A escassez de água, o alto custo do tratamento de efluentes e a iminente cobrança pelo uso e descarte da água vêm preocupando a sociedade e incentivando pesquisas na área de otimização do uso da água e minimização de efluentes. O setor industrial é um dos setores que mais tem se preocupado e se empenhado em encontrar soluções para este problema, pois vivencia os dois problemas ao mesmo tempo, a alta demanda de água e o tratamento dos efluentes gerados. É neste contexto que este trabalho se insere, através de um estudo de caso na Companhia Petroquímica do Sul (Copesul), mais especificamente no setor de utilidades. Neste estudo, foi feita uma análise dos principais processos envolvidos, desde a captação da água até seus consumidores finais, para a identificação da demanda de água e dos locais com maior potencial de reaproveitamento. Para tanto, foi necessária a realização de um balanço hídrico da unidade de tratamento de água usando combinações de dados de planta, estimativas e medições em campo, que foram ajustados através de reconciliação de dados. Os resultados obtidos para esta primeira etapa foram satisfatórios, obtendo uma redução do consumo de água estimada em 40 m3.h-1 e economia anual com o tratamento da água e efluentes de aproximadamente R$ 80.000,00. Também foram apresentadas duas propostas de configurações na planta para a aplicação destas alternativas de reaproveitamento. Numa segunda etapa, realizou-se um balanço de massa e energia para a torre de resfriamento, objetivando reduzir tanto o consumo de água de reposição como o descarte de efluente. O potencial de redução obtido na taxa volumétrica de purga do sistema, considerando apenas o efeito evaporativo e estado estacionário, foi estimado em 20 %. As iniciativas de reuso das águas de lavagem e enxágüe dos equipamentos, bem como da otimização do sistema de resfriamento, conduzem a uma redução da demanda de água e da geração de efluentes, trazendo benefícios econômicos e ambientais para a indústria.
Resumo:
O objetivo deste estudo foi analisar a institucionalização dos parâmetros de qualidade de ensino superior prescritos pela legislação educacional brasileira entre organizações de ensino superior do Estado de São Paulo, considerando a relação entre padrões ambientais-institucionais, padrões interpretativos e respostas estratégicas daquelas organizações. O método que caracteriza a pesquisa aqui retratada é o estudo comparativo de casos, com uso de múltiplas fontes de evidência. Os dados foram obtidos mediante consulta à legislação brasileira relativa à educação superior, consulta a publicações disponibilizadas pelas organizações estudadas, questionário e entrevistas semi-estruturadas. O questionário, enviado a todas as IES privadas do Estado de São Paulo (com exceção de Universidades), permitiu classificar 44 IES em três grupos (posteriormente reagrupados em apenas 2), conforme suas respostas estratégicas aos parâmetros oficiais de qualidade e utilizando procedimentos estatísticos de análise. A partir de escolha proposital, selecionou-se 9 casos, que foram então estudados por meio de procedimentos qualitativos: análise documental, análise de conteúdo e elaboração e análise de mapas cognitivos. Os resultados apontam para a relação entre respostas estratégicas declaradas, padrões interpretativos e cognitivos, em conformidade com a maioria das hipóteses elaboradas no estudo. IES cujos dirigentes principais declararam aceitar, ainda que parcialmente, as pressões legais-regulativas, também evidenciaram significação dos parâmetros oficiais como tendo relação não apenas com a imagem da instituição perante o mercado e as instâncias oficiais de avaliação mas também – e principalmente – com real eficiência do ensino nelas oferecido, além de terem como referência para justificar suas ações elementos predominantemente normativos e cognitivos do ambiente. Já IES cujos dirigentes principais declararam rejeitar parcialmente as pressões legais-regulativas, evidenciaram significação dos parâmetros oficiais como tendo relação apenas com a imagem perante o mercado e as instâncias oficiais de avaliação. Nessas IES os parâmetros não foram, em geral, relacionados com eficiência de ensino, mas apenas com obtenção de legitimidade e com a necessidade de evitar sanções legais, sendo que seus dirigentes têm como referência, para justificar suas ações, elementos predominantemente legais-regulativos e normativos do ambiente. Também foram identificadas diferenças entre os grupos no que concerne à definição das características ambientais com que lidam as diferentes IES. Concluiu-se que se pode sugerir a ocorrência de dois processos distintos de institucionalização daqueles parâmetros, um deles evidenciado entre aquelas IES que aceitam como factual a relação proposta na legislação entre o atendimento dos parâmetros e a oferta de ensino de boa qualidade e outro processo evidenciado entre as IES que não aceitam aquela relação. Propôs-se como artefato conceitual a noção de conexão simbólica para diferenciar esses processos: no primeiro grupo, o que ocorre é a aceitação da relação simbólica proposta na legislação (atendimento dos parâmetros gera real qualidade), que é então assumida como justificativa suficiente para explicar o esforço por atendimento da legislação. No segundo grupo, aquela relação simbólica não é aceita e, nesse sentido, não se observa conexão entre o significado proposto na legislação e o significado encontrado nas IES para os parâmetros oficiais, nelas interpretados em geral apenas como fonte de legitimidade. Implicações e conseqüências dessas conclusões para a teoria institucional em organizações e para o sistema de avaliação do ensino superior são, finalmente, exploradas. Palavras-chave: Ensino superior-Brasil; Ensino superior-avaliação; Organização; Estratégia; Desenvolvimento institucional.
Resumo:
O objetivo geral desta tese é estimar a elasticidade-preço da demanda de forma conjunta, decomposta em elasticidade-preço da escolha da marca e da quantidade comprada, e discutir as implicações desta decomposição para uma categoria específica de produto. Para isto foram usados dados escaneados de uma amostra de domicílios no contexto varejista brasileiro. Oito hipóteses foram testadas por meio de dois modelos. O primeiro refere-se à decisão de escolha da marca, em que foi empregado o modelo logit condicional baseado na maximização da utilidade do domicílio. O segundo envolveu equações de demanda, obtidas pelo modelo clássico de regressão linear. Ambos foram especificados de forma que se pudesse testar a dependência das duas decisões de compra. No que diz respeito à validação, o modelo de escolha da marca demonstrou uma satisfatória capacidade de previsão, comparativamente aos modelos analisados na literatura. Implicações gerenciais incluem específicas decisões e ações de preço para as marcas, já que a natureza da decomposição das elasticidades-preço varia entre marcas.
Resumo:
Esta tese estuda as competências essenciais requeridas dos profissionais em vendas de bens perecíveis diante das mudanças ambientais e novas estratégias de relacionamento entre as indústrias de alimentação e seus canais de marketing. Há revisões teóricas sobre marketing e venda pessoal no lado da Administração e sobre competências no lado da Psicologia. Da revisão teórica foram selecionadas 16 competências chave para compor um dicionário, convenientes ao atual contexto de relacionamento entre comprador e vendedor. A pesquisa foi conduzida entre participantes de comitês do Movimento ECR Brasil, funcionários de supermercados e de indústrias de alimentação (n = 192). Empregaram-se as técnicas estatísticas da análise fatorial exploratória e da análise fatorial confirmatória e o modelo teórico foi gerado com três dimensões - suporte à competitividade, relacionamento eficaz e integração operacional - abrangendo 12 competências essenciais. Foram testadas as validades convergente, discriminante e nomológica dos constructos do modelo teórico. Quanto às medidas de ajustamento global do modelo teórico mais o índice esperado de validação cruzada (ECVI) foi possível constatar que o modelo demonstrou consistência com os dados e teve uma boa aproximação da população (X² = 68,15, DF = 51, p = 0,054, RMSEA = 0,042). A avaliação dos resultados do modelo de medidas revelou evidência parcial quanto à validade dos constructos e baixa fidedignidade quanto aos indicadores do modelo teórico.
Resumo:
O comércio e as normas formam uma relação simbiótica desde os tempos antigos. Com o fim da economia agrária o desenvolvimento do comércio levou a uma intensiva necessidade de trocas. Das trocas surgem os padrões, decorrentes da necessidade de mensurar pesos, quantidades e intensidades, decorrem normas para definir os procedimentos de trocas justas e necessárias para viabilizar transações entre indivíduos, cidades e nações. Após a II Guerra cria-se a ISO – International Organization for Standardization, e com ela todo o arcabouço de padrões que hoje sistematizam os protocolos comerciais e viabilizam o comércio global. A globalização também popularizou as normas gerenciais que têm origem na qualidade com a série 9000 e depois com a série ambiental e, mais recentemente, a norma social. Este trabalho discute inicialmente alguns motivos que sustentam o sucesso das normas internacionais de gestão, como o despertar de uma consciência socioambiental planetária e as transformações ocorridas no âmbito do comércio internacional. Depois, discute as demandas e influencias que estiveram presentes desde o final do século XX e o aparecimento da economia do conhecimento. Neste contexto buscamos base empírica na forma de dados estatísticos que possam explicar a diferença de comportamento entre países desenvolvidos e em desenvolvimento quanto ao uso de normas internacionais de gestão sobre responsabilidade socioambiental. Verificou-se que os países em desenvolvimento, que antes viam essas normas como barreiras técnicas ao comércio, agora passaram a defendê-las nos comitês técnicos da ISO e usá-las para legitimar a sua produção no comércio internacional. Os principais países ricos que antes defendiam e exigiam tais normas, agora se mostram resistentes e até contrários a elas. Uma possível explicação resultante da análise estaria no fato destes últimos países terem concentrados seus esforços na produção de conhecimentos, deslocando para os demais a fabricação de bens tangíveis buscando legislações ambientais menos rigorosas e mão-de-obra mais barata que ajude a reduzir os custos internacionais e manter metas de inflação reduzidas.
Resumo:
O cerne da Sustentabilidade como conceito contemporâneo é a inclusão de uma lógica diferente da tradicional dentro do sistema social: o cuidado com os aspectos econômicos, humanos e ambientais como orientadores de decisões para toda e qualquer atividade produtiva em exercício (produtos, serviços, bem estar humano). Responder ao constructo da sustentabilidade exige das organizações um sistema complexo de gestão sobre suas trocas com o meio. Nas Organizações Não Governamentais (ONGs) o funcionamento organizacional tem também buscado um estado duradouro de produção de resultados de utilidade pública, adotando formas de gestão que variam entre o tradicionalismo e a inovação, numa tentativa de equilibrar-se com fatores emergentes como a responsabilidade social interna, a capacidade de aprendizagem e a responsabilidade ambiental. Esta pesquisa propõe um composto de Critérios aplicativo dos princípios orientadores da sustentabilidade ajustados às ONGs: substitui os tradicionais elementos que só se aplicam às empresas, como “lucro” e “produção limpa”, por elementos equivalentes nas ONGs, como “produção de resultados” e “inovação metodológica”. Esses ajustes foram feitos a partir da literatura analisada e são sustentados durante toda a dissertação. Diversos estudos e modelos científicos sobre a eficiência, efetividade e sustentabilidade de organizações foram fontes elementares desta pesquisa, para propor um instrumento operacional de medição sobre o quanto uma ONG reflete o constructo da sustentabilidade em sua gestão. A pesquisa é não experimental de caráter exploratório e se utiliza de métodos quantitativos e qualitativos, quando os dados resultantes foram discutidos com um Grupo Foco. A proposição, descrição e validação teórica deu origem ao modelo teórico global de 26 indicadores agrupados em seis Critérios: Governança, Inovação, Produção de Resultados, Gestão e Impacto Econômico-Financeiro, Gestão Social, Gestão, Educação e Impacto Ambiental. Foi aplicado um Questionário com noventa questões para um Universo de 161 ONGs em três áreas de atuação- Educação não formal, Meio Ambiente e Desenvolvimento Comunitário, cadastradas no Mapa do Terceiro Setor (FGV-EAESP / Centro de Estudos do Terceiro Setor), e o índice de respostas foi de 54%. A partir dessa coleta os dados foram analisados de modo quantitativo (estatísticas descritivas, análises e escores fatoriais) e qualitativo (grupo focal), donde surgiram hipóteses emergentes e conclusões para uma inferência descritiva do Universo da pesquisa. As Hipóteses Emergentes resultantes versam sobre a dissociação entre gestão organizacional da economia interna e do meio, a participação da ONG na economia de mercado e a ocorrência de um isomorfismo mimético e normativo nas ONGs. Tece ainda conclusões e provocações para novas investigações.
Resumo:
Neste trabalho é investigada uma abordagem para extração de feições baseada na otimização da distância de Bhattacharyya em um classificador hierárquico de estrutura binária. O objetivo é mitigar os efeitos do fenômeno de Hughes na classificação de dados imagem hiper-espectrais. A utilização de um classificador em múltiplo-estágio, analisando um sub-conjunto de classes em cada etapa ao invés do conjunto total, permite modos mais eficientes para extrair as feições mais adequadas em cada etapa do procedimento de classificação. Em uma abordagem de árvore binária, somente duas classes são consideradas em cada etapa, permitindo a implementação da distância de Bhattacharyya como um critério para extração de feições em cada nó da árvore. Experimentos foram realizados utilizando dados imagem do sensor AVIRIS. A performance da metodologia proposta é comparada com métodos tradicionais para extração e seleção de feições.
Resumo:
Dados volumétricos temporais são usados na representação de fenômenos físicos em várias aplicações de visualização científica, pois tais fenômenos são complexos, alteram-se com o tempo e não possuem uma forma de representação definida. Uma solução é usar amostragens sobre um espaço de forma geométrica simples que contém o fenômeno (um cubo, por exemplo), discretizado ao longo de uma grade em células de mesmo formato e usualmente chamado de volume de amostragem. Este volume de amostragem representa um instante da representação do fenômeno e, para representar dados temporais, simplesmente enumera-se tantos volumes quanto forem as diferentes instâncias de tempo. Esta abordagem faz com que a representação seja extremamente custosa, necessitando de técnicas de representação de dados para comprimir e descomprimir os mesmos. Este trabalho apresenta uma nova abordagem para compressão de volumes de dados temporais que permite a visualização em tempo real destes dados usando hardware gráfico. O método de compressão usa uma representação hierárquica dos vários volumes de dados dentro da memória do hardware gráfico, referenciados pelo hardware como texturas 3D. O método de compressão tem melhor desempenho para dados volumétricos esparsos e com alto grau de coerência (espacial e temporal). A descompressão destes dados é feita por programas especiais que são executados no próprio hardware gráfico. Um estudo de caso usando o método de compressão/descompressão proposto é apresentado com dados provenientes do Projeto MAPEM (Monitoramento Ambiental em Atividades de Perfuração Exploratória Marítima). O objetivo do projeto é propor uma metodologia para o monitoramento dos efeitos das descargas de materiais no ecossistema marinho durante a perfuração de um poço de petróleo. Para estimar certos descarregamentos de fluidos, o projeto usa um simulador CFD que permite mostrar tais descarregamentos, gerando grades planares e uniformes 2D ou 3D em qualquer instante de tempo durante a simulação.
Resumo:
A construção da sustentabilidade constitui-se em um dos grandes desafios deste tempo. A manchete de capa da Harvard Business Review, de agosto de 2003, traz a preocupação das lideranças empresariais com um mundo que mudou. A história da antiga Borregard, hoje Aracruz/ Unidade Guaíba, instalada no Município de Guaíba -RS, desde 1972, conta uma parte desta transformação. O objetivo da pesquisa foi identificar a participação da Aracruz/ Unidade Guaíba no Sistema Estadual de Recursos Hídricos tendo como referência os conceitos de governança e eco-comprometimento. O trabalho descreve a história desde o fechamento da Borregard em 1973/1974, em função das emissões atmosféricas lançadas sobre as populações de Porto Alegre e Guaíba, até consolidar a participação da Aracruz/ Unidade Guaíba no Sistema Estadual de Recursos Hídricos, a partir de 1998, com a criação do Comitê de Gerenciamento do Lago Guaíba. Para tecer esta história apresenta-se a estrutura do Sistema de Gestão de Recursos Hídricos, dando ênfase a sua natureza estatal e ao modelo sistêmico, descentralizado e participativo no qual está baseado Os dados foram coletados através de 31 entrevistas focais e semi-estruturadas, e através dos documentos da Aracruz Unidade Guaíba, do Comitê do Lago Guaíba e do Governo do Estado. Os entrevistados foram identificados entre membros do Comitê do Lago Guaíba, funcionários da Aracruz/ Unidade Guaíba e funcionários da Fundação Estadual de Proteção Ambiental. O questionário semi-estruturado contou com 59 questões, sendo 41 questões fechadas e 18 questões abertas, e as entrevistas focais contaram com um roteiro previamente construído. Utilizou-se o subsídio da Teoria de Governança, em seu enfoque político, para compreender a implementação do Sistema de Gestão de Recursos, e os diferentes papéis de cada um dos atores nele inscritos. Caracteriza-se o ambiente institucional do SERH pelas suas condições de articular o suporte para construção de uma alternativa de Desenvolvimento Sustentável.Na seqüência foi analisado o comprometimento da Aracruz/ Unidade Guaíba com a questão sócio-ambiental, em função da relação estabelecida com os sues stakeholders. Procedeu-se esta investigação tendo como referência os dados coletados, que foram examinados à luz do conceito de eco-comprometimento e de responsabilidade social. Com estes elementos identificou-se a postura da empresa frente aos desafios sócio-ambientais que se configuram na Bacia Hidrográfica do Lago Guaíba. Conclui-se que a atuação da empresa enfatiza uma postura legalista e reativa as tendências de mercado, principalmente em relação aos processos de certificação. A ênfase no tratamento da frente tecnológica do debate ambiental não supre a carência de uma atuação sócio-institucional mais pró-ativa. Percebe-se também que a construção das estruturas de governança para a gestão de recursos hídricos, em face da particularidade da Legislação do Brasil, pressupõe uma atuação eficiente do Estado. No contexto do SERH foram identificadas lacunas significativas na atuação do Estado, que prejudicam a consolidação do ambiente institucional para a construção dos acordos entre a Aracruz/ Uniadade Guaíba e os demais setores organizados da sociedade da bacia Hidrográfica do Lago Guaíba, que possibilitem a construção de alternativas de Desenvolvimento Sustentável.
Resumo:
A modelagem conceitual de banco de dados geográficos (BDG) é um aspecto fundamental para o reuso, uma vez que a realidade geográfica é bastante complexa e, mais que isso, parte dela é utilizada recorrentemente na maioria dos projetos de BDG. A modelagem conceitual garante a independência da implementação do banco de dados e melhora a documentação do projeto, evitando que esta seja apenas um conjunto de documentos escritos no jargão da aplicação. Um modelo conceitual bem definido oferece uma representação canônica da realidade geográfica, possibilitando o reuso de subesquemas. Para a obtenção dos sub-esquemas a serem reutilizados, o processo de Descoberta de Conhecimento em Bancos de Dados (DCBD – KDD) pode ser aplicado. O resultado final do DCBD produz os chamados padrões de análise. No escopo deste trabalho os padrões de análise constituem os sub-esquemas reutilizáveis da modelagem conceitual de um banco de dados. O processo de DCBD possui várias etapas, desde a seleção e preparação de dados até a mineração e pós-processamento (análise dos resultados). Na preparação dos dados, um dos principais problemas a serem enfrentados é a possível heterogeneidade de dados. Neste trabalho, visto que os dados de entrada são os esquemas conceituais de BDG, e devido à inexistência de um padrão de modelagem de BDG largamente aceito, as heterogeneidades tendem a aumentar. A preparação dos dados deve integrar diferentes esquemas conceituais, baseados em diferentes modelos de dados e projetados por diferentes grupos, trabalhando autonomamente como uma comunidade distribuída. Para solucionar os conflitos entre esquemas conceituais foi desenvolvida uma metodologia, suportada por uma arquitetura de software, a qual divide a fase de préprocessamento em duas etapas, uma sintática e uma semântica. A fase sintática visa converter os esquemas em um formato canônico, a Geographic Markup Language (GML). Um número razoável de modelos de dados deve ser considerado, em conseqüência da inexistência de um modelo de dados largamente aceito como padrão para o projeto de BDG. Para cada um dos diferentes modelos de dados um conjunto de regras foi desenvolvido e um wrapper implementado. Para suportar a etapa semântica da integração uma ontologia é utilizada para integrar semanticamente os esquemas conceituais dos diferentes projetos. O algoritmo para consulta e atualização da base de conhecimento consiste em métodos matemáticos de medida de similaridade entre os conceitos. Uma vez os padrões de análise tendo sido identificados eles são armazenados em uma base de conhecimento que deve ser de fácil consulta e atualização. Novamente a ontologia pode ser utilizada como a base de conhecimento, armazenando os padrões de análise e possibilitando que projetistas a consultem durante a modelagem de suas aplicações. Os resultados da consulta ajudam a comparar o esquema conceitual em construção com soluções passadas, aceitas como corretas.
Resumo:
Este trabalho versa sobre a avaliação da compressão de dados e da qualidade de imagens e animações usando-se complexidade de Kolmogorov, simulação de máquinas e distância de informação. Complexidade de Kolmogorov é uma teoria da informação e da aleatoriedade baseada na máquina de Turing. No trabalho é proposto um método para avaliar a compressão de dados de modelos de animação gráfica usando-se simulação de máquinas. Também definimos formalmente compressão de dados com perdas e propomos a aplicação da distância de informação como uma métrica de qualidade de imagem. O desenvolvimento de uma metodologia para avaliar a compressão de dados de modelos de animação gráfica para web é útil, a medida que as páginas na web estão sendo cada vez mais enriquecidas com animações, som e vídeo, e a economia de banda de canal tornase importante, pois os arquivos envolvidos são geralmente grandes. Boa parte do apelo e das vantagens da web em aplicações como, por exemplo, educação à distância ou publicidade, reside exatamente na existência de elementos multimídia, que apoiam a idéia que está sendo apresentada na página. Como estudo de caso, o método de comparação e avaliação de modelos de animação gráfica foi aplicado na comparação de dois modelos: GIF (Graphics Interchange Format) e AGA (Animação Gráfica baseada em Autômatos finitos), provando formalmente que AGA é melhor que GIF (“melhor” significa que AGA comprime mais as animações que GIF). Foi desenvolvida também uma definição formal de compressão de dados com perdas com o objetivo de estender a metodologia de avalição apresentada Distância de informação é proposta como uma nova métrica de qualidade de imagem, e tem como grande vantagem ser uma medida universal, ou seja, capaz de incorporar toda e qualquer medida computável concebível. A métrica proposta foi testada em uma série de experimentos e comparada com a distância euclidiana (medida tradicionalmente usada nestes casos). Os resultados dos testes são uma evidência prática que a distância proposta é efetiva neste novo contexto de aplicação, e que apresenta, em alguns casos, resultados superiores ao da distância euclidiana. Isto também é uma evidência que a distância de informação é uma métrica mais fina que a distância euclidiana. Também mostramos que há casos em que podemos aplicar a distância de informação, mas não podemos aplicar a distância euclidiana. A métrica proposta foi aplicada também na avaliação de animações gráficas baseadas em frames, onde apresentou resultados melhores que os obtidos com imagens puras. Este tipo de avaliação de animações é inédita na literatura, segundo revisão bibliográfica feita. Finalmente, neste trabalho é apresentado um refinamento à medida proposta que apresentou resultados melhores que a aplicação simples e direta da distância de informação.
Resumo:
Este estudo parte de um painel de 52 países entre 1990 e 2007 para verificar se o desalinhamento da taxa de câmbio real contribui para explicar a redução da inflação mundial quando comparada à decisão de adoção do Regime de Metas de Inflação por 25 países desta amostra. O modelo Ball-Sheridan (2005) é re-estimado com novos dados e estendido para considerar os fundamentos da taxa de câmbio e o desalinhamento cambial. Verifica-se que a adoção do regime de metas de inflação é relevante para explicar a redução das taxas de inflação, em particular nos países emergentes onde confere credibilidade à política monetária. Não se verifica que o desalinhamento cambial tenha efeito significativo na convergência da inflação mundial.
Resumo:
As observações relatadas por Myers e Thompson, em seu artigo “Generalized Optimal Hedge Ratio Estimation” de 1989, foram analisadas neste estudo utilizando o boi gordo como a commodity de interesse. Myers e Thompson, demonstraram teórica e empiricamente, ser inapropriado o uso do coeficiente angular da regressão simples, dos preços à vista sobre os preços futuros como forma de estimar a razão ótima de hedge. Porém, sob condições especiais, a regressão simples com a mudança dos preços resultou em valores plausíveis, próximos àqueles determinados por um modelo geral. Este modelo geral, foi desenvolvido com o intuito de estabelecer os parâmetros para comparar as diferentes abordagens na estimativa da razão ótima de hedge. O coeficiente angular da reta da regressão simples e a razão ótima de hedge tem definições similares, pois ambos são o resultado da divisão entre a matriz de covariância dos preços, à vista e futuros e a variância dos preços futuros. No entanto, na razão ótima de hedge estes valores refletem o momento condicional, enquanto que na regressão simples são valores não condicionais. O problema portanto, está em poder estimar a matriz condicional de covariância, entre os preços à vista e futuros e a variância condicional dos preços futuros, com as informações relevantes no momento da tomada de decisão do hedge. Neste estudo utilizou-se o modelo de cointegração com o termo de correção de erros, para simular o modelo geral. O Indicador ESALQ/BM&F foi utilizado como a série representativa dos preços à vista, enquanto que para os preços futuros, foram utilizados os valores do ajuste diário dos contratos de boi gordo, referentes ao primeiro e quarto vencimentos, negociados na Bolsa Mercantil e de Futuros - BM&F. Os objetivos do presente estudo foram: investigar se as observações feitas por Myers e Thompson eram válidas para o caso do boi gordo brasileiro, observar o efeito do horizonte de hedge sobre a razão ótima de hedge e o efeito da utilização das séries diárias e das séries semanais sobre a estimativa da razão ótima de hedge. Trabalhos anteriores realizados com as séries históricas dos preços do boi gordo, consideraram apenas os contratos referentes ao primeiro vencimento. Ampliar o horizonte de hedge é importante, uma vez que as atividades realizadas pelos agentes tomam mais do que 30 dias. Exemplo disto é a atividade de engorda do boi, que pode levar até 120 dias entre a compra do boi magro e a venda do boi gordo. Demonstrou-se neste estudo, que o uso das séries semanais, é o mais apropriado, dado a diminuição substancial da autocorrelação serial. Demonstrou-se também, que as regressões com as mudanças dos preços, resultaram em estimativas da razão de hedge próximas daquelas obtidas com o modelo geral e que estas diminuem com o aumento do horizonte de hedge.
Resumo:
O objetivo do trabalho é investigar a relação de longo prazo entre capital e inovação, utilizando técnicas econométricas mais recentes, com dados em painel. Diversos testes alternativos de cointegração foram utilizados, como testes com coeficientes comuns e idiossincráticos entre os cross-sections (testes de Pedroni, de Kao e de Fischer), e testes onde a hipótese de cointegração é nula (teste de McCoskey e Kao), incluindo testes com quebras estruturais (teste de Westerlund). As conclusões principais são a evidência forte de que estoque de capital humano afeta de forma significativa o número de inovações. Tabém foram encontradas evidências de que a hierarquia de educação importe para o aumento de inovações.