994 resultados para Vetores espaciais instantâneos
Resumo:
O trabalho analisa a evolução da política monetária desde a implementação do regime de metas de inflação no período de 1999 a 2009 com o intuito de avaliar se há diferenças na condução de política monetária entre as gestões Armínio Fraga e Henrique Meirelles. Um modelo de equilíbrio geral novo-keynesiano baseado em expectativas racionais é utilizado para modelar a economia brasileira e deriva-se uma regra de Taylor para encontrar a condição suficiente para a convergência da inflação. O processo de analise empírica consiste em estimar um modelo de vetores auto-regressivos, cujos parâmetros variam ao longo do tempo assim como as inovações na matriz de variância-covariância. Para tanto, será utilizado um algoritmo de simulação de Monte Carlo. Os resultados empíricos mostram que (i) não há diferenças significativas na condução de política monetária durante as gestões Armínio Fraga e Henrique Meirelles; (ii) A partir de 2003, a taxa de juros permaneceu acima da necessária para a convergência da inflação de acordo com a condição de estabilidade; e (iii) a gestão Armínio Fraga agiu de acordo com a regra de estabilização na crise de 2002, porém a inflação permaneceu acima da meta por causa da magnitude choques exógenos.
Resumo:
O objetivo central desse artigo é o de propor e avaliar modelos econométricos de previsão para o PIB industrial brasileiro. Para tanto, foram utilizados diversos modelos de previsão como também combinações de modelos. Foi realizada uma analise criteriosa das séries a serem utilizadas na previsão. Nós concluímos que a utilização de vetores de cointegração melhora substancialmente a performance da previsão. Além disso, os modelos de combinação de previsão, na maioria dos casos, tiveram uma performance superior aos demais modelos, que já apresentavam boa capacidade preditiva.
Resumo:
Neste trabalho, o potencial para produtos de supermercados em municípios do Estado de São Paulo é modelado por meio da aplicação de modelos lineares hierárquicos em dois níveis (município e microrregião) e em três níveis (município, micro e mesorregião). Os modelos lineares hierárquicos acomodam bem as relações espaciais de vizinhança e hierarquia que estruturam o mercado, produzindo resíduos normais, homocedásticos e não autocorrelacionados espacialmente (enquanto os modelos de regressão linear convencionais não permitem incorporar os conceitos de estrutura geográfica e têm seus pressupostos de homocedasticidade e independência violados). A metragem de loja e a densidade populacional são propostas como variáveis proxi para, respectivamente, a demanda de mercado e a hierarquia de uma localidade.
Resumo:
Comunidades campestres foram descritas por Tipos Funcionais de Plantas (TFs). Utilizou-se um método politético de identificação de atributos macromorfológicos da vegetação e TFs com máxima correlação com as variáveis ambientais consideradas. Avaliaram-se os padrões de resposta da vegetação à herbivoria por rebanho bovino (Tipos Funcionais de Resposta: TFRs), e o efeito da estrutura das comunidades de TFs no processo seletivo do pastejo (Tipos Funcionais de Efeito: TFEs), bem como o grau de sobreposição dos tipos identificados. A alternância entre condições de exposição ao distúrbio ou exclusão do mesmo permitiu observar variações em padrões espaciais e temporais da composição da vegetação assim descrita. Buscou-se a reconstrução de uma série temporal única através de um método determinístico baseado na sobreposição espaço-temporal desses padrões. O experimento foi realizado num período de nove meses, tendo sido a estrutura da vegetação avaliada em função de dois períodos de pastejo. Observou-se uma diferença mais nítida na composição de TFRs entre as comunidades protegidas do pastejo e aquelas mais freqüentemente pastejadas. Comunidades protegidas apresentaram TFRs de maior porte, biomassa uniformemente distribuída e maiores proporções de caules lignificados, enquanto que uma tendência mais nítida em direção a uma concentração de biomassa aérea próxima do solo foi verificada com o aumento da frequência do distúrbio. A relação com um índice de intensidade de desfolha indicou a preferência por TFEs com pouca proporção de lâminas foliares senescentes, porte intermediário, e uma mínima proporção de biomassa aérea alocada a caules lignificados. Embora tenha sido verificada uma correspondência entre os atributos que descreveram os TFRs e TFEs, a correlação obtida entre as duas abordagens mostrou-se pouco satisfatória A série temporal obtida pelo método determinístico não apresentou padrões estáveis, possivelmente devido ao número insuficiente de séries parciais observadas, bem como ao curto período de avaliação das mesmas.
Resumo:
A presente dissertação consiste em um exame do argumento que Kant apresenta na ‘Estética Transcendental’ (Crítica da Razão Pura, A26/B42) em defesa da não espacialidade das coisas em si mesmas. Esse exame está amplamente baseado na interpretação de Henry Allison, seja por assimilar algumas de suas teses interpretativas centrais, seja por insistir no diálogo com os textos do intérprete nos momentos em que deles se distancia ou diverge. São dois os eixos principais da leitura desenvolvida na dissertação. O primeiro é a compreensão da distinção transcendental entre coisas em si mesmas e aparições [Erscheinungen] conforme a assim chamada “teoria dos dois aspectos”. Fruto dos trabalhos de Gerold Prauss e de Allison, essa tese de interpretação reza que a distinção transcendental deve ser entendida não como uma oposição entre reinos disjuntos de entidades, mas como uma distinção de aspectos. O segundo pilar da leitura proposta é a defesa de uma concepção moderada da tese da não espacialidade. Nessa versão moderada, diversamente da formulação mais forte à qual a maioria dos intérpretes costuma aderir, a tese kantiana não estabeleceria que as coisas em si mesmas seriam não-espacias em todo e qualquer sentido que se pudesse conferir ao adjetivo ‘espacial’. Os primeiros capítulos da dissertação concentram-se em averiguar a solidez da teoria dos dois aspectos, em especial, em demonstrar sua compatibilidade com duas importantes teses kantianas, a afirmação que as aparições do sentido externo são espaciais e a referida tese da não espacialidade. O trabalho de conciliação resume-se a esclarecer como é possível afirmar, sem contradição, que aparições e coisas em si mesmas são as mesmas coisas (conquanto consideradas sob aspectos distintos) e que aparições possuem certas propriedades (determinações espaciais) que as coisas em si mesmas não possuem.A solução dessa dificuldade resultou na identificação de duas premissas fundamentais que uma caridosa interpretação baseada na teoria dos aspectos deveria reconhecer no argumento kantiano: de um lado, o princípio do caráter constitutivo da relação cognitiva, de outro, a admissão de uma estrutura judicativa peculiar: o juízo reduplicativo. O terceiro capítulo trata, por fim, do sentido da tese da não espacialidade. Em primeiro lugar, procurou-se desqualificar aquelas interpretações que pretendem fortalecer o peso lógico da tese. Essencial para essa fase crítica da argumentação foi a discussão de dois paradoxos recorrentes na literatura secundária: a célebre objeção suscitada por A. Trendelenburg (a alternativa negligenciada) e a dificuldade de conciliação entre as afirmações da não espacialidade e da incognoscibilidade das coisas em si mesmas. Em um segundo momento, buscou-se apresentar os fundamentos conceituais e exegéticos em favor de uma versão mais fraca da tese kantiana. Em síntese, a investigação pretendeu confirmar a proposição segundo a qual a não espacialidade das coisas em si mesmas, ainda que baseada nas condições ontológicas do representado, estaria prioritariamente fundada nas condições de representação, i.e., nas condições de atribuição dos conteúdos de uma representação consciente objetiva (cognição) ao representado.
Resumo:
É apresentada uma nova abordagem na técnica e na avaliação de área de florestas nativas, exóticas e uso do solo do Nordeste do Estado do Rio Grande do Sul, em particular no entorno da escarpa que divide os Campos de Cima da Serra e a Planície Costeira, caracterizada por apresentar espécies de Pinus elliotti Engelm var elliottiii e Pinus taeda L., Eucalyptus sp. e Araucaria angustifólia (Bert.) O. Ktze. e áreas de campo nativo. Nas últimas décadas tem se verificado avanço das florestas exóticas, principalmente de florestas de pinus, sobre as áreas de campo e florestas nativas, surgindo como uma das maiores fontes de exploração econômica da região. Parcialmente em razão disto, as florestas de araucária distribuem-se de forma pouco homogênea, em decorrência de décadas de desmatamento. As técnicas de classificação em Sensoriamento Remoto, usando imagens de Landsat, mostraram que é possível separar tipos diferentes de vegetação, e no exemplo das florestas na região estudada, tanto nativas como exóticas. As limitações em definições espacial e espectral até meados da década de 1990 motivaram o desenvolvimento de uma nova geração de satélites e sensores, incluindo o sensor ASTER a bordo do satélite Terra. Este sensor apresenta 14 bandas espectrais com diferentes resoluções espaciais, sendo usado nesta pesquisa suas 9 bandas correspondentes ao espectro de radiância refletida. O foco central deste trabalho está na utilização de sensoriamento remoto e geoprocessamento para determinação de áreas de vegetação e uso do solo no extremo leste dos Campos de Cima da Serra, através de imagens orbitais do sensor ASTER. Utilizando métodos de classificação supervisionada foi possível caracterizar a área, separar as espécies vegetais entre si, além de quantificá-las O grupo das 9 bandas foram distribuídas em três grupos: com 3 bandas de resolução espacial de 15 metros no visível e infravermelho próximo (VNIR); com 6 bandas com resolução espacial de 30 metros no infravermelho médio (SWIR); e com 9 bandas com resolução espacial de 30 metros cobrindo toda a faixa de resolução espectral do espectro de radiância refletida do sensor ASTER (VNIR+SWIR). A metodologia incluiu processamento de imagem e classificação com o algoritmo de máxima verossimilhança gaussiana. Os resultados são: 1) é possível identificar tipos diferentes de manejo e idade nas florestas de Pinus elliottii (jovens, adulto, velho e manejado diferenciado); 2) a exatidão geral foi de 90,89% no subsistema VNIR, e o índice do Kappa foi de 0,81 em ambos subsistemas VNIR e (VNIR+SWIR); 3) a classificação apresentando o mapa do uso do solo mostra que, de forma geral, os dados de VNIR têm os melhores resultados, incluindo o detalhamento para pequenas áreas da superfície terrestre. O grupo (VNIR+SWIR) têm potencial superior para a determinação das classes araucária , eucalipto e pinus com manejo / pinus adulto , enquanto que o grupo SWIR não apresenta não vence em nenhuma classe; 4) com relação aos dados de exatidão geral resultantes do subsistema VNIR, a área estimada de pinus é 22,28% da área estudada (cena de 1543,63 quilômetros quadrados totais), e de araucária é 10,10%, revelando que aquela espécie exótica está mudando rapidamente a paisagem da região. Na comparação destes resultados com outros estudos na região pesquisada, verifica-se que a utilização de dados ASTER implica em um aumento na acurácia da classificação de vegetação em geral e que este sensor é altamente apropriado para estudos ambientais, devido a suas excelentes características espaciais e espectrais.
Resumo:
A elaboração de diagnósticos e a tomada de decisões sobre o meio físico, com a finalidade de estabelecer diretrizes para a ocupação racional do solo, são cada vez mais prementes, especialmente, no que diz respeito ao direcionamento da expansão urbana para áreas mais favoráveis. Da mesma forma, a facilidade de acesso aos parâmetros geotécnicos de uma região constituí um inestimável recurso nas etapas preliminares dos projetos de Engenharia, no planejamento de atividades extrativas e nos programas de preservação ambiental. A cartografia geotécnica, nesse sentido, tem sido um dos instrumentos mais eficientes para a avaliação do meio físico nas últimas décadas. Entretanto, o desenvolvimento de um mapa geotécnico requer a análise de um grande número de informações que precisam ser tratadas e combinadas com rapidez. Esta tese apresenta uma metodologia para a integração de dados, por meio da ferramenta básica geoprocessamento, visando agilizar, na fase de escritório, a elaboração de mapas geotécnicos e a análise de determinados aspectos do meio físico sob o ponto de vista da Geotecnia, bem como suas interações com a mancha urbana existente. A área teste escolhida é o município de Porto Alegre (RS) situado na porção leste do estado do Rio Grande do Sul, à margem esquerda do Lago Guaiba, cuja paisagem é marcada pela diversidade de cenários naturais formados por terrenos de coxilhas, morros, cristas, lagos e planícies. A metodologia envolve a captura, o processamento e a integração de informações provenientes de fontes diversas como mapas temáticos, levantamento aerofotogramétrico, cartas topográficas, fotografias aéreas, imagens de satélite, boletins de sondagens SPT (Standart Penetration Test), dissertações e teses acadêmicas. Para isso, é constituída por nove etapas distintas, que utilizam: a) sistema de digitalização para a conversão de informações analógicas para o meio digital; b) modelagem digital do terreno (MDT) para o modelamento e a identificação do relevo, a determinação de declividades, o mapeamento de áreas com isodeclividades e o cálculo do fator topográfico, esse último objetivando a determinação da suscetibilidade à erosão laminar; c) técnicas de processamento e classificação de imagens orbitais para os mapeamentos das áreas inundáveis e da mancha urbana; d) Sistemas de Informações Geográficas (SIGs) para o processamento e a integração de informações georreferenciadas no computador; e) banco de dados digital para o armazenamento de dados descritivos sobre o meio físico e parâmetros geotécnicos obtidos em laboratório, sondagens e outras formas de investigação in situ. A estimativa das unidades geotécnicas é procedida com base na proposta metodológica para mapeamento geotécnico desenvolvida por Davison Dias (1995), na Universidade Federal do Rio Grande do Sul (UFRGS). Além da elaboração do mapa geotécnico, a metodologia propõe a análise e o cruzamento de vários fatores do meio físico com a mancha urbana existente, ou com uma subárea pertencente à região de estudo, a geração de mapas de aptidão do solo para diferentes usos e a identificação das áreas consideradas de eventos perigosos e de risco geológico. Os principais softwares empregados são o AutoCAD@, o SURFER@, ACESS@ e o IDRISI 2.0@, desenvolvido pela Clark University, USA. Os resultados obtidos a partir da implementação da metodologia demonstraram a importância e a contribuição que a ferramenta básica geoprocessamento pode trazer aos estudos geotécnicos. Os diferentes sistemas de geoprocessamento utilizados para a manipulação e tratamento das informações espaciais mostraram-se adequados e eficientes quando aplicados na coleta, processamento e integração de dados geotécnicos. Para a área teste foram identificadas trinta e sete unidades com perfis de solos com comportamento geotécnico praticamente similar frente ao uso e à ocupação do solo, cujas informações descritivas sobre o meio físico puderam ser facilmente acessadas e visualizadas, no computador, por meio da integração banco de dados geotécnicos com Sistema de Informações Geográficas. Por outro lado, o emprego de técnicas de processamento e classificação de imagens digitais revelou-se um recurso importante para a obtenção de informações sobre o meio físico, enquanto o uso de modelagem digital do terreno (MDT) agilizou o mapeamento das declividades e o cálculo da suscetibilidade potencial à erosão laminar, além de permitir a geração do relevo em perspectiva da região estudada.
Resumo:
Trata do estudo da implementação de uma política urbana no processo de transição para a urbanização capitalista industrial da cidade de São Paulo ocorrido durante o Estado Novo (1937 a 1945>). A análise da implementação da política urbana interesse na análise das transformações espaciais ocorridas no processo de industrialização, sendo estas transformações abordadas em três diferentes momentos; antes, durante e depois da intervenção, de modo a sugerir uma visão comparativa das diferentes fases do processo e dai apreender o papel do Estado. O objeto empírico e o Plano de Avenidas, implementado pelo Prefeito Francisco Prestes Maia, durante o Estado Novo. A política urbana é associada à política pública de desenvolvimento industrial, construída no pós- Revolução de 1930 e no processo de consolidação da sociedade urbano-industrial no Brasil.
Resumo:
Em cenas naturais, ocorrem com certa freqüência classes espectralmente muito similares, isto é, os vetores média são muito próximos. Em situações como esta, dados de baixa dimensionalidade (LandSat-TM, Spot) não permitem uma classificação acurada da cena. Por outro lado, sabe-se que dados em alta dimensionalidade [FUK 90] tornam possível a separação destas classes, desde que as matrizes covariância sejam suficientemente distintas. Neste caso, o problema de natureza prática que surge é o da estimação dos parâmetros que caracterizam a distribuição de cada classe. Na medida em que a dimensionalidade dos dados cresce, aumenta o número de parâmetros a serem estimados, especialmente na matriz covariância. Contudo, é sabido que, no mundo real, a quantidade de amostras de treinamento disponíveis, é freqüentemente muito limitada, ocasionando problemas na estimação dos parâmetros necessários ao classificador, degradando portanto a acurácia do processo de classificação, na medida em que a dimensionalidade dos dados aumenta. O Efeito de Hughes, como é chamado este fenômeno, já é bem conhecido no meio científico, e estudos vêm sendo realizados com o objetivo de mitigar este efeito. Entre as alternativas propostas com a finalidade de mitigar o Efeito de Hughes, encontram-se as técnicas de regularização da matriz covariância. Deste modo, técnicas de regularização para a estimação da matriz covariância das classes, tornam-se um tópico interessante de estudo, bem como o comportamento destas técnicas em ambientes de dados de imagens digitais de alta dimensionalidade em sensoriamento remoto, como por exemplo, os dados fornecidos pelo sensor AVIRIS. Neste estudo, é feita uma contextualização em sensoriamento remoto, descrito o sistema sensor AVIRIS, os princípios da análise discriminante linear (LDA), quadrática (QDA) e regularizada (RDA) são apresentados, bem como os experimentos práticos dos métodos, usando dados reais do sensor. Os resultados mostram que, com um número limitado de amostras de treinamento, as técnicas de regularização da matriz covariância foram eficientes em reduzir o Efeito de Hughes. Quanto à acurácia, em alguns casos o modelo quadrático continua sendo o melhor, apesar do Efeito de Hughes, e em outros casos o método de regularização é superior, além de suavizar este efeito. Esta dissertação está organizada da seguinte maneira: No primeiro capítulo é feita uma introdução aos temas: sensoriamento remoto (radiação eletromagnética, espectro eletromagnético, bandas espectrais, assinatura espectral), são também descritos os conceitos, funcionamento do sensor hiperespectral AVIRIS, e os conceitos básicos de reconhecimento de padrões e da abordagem estatística. No segundo capítulo, é feita uma revisão bibliográfica sobre os problemas associados à dimensionalidade dos dados, à descrição das técnicas paramétricas citadas anteriormente, aos métodos de QDA, LDA e RDA, e testes realizados com outros tipos de dados e seus resultados.O terceiro capítulo versa sobre a metodologia que será utilizada nos dados hiperespectrais disponíveis. O quarto capítulo apresenta os testes e experimentos da Análise Discriminante Regularizada (RDA) em imagens hiperespectrais obtidos pelo sensor AVIRIS. No quinto capítulo são apresentados as conclusões e análise final. A contribuição científica deste estudo, relaciona-se à utilização de métodos de regularização da matriz covariância, originalmente propostos por Friedman [FRI 89] para classificação de dados em alta dimensionalidade (dados sintéticos, dados de enologia), para o caso especifico de dados de sensoriamento remoto em alta dimensionalidade (imagens hiperespectrais). A conclusão principal desta dissertação é que o método RDA é útil no processo de classificação de imagens com dados em alta dimensionalidade e classes com características espectrais muito próximas.
Resumo:
Esta dissertação propõe uma leitura textual do romance Notre-Dame de Paris, de Victor Hugo, a partir de algumas imagens singulares apresentadas nesta produção hugoliana. O objetivo deste percurso de pesquisa consiste em evidenciar a leitura simbólica da obra em questão, captada das relações da literatura com a arquitetura, configurada por algumas imagens nucleares, como Anankè, que assombra as figuras que povoam o romance, como o advento da imprensa, como a lucarna, como a cela do padre, entre outras. Sob este ângulo, acredita-se que o campo psicanalítico permite decifrar os efeitos do enigma e da fascinação produzidos pela obra hugoliana sobre o leitor. Nesse sentido, considera-se que o inconsciente representa o ponto de irradiação das pulsões, território que vai traduzir as relações espaciais da literatura com a arquitetura, enquanto expressões do simbólico. Desta maneira, o caminho de pesquisa se articula em três capítulos. Enquanto o primeiro, intitulado "Notre-Dame de Paris e a representação por imagens", visa a situar este percurso de pesquisa do ponto de vista do corpus teórico, representado, sobretudo, por Barthes e Blanchot, no que se refere à literatura, e por Freud, no que se refere à psicanálise; o segundo, intitulado "Notre-Dame de Paris e a crítica literária", procura apresentar uma leitura crítica baseada em quatro prefácios diferentes, de Notre-Dame de Paris: enfatizam o que seus autores destacam no contexto histórico que aparece escondido sob as imagens impostas pela escritura hugoliana; finalmente, o terceiro, intitulado "Imagens simbólicas de Notre-Dame de Paris", estabelece a leitura textual das imagens simbólicas que se produzem em Notre-Dame de Paris, intermediadas pelo cruzamento da literatura com a arquitetura.
Resumo:
O setor de serviços tem se mostrado cada vez mais relevante, com crescentes contribuições para a atividade econômica e os fluxos comerciais internacionais. Especificamente em empresas de alta intensidade tecnológica, a capacidade de inovação é identificada como parte integrante do padrão de funcionamento e constitui-se a mola propulsora destas empresas. O Objetivo deste trabalho é de identificar práticas e vetores de inovação em empresas de alta intensidade tecnológica que atuam no mercado Brasileiro, que se mostram mais favoráveis a um desafio de migrar competências existentes para inovar em serviços. Para o desenvolvimento deste estudo procurou-se utilizar pesquisas secundárias sobre empresas de alta intensidade tecnológica que atuam no Brasil (IBGE-PINTEC 2005), com características notadamente inovadoras. Na seqüência, aplicou-se questionários de pesquisa primária naquelas empresas identificadas como mais promissoras. Três estudos de casos, de três empresas de Alta Tecnologia foram cuidadosamente analisados: O primeiro analisa o sucesso obtido pela CTF Technologies, o Segundo analisa os desafios enfrentados pela Lucent Technologies no período pré-fusão e o Terceiro estudo analisa a estratégia do CPQD para crescimento da importância dos serviços. As conclusões baseadas nestes casos permitem acreditar que é possível aproveitar o conhecimento sobre produtos e tecnologias e somá-los ao conhecimento das necessidades dos clientes para criar a base para a inovação em serviços. Estes estudos apontam ainda para um modelo de transição de inovação entre produtos e serviços, baseado na produção de softwares (produtos intangíveis), através de um sucessivo e gradual incremento dos elementos customizáveis presentes nestes softwares, transformando-os finalmente em plataformas para prestação de serviços de alta intensidade tecnológica.
Resumo:
O presente trabalho apresenta a investigação acerca da aplicação do processo de avaliação de RH, sobretudo no que diz respeito à sua função de verificar se a área está contribuindo para os objetivos estratégicos das organizações. O objetivo é esclarecer, contribuir para elucidar o processo nessas empresas, tendo em vista a crescente importância dos funcionários e a mudança no papel do RH nas organizações. A pesquisa foi realizada por meio de quatro estudos de caso com as maiores redes hoteleiras do Brasil, sendo duas delas de origem nacional e as outras duas estrangeiras. A análise dos casos revela que, de forma geral, as empresas buscam a utilização de indicadores para avaliar os resultados da área em relação aos objetivos estratégicos de RH e da organização. As evidências revelam ainda que há certa convergência em relação aos desafios específicos do segmento e os aspectos avaliados pelos indicadores. Entretanto, a pesquisa indica que as redes hoteleiras não desenvolvem os indicadores com base na compreensão da forma pela qual a área contribui estrategicamente para o desempenho das empresas. Em alguns casos, a avaliação verifica a contribuição de atividades específicas para os resultados financeiros e operacionais, mas não se trata de um processo integrado que parte da estratégia definindo os vetores de desempenho de RH. Por fim, a pesquisa mostra que algumas empresas valorizam os resultados de RH de forma estratégica, o que sugere uma abordagem distinta à de que é necessário quantificar e mensurar a relação causal entre os resultados de RH e o desempenho financeiro das organizações.
Resumo:
Com o crescente uso das teorias e métodos vindos das áreas de economia regional e urbana, economia e econometria espacial na fronteira entre as áreas de economia e políticas públicas, estudar esse arcabouço teórico e metodológico torna-se relevante no campo da análise de políticas públicas. O objetivo geral dessa dissertação é discutir de modo crítico aspectos da literatura de econometria espacial e sua aplicabilidade, com especial foco na comparação entre os diferentes modelos e matrizes de ponderação espacial. Esse estudo procura analisar diferentes formas de medidas que permitem a construção de uma matriz de ponderação espacial, bem como testar por meio de simulação experimental e em uma aplicação empírica a robustez de algumas dessas matrizes e de diferentes modelos. Dadas as indicações da literatura e as evidências mostradas nessa dissertação, a estratégia mais confiável para a busca de um modelo parece ser utilizar as estimativas dos modelos, em conjunto com as estatísticas de Moran, para identificar presença de algum tipo de correlação espacial, e do teste LM da variável dependente, para indicar esse tipo de correlação especificamente. Observa-se que, de modo geral, não há muita diferença em termos de esperança dos parâmetros não espaciais, quando comparadas a estimações tradicionais com as que utilizam as técnicas espaciais. Com isso, a indicação que se pode fazer é que o uso das ferramentas de econometria espacial deve ser aplicado quando o interesse da análise é justamente na estimação dos parâmetros de correlação espacial. Comparando o uso da matriz de contigüidade no lugar da matriz de distâncias, é possível notar que a matriz de contigüidade não é, de forma geral, uma boa substituição para a matriz de distâncias. Ela capta parcialmente o efeito de rho e lambda, além de captar erroneamente lambda, quando este inexiste.
Resumo:
O edifício hospitalar é um tipo arquitetônico funcionalmente complexo que, segundo se observa, sofreu substanciais alterações no decorrer dos tempos, passando de pavilhonar a monobloco vertical. Esse estudo apresenta uma visão sobre a transformação tipológica do edifício hospitalar, identificando exemplos que apresentam qualidades espaciais de conforto nas unidades de internação e correlacionando princípios corbusianos de projeto e estratégias bioclimáticas. A arquitetura bioclimática explora os benefícios do clima, com soluções integradas para o conforto ambiental como princípio de projeto. O estudo relaciona as variáveis que afetam o conforto ambiental numa internação hospitalar, onde as premências de qualidade de vida são fundamentais para o pronto restabelecimento dos pacientes, uma vez que abrigam pessoas fragilizadas e com alto nível de estresse. Ao longo da revisão bibliográfica, constata-se que o edifício hospitalar concebido durante a arquitetura moderna beneficia soluções de uma arquitetura adaptada ao meio ambiente.O presente trabalho tem como objetivo analisar as relações da arquitetura bioclimática com os fatores climáticos, o conforto do ser humano e as soluções de arquitetura no contexto do ambiente hospitalar, projetado e construído a partir dos princípios corbusianos. Foi realizado um estudo de caso no Hospital Fêmina de Porto Alegre, por se tratar de um exemplo de arquitetura moderna bioclimática. Os espaços estudados são os quartos das unidades de internação e os elementos de arquitetura moderna contemplados no edifício. Os critérios de avaliação no estudo de caso são: medições de temperatura, iluminação natural e realização de entrevistas e questionários aos usuários, combinados com as análises dos princípios de projeto da arquitetura moderna. As interpretações dos resultados do estudo de caso e análises forneceram subsídios para a discussão das hipóteses levantadas e a elaboração das recomendações de projeto para o conforto ambiental nas internações hospitalares.
Resumo:
Esta dissertação trata da questão dos preços administrados no Brasil sob a argumentação de que os mesmos apresentam uma persistência mais acentuada do que os demais preços da economia. Para alcançar este objetivo foram verificados alguns testes de persistência inflacionária. Em seguida, utilizou-se a metodologia dos Vetores de Correção de Erro (VEC) para estudar a relação dos preços administrados com as variáveis mais importantes da economia brasileira, tais como, produto, taxa de câmbio, preços livres e taxa de juros Selic. Por fim, utilizou-se do instrumental de Mankiw e Reis (2003) para verificar qual o índice de preços seria mais adequado para manter a atividade econômica brasileira mais próxima de seu nível potencial. Os resultados encontrados foram os seguintes: 1) observou-se persistência do IPCA representada pelos preços administrados; 2) a autoridade monetária responde a choques dos preços monitorados com maior veemência do que a choques nos preços livres; 3) o exercício de Mankiw e Reis (2003) apontou que a porcentagem dos preços monitorados deve ser menor que a atual do IPCA em um índice de preços estabilizador. Desta forma, mostra-se que a presença dos preços administrados dificulta pronunciadamente a condução de política monetária no Brasil.