959 resultados para desvio apical
Resumo:
A barreira costeira da Pinheira esta localizada no litoral Centro-Sul do estado de Santa Catarina. Sua rnorfologia e estratigrafia são típicas de uma barreira regressiva. Durante o Holoceno Superior (Últimos 5 ka), a barreira progradou cerca de 5.500 metros, a uma taxa media de 1 ,I mlano. Sua progradação foi determinada por um rebaixamento de aproximadamente 2 m do nível do mar e, principalmente, por uma expressivo aporte de sedimentos arenosos em seu sistema praial, provenientes da plataforma continental adjacente. Nos Últimos 3.500 metros de progradaHo da barreira, ocorridos nos Últimos 3.1 ka, cerca de 60 cordões de dunas frontais foram formados. O intervalo de tempo decorrido entre a formação de dois cordões sucessivos foi de aproximadamente 52 anos. O estudo das propriedades granulométricas do sistema praia-duna atual e de dois dos cordões antigos de dunas frontais, denominados cordões intermediArio e interno, e formados, respectivamente, há cerca de 1280 e 3140 anos AP, revelou que, nos Últimos 3 ka não ocorreram variações significativas destas propriedades. Esta não variação, no tempo, das propriedades granulométricas é atribuída a natureza policíclica do estoque de areia consumido na progradação da barreira e a sua manutenção como fonte de sedimentos durante a progradação, elou a uma relativa constância, nos últimos 3 ka, das condições dinâmicas gerais dos sistema praia-duna atual da enseada da Pinheira. O estudo comparativo entre os diferentes sub-ambientes, ou zonas do sistema praia-duna atual (face da praia, berma e duna frontal), mostrou que o desvio padrão e a assimetria são potencialmente importantes na distinção entre depdsitos eolicos (dunas frontais) e praiais (face da praia) da barreira.
Resumo:
O principal objetivo desta dissertação é a determinação do número de ações, que deve ser mantido numa carteira, suficiente para reduzir ao mínimo a sua porção de risco passível de diversificação e, portanto, para reduzir o seu risco total ao nível de risco não diversificável. Carteira esta mantida com títulos negociados na Bolsa de Valores do Rio de Janeiro. O risco total de um ativo ou carteira, definido como a variabilidade total e medido pela variância ou desvio padrão de seus retornos, pode ser dividido em dois segmentos mutuamente exclusivos: risco diversificável e risco não diversificável.
Resumo:
Esta dissertação é apresentada sob a forma de dois artigos. O primeiro foi realizado com o objetivo de comparar medidas verticais e horizontais de imagens adquiridas em estereomicroscópio (E) e scanner de mesa (S). Para isso, 50 dentes posteriores extraídos de humanos e seccionados no sentido mésio-distal foram utilizados. Cada hemi-secção foi fotografada no estereomicroscópio e digitalizada em scanner de mesa, com resolução de 230 dpi. No programa Photoshop foram realizadas medições horizontais (H) e verticais (V) de cada hemi-secção, nas imagens obtidas pelos dois métodos, com repetição aleatória de 20% dos casos da amostra. As medidas iniciais e repetidas apresentaram excelente correlação e o teste t para amostras pareadas não evidenciou diferenças significativas (p = 0,05) entre elas nos dois métodos. As médias das medidas e seus desvios-padrão foram: horizontais E 8,89 mm ? 4,30 mm, S 8,89 mm ? 4,52 mm e verticais E 4,42 mm ? 2,19 mm, S 4,43 mm ? 2,19 mm. O teste t para amostras pareadas com nível de significância de 5% demonstrou não haver diferenças significativas entre os dois métodos, tanto para as medidas horizontais (p=0,685) quanto para as verticais (p=0,299). Conclui-se que o scanner de mesa pode substituir o estereomicroscópio na aquisição de imagens de hemi-secções de dentes, com a finalidade de obtenção de medidas horizontais e verticais. O segundo artigo avaliou, in vitro, a profundidade de lesões de cárie proximal em dentes posteriores, comparando os exames clínico e radiográfico interproximal, com e sem a aplicação de cores, ao exame histológico. No total, 142 superfícies proximais foram avaliadas clinicamente e radiografadas. Para obtenção do padrão-ouro do estudo o exame histológico com cortes seriado foi realizado e as secções adquiridas, assim como as radiografias, digitalizadas com scanner de mesa A partir da criação de um programa digital, foi possível a aplicação de cores nas imagens radiográficas de maneira padronizada, de acordo com a intensidade de pixels de cada superfície. A profundidade das lesões foi aferida por meio de escores e de medidas nas imagens histológicas, radiográficas com e sem o uso de cor em cada superfície da amostra. O programa não foi capaz de identificar superfícies hígidas e lesões em diferentes profundidades no esmalte. Em todas as lesões que apresentavam alteração radiográfica em dentina, os escores atribuídos às imagens radiográficas com aplicação de cores foram 100% concordantes com os escores histológicos. Em relação às lesões que apresentavam histologicamente alteração na metade externa dentina, 55,56% tiveram sua profundidade subestimada, contudo nenhuma era cavidade em dentina. Todas as lesões que apresentavam profundidade histológica na metade interna de dentina apresentavam cavidade em dentina e mostraram a mesma extensão com a aplicação de cor na radiografia, superando os resultados obtidos com a radiografia sem cor. Em relação às medidas de profundidade, quando um desvio-padrão foi subtraído da média de densidade óptica para a aplicação de cores, as medidas resultantes foram ligeiramente menores e não diferiram significativamente daquela do exame histológico de acordo com a Análise de Variância, utilizando o delineamento de blocos casualizados, complementado pelo teste de Comparações Múltiplas de Tukey. O uso de um programa digital que determina de maneira padronizada como cada imagem deve ser colorida auxilia no diagnóstico de lesões de cárie que apresentam extensão histológica em dentina, especialmente aquelas que atinjam a sua porção interna.
Resumo:
Esta dissertação é apresentada sob a forma de quatro artigos. O artigo I avaliou a concordância e a acurácia no diagnóstico da situação do periápice de molares e prémolares inferiores portadores ou não de patologia periapical. Quarenta radiografias periapicais foram selecionadas, vinte de dentes com vitalidade pulpar e sem radiolucências periapicais e vinte de dentes com necrose pulpar. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas no formato JPEG 12. As imagens digitalizadas foram apresentadas no formato de slides com fundo preto no programa PowerPoint, sendo projetadas em equipamento multimídia para dois grupos de dez observadores, estudantes de pós-graduação de uma mesma instituição de ensino, simultaneamente, com repetição de 20% dos casos. Os observadores apresentaram ampla variação do percentual de concordância entre diagnósticos repetidos, contudo, quando agrupados por especialidade, endodontistas e radiologistas apresentaram percentuais de concordância de 62,50 e 66,25%, respectivamente. Na análise da concordância interobservadores, ambos os grupos apresentaram desempenho semelhante, sendo este superior entre os alunos de radiologia (Kendall´s W= 0,816 e 0,662 respectivamente). Em relação à especificidade, observou-se desempenho idêntico para os dois grupos (70 a 95%), contudo os alunos de radiologia apresentaram sensibilidade ligeiramente superior (70 a 95%). O artigo II verificou, in vitro, se é possível medir com confiabilidade, utilizando a tomografia computadorizada, a distância entre as corticais ósseas e os ápices dentários de molares e pré-molares em mandíbulas humanas secas, além de determinar a relação de proximidade, dos dois grupos, com as corticais. As imagens das peças ósseas foram obtidas por tomografia computadorizada. A partir delas mensurações foram realizadas, por quatro observadores, três não calibrados (A, B e C) e um calibrado (D). A concordância interexaminador, para os observadores A, B e C, assim como a intra para o observador D foram calculadas por meio do Teste de Concordância de Kendall. A partir das médias geradas (observador D) foi calculada a comparação entre os grupos de ápices e as medidas, utilizando os Testes Não-Paramétricos de Kruskal Wallis e Wilcoxon, ambos com a=5%. Uma boa concordância tanto inter quanto intra-examinador foi observada. A tomografia computadorizada mostrou-se reprodutível para a obtenção da distância entre os ápices dentários e as corticais ósseas, tanto na avaliação inter quanto intra-observador. Não foram encontradas diferenças estatisticamente significativas quanto á posição dos ápices de raízes de pré-molares e de molares, contudo os prémolares apresentaram seus ápices significativamente mais próximos da cortical vestibular do que da lingual. O artigo III avaliou o desempenho diagnóstico de radiografias periapicais em diferentes estágios de perda óssea (leve, moderada e severa), digitalmente simulada na região apical. A partir de radiografias trinta ápices dentários de pré-molares e molares inferiores sem radiolucências foram selecionados. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas no formato JPEG 12. Na imagem inicial (original) os sítios apicais selecionados foram demarcados por um quadrado, as mesmas foram digitalmente reproduzidas seis vezes e numeradas em ordem crescente, formando sete conjuntos. A perda óssea foi digitalmente simulada com as ferramentas lápis (modelo mecânico) e spray (modelo químico), com tinta preta, em intensidade de 3%, 5% e 8%. Os pares de imagens (inicial e experimental) e subtrações foram avaliados por três observadores, com repetição de 20% dos casos. O Coeficiente de Correlação de Spearman e o Teste Não Paramétrico de Wilcoxon mostraram uma boa concordância entre a primeira e a segunda medida para os dois modelos, com exceção de um observador. Através da análise das curvas ROC (p> 0,05) observou-se diferença significativa entre os métodos para ambos os modelos nas intensidades de 3% e 5%. Não houve diferença significativa para a intensidade de 8%. A subtração digital qualitativa mostrou desempenho significativamente melhor do que a avaliação de pares de radiografias para ambos os modelos de reabsorção simulada nas intensidades leve e moderada. O artigo IV avaliou, in vitro, os diagnósticos obtidos de pares de radiografias, subtração radiográfica de imagens digitais diretas e digitalizadas em defeitos ósseos periapicais incipientes criados por aplicação de solução ácida. Em quarenta sítios apicais de mandíbulas humanas secas foram criados defeitos ósseos, por meio da aplicação de ácido perclórico 70%, nos tempos 6, 10, 24, 48 e 54 horas. As radiografias convencionais e as imagens digitais diretas foram obtidas duas vezes no tempo zero e, seqüencialmente, antes de cada nova aplicação de ácido. As incidências foram padronizadas fixando os elementos geométricos. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas, assim como as digitais diretas, no formato TIFF. O programa Imagelab foi utilizado para a subtração das imagens digitais indiretas e diretas. A subtração radiográfica das imagens digitalizadas e os pares de imagem digital foram avaliados por um observador experiente, sendo 20% repetidas durante o exame. A análise quantitativa da subtração radiográfica de imagens diretas foi realizada no programa ImageTool. Os resultados das análises qualitativa e quantitativa foram avaliados por meio da ANOVA, sendo a primeira complementada pelo Teste de Comparações Múltiplas Dunnett T3 e a segunda pelo Teste de Tukey, ambos com a=5%. O observador apresentou coeficiente de Kappa = 0,739 para subtração e 0,788 para os pares de imagem. No tempo 0 houve acerto de diagnóstico em 100 e 90% dos casos para subtração e pares de imagem, respectivamente. Nos tempo 6 e 10/24 foram identificadas, para subtração, alterações em 20 e 25% dos casos e para os pares de imagem em 2,5 e 10% dos casos. A proporção de acertos aumentou significativamente nos tempos 48 e 54 horas, tanto para subtração – 80 e 82,5% – quanto para os pares de imagem – 47,5 e 52,5%. A ANOVA evidenciou diferenças estatisticamente significativas entre as áreas controle nos tempos 0/6 e 48/54. Comparando áreas teste e controle, observou-se que aquela apresentou valores médios de densidade óptica significativamente menores nos tempos 24, 48 e 54. Conclui-se que tanto a avaliação qualitativa como a quantitativa de imagens de subtração apresentaram melhor desempenho que a avaliação dos pares de imagem na detecção de defeitos incipientes no periápice.
Resumo:
A variação sazonal, sua relação com fatores bióticos e abióticos e a distribuição de duas populações do minador-dos-citros, Phyllocnistis citrella Stainton (Lepidoptera: Gracillariidae), foram estudadas, em pomares de Citrus sinensis var. Valência, mantidos um sob sistema de cultivo orgânico e outro sob sistema convencional, ambos localizados no município de Montenegro (29° 68’S e 51° 46’W), Rio Grande do Sul. Realizaram-se amostragens quinzenais, coletando-se de 27 plantas aleatoriamente escolhidas em cada pomar o broto mais apical. Posteriormente os brotos eram analisados em laboratório para registro da presença de minas, ovos, lagartas e pupas de P. citrella. A proporção de dano foi maior no pomar orgânico, em relação ao pomar convencional. O minador ocorreu nos pomares no período correspondente às brotações de verão e de outono, não havendo ataque nas brotações correspondentes ao final do inverno-início da primavera, apesar da disponibilidade de recursos (folhas novas). Assim, verificou-se que não apenas a existência de recursos, mas também a ocorrência de condições climáticas favoráveis afetam o tamanho e a flutuação da população de P. citrella. Dentre os fatores bióticos que exercem influência sobre a variação sazonal do minador, foi identificada a ação de parasitóides e predadores Verificou-se também forte correlação entre mortalidade sem causa definida e o comprimento das folhas. Dos fatores abióticos analisados, a temperatura máxima foi o mais correlacionado com as taxas da mortalidade sem causa definida observadas em ambos os pomares. A distribuição de ovos e lagartas (incluindo pupas) foi agregada em ambos os pomares, nos níveis de folhas e brotos. Ovos tenderam a ocorrer em folhas de comprimento menor que lagartas e estas por sua vez, em folhas menores do que pupas. A proporção de ovos ocorrentes na face adaxial foi maior que a de lagartas e pupas, indicando maior mortalidade nesta parte da folha.
Resumo:
Utilizando métodos ab initio no nível RHF/6-311G**, combinado com conceitos do Princípio de Curtin-Hammett e da lei de distribuição de Maxwell-Boltzmann, este trabalho teve como objetivo elucidar os mecanismos implicados na reação de Michael assimétrica via o equilíbrio tautomérico imina/enamina quirais, também conhecida como alquilação desracemizante. Estão descritos novas abordagens e metodologias para uma extensiva Análise Conformacional e Análise dos Estados de Transição para moléculas com razoável número de átomos, envolvendo um alto número de graus de liberdade. Essas novas abordagens e metodologias envolvendo o Estado de Transição, proporcionaram gerar resultados com desvio de apenas 10,1% para o valor do excesso diastereoisomérico dos produtos Re/Si envolvendo a enamina (R,R) 5; consideramos ainda neste caso, contribuições de entropia e entalpia (ZPE) para a energia livre absoluta de ativação. Tais resultados obtidos evidenciaram a importância da consideração de um maior número de confôrmeros na obtenção de geometrias no estado de transição, para a correta descrição dos processos cinéticos envolvidos nas reações químicas.
Resumo:
Em várias análises que tratam do ambiente da empresa como ferramenta de organização de pessoas em busca de um objetivo comum com a máxima produtividade, assume-se simplesmente que não haja conflitos que possam prejudicar a obtenção de um nível de produtividade ideal. No entanto, desde há muito tempo diversos estudiosos têm percebido a ocorrência de fenômenos os quais, além de comprometer certas metas corporativas, são de difícil ou mesmo impossível controle e resolução. Historicamente esse fenômeno recebeu o nome de mau comportamento, e tem estreitos laços com a questão da ética profissional. O que é, porém, ética? Ela corresponde à filosofia da conduta, que procura nortear o comportamento das pessoas em sociedade nas mais diversas situações. Uma dessas situações, que hoje é bastante comum e cada vez levanta mais controvérsias, diz respeito às relações de trabalho, particularmente aquelas entre patrões e os demais empregados. Desde a Grécia clássica, e mesmo antes, filósofos e estudiosos debruçaram-se sobre a questão da conduta e procuraram, cada qual em seu tempo e lugar, encontrar respostas universais. Obviamente, essas respostas variaram bastante, compondo-se de misturas variáveis de alguns ingredientes denominados preceitos éticos. No ambiente das empresas, diversos desses preceitos podem ser encontrados, embora haja linhas de pensamento que se aplicam especialmente às mesmas - como o lucrativismo de Friedman, que estabelece o lucro empresarial como forma de que cumpram seu papel social. O mau comportamento, portanto, representaria um desvio nessa filosofia da conduta como entendida pelas expectativas mantidas pelos gerentes e executivos das organizações. Exemplos desse fenômeno seriam o absenteísmo, as manifestações de humor e desejo sexual, a delação de empresas, a tomada de decisão viciada e assim por diante. No entanto, nem sempre o mau comportamento como definido pelos gerentes é exatamente antiético, principalmente quando se nota que nem sempre essas expectativas se alinham ao interesse da empresa, e que nem sempre elas se alinham ao interesse da sociedade. Casos de mau comportamento abundam em empresas de todo o mundo - mas, pelo menos no Brasil, elas são recheadas com um aspecto cultural denominado jeitinho. Ele corresponde a uma certa necessidade de transgressão que se opõe a regras rígidas demais para contextos em que elas não são necessárias. De qualquer maneira, o mau comportamento, como se percebe, está em todos os lugares, em todas as faixas etárias e em todos os níveis hierárquicos, assumindo apenas pequenas diferenças de execução. Quanto a isso. é curioso notar uma certa uniformidade nos códigos de conduta divulgados pelas empresas em geral, apesar de suas sabidas diferenças de áreas de atuação, cultura e níveis internos de conflito - sinal de que a solução dos problemas de mau comportamento organizacional, se é que existe, ainda não foi totalmente resolvida
Resumo:
This thesis presents DCE, or Dynamic Conditional Execution, as an alternative to reduce the cost of mispredicted branches. The basic idea is to fetch all paths produced by a branch that obey certain restrictions regarding complexity and size. As a result, a smaller number of predictions is performed, and therefore, a lesser number of branches are mispredicted. DCE fetches through selected branches avoiding disruptions in the fetch flow when these branches are fetched. Both paths of selected branches are executed but only the correct path commits. In this thesis we propose an architecture to execute multiple paths of selected branches. Branches are selected based on the size and other conditions. Simple and complex branches can be dynamically predicated without requiring a special instruction set nor special compiler optimizations. Furthermore, a technique to reduce part of the overhead generated by the execution of multiple paths is proposed. The performance achieved reaches levels of up to 12% when comparing a Local predictor used in DCE against a Global predictor used in the reference machine. When both machines use a Local predictor, the speedup is increased by an average of 3-3.5%.
Resumo:
A Estatística é uma ferramenta indispensável em todos os campos científicos. A Estatística descritiva é usada para sintetizar dados. O principal problema desta área está relacionado aos valores de uma amostra, os quais geralmente possuem erros que ocorrem durante a obtenção dos dados. Um dos objetivos deste trabalho é apresentar uma forma de representação para os valores amostrais que considera os erros contidos nestes valores. Esta representação é realizada através de intervalos. A literatura mostra que foram realizadas pesquisas somente em problemas de calcular os valores intervalares das medidas de dispersão variância, covariância e coeficiente de correlação, que a utilização da computação intervalar na solução de problemas de medidas de dispersão intervalar sempre fornece solução com intervalos superestimados (intervalos com amplitude grande), e que ao procurar uma solução com intervalos de amplitude pequena (através da computação da imagem intervalar), o problema passa a pertencer a classe de problemas NP-Difícil. Com o objetivo principal de analisar a complexidade computacional dos problemas de computar os valores dos indicadores estatísticos descritivos com entradas intervalares, e realizar uma classificação quanto a classe de complexidade, a presente tese apresenta: i) definições intervalares de medidas de tendência central, medidas de dispersão e separatrizes; ii) investigação da complexidade de problemas das medidas de tendência central média, mediana e moda, das medidas de dispersão amplitude, variância, desvio padrão, coeficiente de variação, covariância, coeficiente de correlação e das separatrizes e iii) representação intervalar dos valores reais, de tal modo que garante a qualidade de aproximação nos intervalos solução calculado através da extensão intervalar Primeiramente, apresentamos uma abordagem intervalar para os indicadores estatísticos e propomos algoritmos para a solução dos problemas de computar os intervalos de medidas de tendência central intervalar, dispersão intervalar e separatrizes intervalares. Tais algoritmos utilizam a aritmética intervalar definida por Moore, a extensão intervalar e foram projetados para serem executados em ambientes intervalares como IntLab e Maple Intervalar. Por meio da análise da complexidade computacional verificamos que os problemas de medidas de tendência central, dispersão e separatrizes, com entradas intervalares, pertencem à classe de problemas P. Este trabalho apresenta, portanto, algoritmos de tempo polinomial que calculam os intervalos dos indicadores estatísticos com entradas intervalares, e que retornam como solução intervalos com qualidade de aproximação. Os resultados obtidos no desenvolvimento do trabalho tornaram viável a computação da Estatística Descritiva Intervalar.
Resumo:
Essa dissertação trata da coordenação entre política monetária e política fiscal. O trabalho visa testar a hipótese de que a demanda agregada é afetada pela política fiscal no Brasil entre 1995 e 2006. Com esse intuito, o trabalho estima uma curva IS para o Brasil nesse período, incluindo variáveis fiscais explicativas. O resultado é de que há evidência estatística de que o desvio do produto em relação ao produto potencial (de agora em diante gap do produto) seja dependente (positivamente) do nível de gastos do governo e (negativamente) da arrecadação do setor público. Além disso, conforme a teoria prevê, o gasto do governo tem um efeito (em módulo) mais intenso do que a arrecadação do governo, de modo que tanto o nível do superávit primário, quanto o tamanho do governo em proporção ao PIB têm impacto sobre a demanda agregada. Assim, assumindo que a convergência da taxa de câmbio real via paridade descoberta de taxa de juros tenha sido defasada no período sob análise, a política fiscal pode ter contribuído para manutenção da taxa de juros real acima do nível de equilíbrio no período em questão.
Resumo:
Este trabalho explora com cuidado o lado específico da implementação de um modelo de alocação de ativos em que o risco é tratado de maneira integrada, não somente através do desvio padrão do portfólio, mas também considerando outras métricas de risco como, por exemplo, o Expected Shortfall. Além disso, utilizamos algumas técnicas de como trabalhar com as variáveis de modo a extrair do mercado os chamados “invariantes de mercado”, fenômenos que se repetem e podem ser modelados como variáveis aleatórias independentes e identicamente distribuídas. Utilizamos as distribuições empíricas dos invariantes, juntamente com o método de Cópulas para gerar um conjunto de cenários multivariados simulados de preços. Esses cenários são independentes de distribuição, portanto são não paramétricos. Através dos mesmos, avaliamos a distribuição de retornos simulados de um portfólio através de um índice de satisfação que é baseado em uma função de utilidade quadrática e utiliza o Expected Shortfall como métrica de risco. O índice de satisfação incorpora o trade-off do investidor entre risco e retorno. Finalmente, escolhemos como alocação ótima aquela que maximiza o índice de satisfação ajustado a um parâmetro de aversão ao risco. Perseguindo esses passos, é possível obter um portfólio no qual a alocação em cada ativo, ou classe de ativos, reflete o prêmio esperado ao risco incorrido.
Resumo:
O objetivo do trabalho é demonstrar que a otimização de uma carteira composta por fundos multimercados brasileiros gera melhores resultados quando a medida de risco utilizada é o Conditional Value-at-Risk. Modelos de otimização de carteira têm como objetivo selecionar ativos que maximizem o retorno do investidor para um determinado nível de risco. Assim, a definição de uma medida apropriada de risco é de fundamental importância para o processo de alocação. A metodologia tradicional de otimização de carteiras, desenvolvida por Markowitz, utiliza como medida de risco a variância dos retornos. Entretanto, a variância é uma medida apenas apropriada para casos em que os retornos são normalmente distribuídos ou em que os investidores possuem funções de utilidade quadrática. Porém, o trabalho mostra que os retornos dos fundos multimercados brasileiros tendem a não apresentar distribuição normal. Logo, para efetuar a otimização de uma carteira composta por fundos multimercados brasileiros é necessário utilizar uma medida de risco alternativa.
Resumo:
O presente trabalho busca testar a validade da Regra de Taylor no controle da inflação em sete países emergentes que adotam o sistema de metas inflação: Brasil, Colômbia, México, Polônia, Turquia, África do Sul e Filipinas. A estimação e inferência são realizadas a partir de um modelo de estado espaço para determinar os períodos em que os países seguiram a regra. Em seguida é realizado um teste de raiz unitária com threshold para verificar se o desvio da inflação em relação a meta depende (ou não) da indicação dada pela Regra de Taylor. Os resultados obtidos indicam que em países que seguem a Regra de Taylor, o desvio da expectativa de inflação em relação a meta é estacionário, em todos os casos. Em contrapartida, na maioria dos casos em que a Regra de Taylor não é respeitada, o desvio da expectativa de inflação em relação à meta é não-estacionário.
Resumo:
Esta dissertação visa identificar o papel dos fundamentos econômicos e demográficos na determinação do boom imobiliário dos EUA nos anos 2000. Afinal, qual seria o equilíbrio do mercado? Qual seria uma estimativa do ajuste em termos de sua intensidade e duração? A conclusão é que houve uma conjunção de fatores atuando simultaneamente na geração do boom de construções e altas de preços dos imóveis e que houve, a partir de 2003, um considerável desvio das variáveis de seu equilíbrio de longo prazo. A metodologia aplicada baseou-se na construção na análise se cointegração e modelos de correção de erro (VEC) para identificar a relação de longo prazo e a dinâmica de ajuste a eventuais os desvios dela.
Resumo:
Este estudo examina a relação entre estrutura de propriedade e valor das empresas, tratando a estrutura de propriedade de forma endógena e multi-dimensional. Para isso, o modelo desenvolvido por Demsetz e Villalonga (2001) é aplicado em uma amostra de 192 empresas listadas na Bovespa entre 2006 e 2008. Os resultados indicam que o valor da firma pode afetar a concentração da estrutura de propriedade, mas não vice-versa. As evidências obtidas também indicam que, no Brasil, a variável da estrutura de propriedade que influencia, de forma negativa, o valor das empresas é o potencial de expropriação dos acionistas minoritários pelos acionistas controladores, representada pelo desvio entre a concentração do direito de controle e a concentração do direito de fluxo de caixa.