14 resultados para Estimação da curva de juros com cupom zero

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente trabalho estima uma nova relação entre emprego e inflação para o Brasil, tendo como pano de fundo hipóteses propostas pelo arcabouço neo-keynesiano. Quatro hipóteses são testadas e sustentadas ao longo de todo o trabalho: i) os agentes não possuem racionalidade perfeita; ii) a imperfeição no processo de formação das expectativas dos agentes pode ser um fator determinante no componente inercial da inflação brasileira; iii) a inflação possui um componente inercial autônomo, que não depende de choques verificados em mercados isolados; e, iv) relações não-lineares entre inflação e desemprego são capazes de fornecer melhores explicações para o comportamento da economia nos últimos 12 anos. Enquanto as duas primeiras hipóteses são verificadas através de um modelo com mudanças markovianas, as duas últimas são testadas a partir da estimação de uma Curva de Phillips convexa, estimadas pelo Filtro de Kalman. Entretanto, mesmo fazendo uso destas estimativas, as funções de resposta da política monetária apresentam as mesmas propriedades de estimativas tradicionais para o Brasil.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os satélites para sensoriamento remoto atualmente dispoívies à comunidade científica possuem diferenies resoluções espaciais, por exemplo: SPOT 20 e 10 metros, LANDSAT-TM 30 metros e NOA-AVHRR 1100 metros. Essa resolução frequentemente não é grande o suficiente para um grande número de aplicações que necessitam de uma percepção da cena mais detalhada. Muitas vezes, no interior de uma célula de resolução (pixel) mais de uma classe ocorre. Este caso é conhecido como pixel mistura. Na classificação de imagens obtidas por sensoriamento remoto é comum a utilização de metodologias que atribuem somente uma classe a um pixel, como o procedimento clássico da máxima verossimilhança. Esse procedimento resulta frequentemente em uma estimação errônea das áreas ocupadas pelas classes presentes na cena. Em alguns casos, especialmente quando não há uma classe dominante, isto pode ser a fonte de um erro significativo. Desde o início dos anos 70, diferentes metodologias têm sido propostas para o trabalho num nível de subpixel. A grande vantagem do trabalho nesse nível é que um pixel não é necessariamente atribuído a somente uma classe. O pixel tem um grau que o correlaciona a cada classe: de zero(se a classe não ocorre no pixel) até 1 (a classe ocorre no pixel inteiro). Assim, cada pixel tem um vetor associado que estima a proporção de cada classe nele. A metodologia mais comumente utilizada considera a refletância do pixel mistura como uma combinação linear da refletância média de cada classe componente. De acordo com essa visão as refletâncias associadas às classes componentes são consideradas constantes conhecidas i.e., não são variáveis aleatórias. Assim, a proporção de cada classe no pixel é obtida pela resolução de um sistema de equações lineares. Uma outra metodologia é assumir as refletâncias que caracterizam as classes como sendo variáveis aleatórias. Nesta visão, as informações a respeito das distribuições das classes é utilizada. A estimativa das proporções de cada classe é obtida pelo vetor de proporções que maximiza a função de verossimilhança. Mais recentemente, uma visão diferente foi proposta: a utilização da lógica fuzzy. Esta metodologia utiliza o conceito de função de pertinência que é essencial à teoria dos conjuntos fuzzy. Esta função utiliza elementos com natureza estatística ou não para a estimação das proporções. No presente trabalho, duas funções de pertinência foram definidas: a primeira baseada na função densidade probabilidade gaussiana e a segunda baseada diretamente na distância de Mahalanobis. O objetivo deste estudo é avaliar cada uma das metodologias anteriores em termos de acurácia, performance e dados necessários. Para este objetivo, as metodologias foram implementadas computacionalmente e alimentadas com imagens LANDSAT-TM. Para a avaliação da acurácia dos modelos um estudo qualitativo foi executado.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Fundamentalmente, o presente trabalho faz uma análise elástica linear de pontes ou vigas curvas assimétricas de seção transversal aberta e de parede fina, com propriedades físicas, geométricas e raio de curvatura constantes ao longo do eixo baricêntrico. Para tanto, utilizaram-se as equações diferenciais de VLASOV considerando o acoplamento entre as deformações nas direções vertical, transversal, axial de torcão nal. Na solução do sistema de quatro equações com derivadas parciais foi utilizado um apropriado método numérico de integração (Diferenças Finitas Centrais). A análise divide-se, basicamente, em dois tipos: análise DINÂMICA e ESTATICA. Ambas são utilizadas também na determinação do coeficiente de impacto (C.M.D.). A primeira refere-se tanto na determinação das características dinâmicas básicas (frequências naturais e respectivos modos de vibração), como também na determinação da resposta dinâmica da viga, em tensões e deformações, para cargas móveis arbitrárias. Vigas com qualquer combinação das condições de contorno, incluindo bordos rotulados e engastados nas três direções de flexão e na torção, são consideradas. 0s resultados da análise teórica, obtidos pela aplicação de programas computacionais implementados em microcomputador (análise estática) e no computador B-6700 (análise dinâmica), são comparados tanto com os da bibliografia técnica como também com resultados experimentais, apresentando boa correlação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho analisamos processos estocásticos com decaimento polinomial (também chamado hiperbólico) da função de autocorrelação. Nosso estudo tem enfoque nas classes dos Processos ARFIMA e dos Processos obtidos à partir de iterações da transformação de Manneville-Pomeau. Os objetivos principais são comparar diversos métodos de estimação para o parâmetro fracionário do processo ARFIMA, nas situações de estacionariedade e não estacionariedade e, além disso, obter resultados similares para o parâmetro do processo de Manneville-Pomeau. Entre os diversos métodos de estimação para os parâmetros destes dois processos destacamos aquele baseado na teoria de wavelets por ser aquele que teve o melhor desempenho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho analisamos alguns processos com longa dependência sazonais, denotados por SARFIMA(0,D, 0)s, onde s é a sazonalidade. Os estudos de estimação e previsão estão baseados em simulações de Monte Carlo para diferentes tamanhos amostrais e diferentes sazonalidades. Para estimar o parâmetro D de diferenciação sazonal utilizamos os estimadores propostos por Geweke e Porter-Hudak (1983), Reisen (1994) e Fox e Taqqu (1986). Para os dois primeiros procedimentos de estimação consideramos seis diferentes maneiras de compor o número de regressores necessários na análise de regressão, com o intuito de melhor comparar seus desempenhos. Apresentamos um estudo sobre previsão h-passos à frente utilizando os processos SARFIMA(0,D, 0)s no qual analisamos o erro de previsão, as variâncias teórica e amostral, o vício, o pervício e o erro quadrático médio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A tarefa de estimação de movimento, utilizada na compressão dedeo digital, é normalmente realizada em hardware por processador dedicado, uma vez que demanda expressiva capacidade computacional. Este trabalho propõe e desenvolve uma arquitetura de hardware para realizar o cálculo dos vetores de movimento no contexto de compressão dedeo digital. Essa arquitetura para estimação de movimento é composta pelos blocos: interface de entrada e saída (E/S), matriz de processamento com 64 elementos de processamento, unidade de comparação e unidade de controle. A arquitetura foi descrita em linguagem VHDL de maneira que o número de bits utilizados para representação da luminância dos pontos é configurável. A partir desta descrição, foi gerado um protótipo para dados representados em 4 bits utilizando um kit de desenvolvimento baseado no dispositivo FPGA XC2S150 da Xilinx. Para validação do algoritmo e da arquitetura implementada, além da simulação, foi desenvolvido um software para plataforma PC capaz de exercitar as funcionalidades do protótipo. O PC é utilizado como dispositivo controlador de E/S para esta validação, na qual uma implementação do algoritmo em software e outra em linguagem de descrição de hardware são comparadas. A máxima freqüência de trabalho do protótipo, estimada por simulação da arquitetura mapeada no FPGA XC2S150, é de 33 MHz. A esta freqüência o núcleo da arquitetura paralela de 64 elementos de processamento realiza cerca de 2,1 GOps (bilhões de operações inteiras por segundo). Esta arquitetura de hardware calcula os vetores de movimento para vídeo no formato 640x480 pontos à taxa de 107,32 quadros por segundo, ou um quadro a cada 9,3 ms. A arquitetura implementada para luminânica em 4 bits ocupa 16 pinos de E/S, 71,1% dos blocos lógicos do FPGA e 83,3% dos blocos de memória disponíveis no dispositivo XC2S150.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho analisa a cobertura do jornal Zero Hora sobre o impasse entre o governo do Rio Grande do Sul e as montadoras de automóveis Ford e General Motors, no período de 16/03/1999 a 03/05/1999. É um estudo que procura, através do referencial da hermenêutica de profundidade, demonstrar como é construída a ideologia no jornalismo do grupo RBS – maior conglomerado de mídia da região Sul do Brasil –, com base no conceito proposto por Thompson de “sentido a serviço do poder”. A minuciosa pesquisa possibilitou perceber não só o agendamento de Zero Hora no caso envolvendo o governo do Partido dos Trabalhadores (PT) e as montadoras, mas a construção ideológica empreendida pelo jornal, legitimando o discurso das montadoras e da oposição, e desqualificando os argumentos do governo. O discurso neoliberal de redução das atribuições do Estado, hegemônico nas páginas de Zero Hora durante a década de 90, é trocado – nos primeiros meses do governo petista – por um discurso fragmentado, oportunista e descontextualizado do pensamento keynesiano, defendendo o papel importante do Estado na geração de emprego e renda, como propulsor do desenvolvimento através de investimentos e outras políticas de incentivos capazes de gerar um círculo virtuoso na economia. A cobertura tendenciosa de Zero Hora se tornaria um dos elementos constitutivos de um Cenário de Representação da Política (CR-P) desfavorável à candidatura petista na eleição para o governo do Rio Grande do Sul em 2002.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

No Brasil, de forma geral, é elevado o custo do capital de terceiros para financiamento das atividades empresariais. Para a gestão financeira das corporações brasileiras, são cruciais o fortalecimento do capital próprio e a obtenção de melhores saldos no fluxo de caixa. Uma importante fonte de financiamento são os recursos gerados na própria empresa. Entre as várias opções para fortalecimento do capital próprio e para melhoria do fluxo de caixa, uma alternativa que pode ser viável, dependendo das variáveis às quais a empresa está submetida, é o uso dos juros sobre o capital próprio, previsto na Lei nº 9.249/1995 e alterações posteriores. Este trabalho tem como objetivo a proposição de um modelo para gestão financeira das empresas, considerando o impacto dos juros sobre o capital próprio na estrutura do capital e no fluxo de caixa da empresa. Objetiva também mensurar os efeitos do uso dos juros sobre o capital próprio no conjunto formado pela empresa e seus investidores. Efetuou-se um diagnóstico das principais variáveis que podem afetar a decisão das empresas de utilizar ou não os juros sobre o capital próprio para remunerar os investidores. Posteriormente, foi elaborado um modelo para avaliação do impacto dos juros sobre o capital próprio na estrutura de capital e no fluxo de caixa da empresa. O modelo foi aplicado em uma empresa hipotética. A aplicação do modelo proposto proporcionou à empresa melhoria na rapidez, qualidade, confiabilidade e flexibilidade das informações, e maior racionalização e transparência nos processos de gestão relacionados à decisão de uso dos juros sobre o capital próprio Os juros sobre o capital próprio são uma opção fiscal à disposição dos gestores da empresa para remunerar os investidores. O valor dos juros remuneratórios do capital deduzido o imposto de renda retido na fonte, pode ser imputado aos dividendos obrigatórios ou utilizado para aumento do capital da empresa. O modelo proposto gera informações a respeito do impacto que o uso da opção fiscal provoca na carga tributária, no capital próprio e no fluxo de caixa da empresa e dos respectivos acionistas. Outras informações do modelo são as possíveis alterações na remuneração, com base no lucro societário, propiciada a debenturistas, empregados, administradores, partes beneficiárias e acionistas. As informações produzidas pelo modelo têm natureza estratégica e permitem aos gestores da empresa tomar decisões com melhor fundamentação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta pesquisa de mestrado analisa o discurso do jornal Zero Hora sobre o Partido dos Trabalhadores, durante a Comissão Parlamentar de Inquérito da Segurança Pública, realizada pela Assembléia Legislativa do Rio Grande do Sul, de 18 de abril a 10 de novembro de 2001. Para compreender o funcionamento destes discursos nos amparamos em fundamentos teóricos e em procedimentos metodológicos consagrados pela Escola Francesa da Análise do Discurso e, também, nos cercamos de conceitos de comunicação, política e jornalismo. 7 RESUMO Construímos o corpus de nossa pesquisa, partindo das 48 edições do jornal Zero Hora subseqüentes às audiências da Comissão Parlamentar de Inquérito e mais a edição relativa à leitura do relatório final dos trabalhos desta Comissão, totalizando 49 exemplares, nas quais foram publicadas 110 matérias informativas sobre a Comissão Parlamentar de Inquérito. Deste total, subdividimos e classificamos as matérias exclusivas sobre o Partido dos Trabalhadores. Verificamos que o jornal Zero Hora, no período estudado, construiu um discurso de resistência e de oposição ao Partido dos Trabalhadores e ao poder político instituído no Estado, visando desestabilizar o capital simbólico deste partido - a sua credibilidade. Articulado com veículos da RBS, o jornal interferiu na pauta da CPI da Segurança Pública, fiscalizou as ações do PT, sugeriu rumos ao partido e usou ironias da oposição, no seu discurso jornalístico. A repetição e a disputa política pelas eleições de 2002 também estiveram presentes na discursividade do jornal. Partimos da perspectiva de que o discurso jornalístico não é um discurso da realidade, mas um discurso sobre a realidade. Assim, contestamos o mito da objetividade jornalística, embora esta visão ainda domine no campo da comunicação. E nos contrapomos ao argumento da neutralidade no discurso do jornal Zero Hora, utilizando o paradigma de Gaye Tuchman, segundo o qual os jornais e os jornalistas, em busca da imparcialidade jornalística, recorrem a determinados rituais estratégicos para se protegerem das críticas - como ouvir os dois lados, apresentar provas complementares, usar aspas e a pirâmide invertida, na elaboração das matérias jornalísticas. Identificamos no discurso do jornal Zero Hora sobre o Partido dos Trabalhadores, no período estudado, a existência de pelo menos duas formações discursivas: uma FD-petista e outra FD-antipetista, que em alguns momentos aparecem isoladas e, em outros se misturam e se mesclam. As principais marcas observadas em ambas linhas discursivas são relativas à ética e à democracia. Embora os enunciadores tenham sido múltiplos, o fio condutor destes discursos apontou para uma mesma direção de sentidos e a FD-antipetista se revelou com uma presença mais marcante.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os recentes avanços na tecnologia de sensores tem disponibilizado imagens em alta dimensionalidade para fins de sensoriamento Remoto. Análise e interpretação dos dados provenientes desta nova geração de sensores apresenta novas possibilidades e também novos desafios. Neste contexto,um dos maiores desafios consiste na estimação dos parâmetros em um classificador estatístico utilizando-se um número limitado de amostras de treinamento.Neste estudo,propõe-se uma nova metodologia de extração de feições para a redução da dimensionalidadedos dados em imagens hiperespectrais. Essa metodologia proposta é de fácil implementação e também eficiente do ponto de vista computacional.A hipótese básica consiste em assumir que a curva de resposta espectral do pixel, definida no espaço espectral, pelos contadores digitais (CD's) das bandas espectrais disponíveis, pode ser substituída por um número menor de estatísticas, descrevendo as principais característicasda resposta espectral dos pixels. Espera-se que este procedimento possa ser realizado sem uma perda significativa de informação. Os CD's em cada banda espectral são utilizados para o cálculo de um número reduzido de estatísticas que os substituirão no classificador. Propõe-se que toda a curva seja particionada em segmentos, cada segmento sendo então representado pela respectiva média e variância dos CD's. Propõem-se três algoritmos para segmentação da curva de resposta espectral dos pixels. O primeiro utiliza um procedimento muito simples. Utilizam-se segmentos de comprimento constante, isto é, não se faz nenhuma tentativa para ajustar o comprimento de cada segmento às características da curva espectral considerada. Os outros dois implementam um método que permite comprimentos variáveis para cada segmento,onde o comprimentodos segmentos ao longo da curva de resposta espectral é ajustado seqüencialmente.Um inconveniente neste procedimento está ligado ao fato de que uma vez selecionadauma partição, esta não pode ser alterada, tornando os algoritmos sub-ótimos. Realizam-se experimentos com um classificador paramétrico utilizando-se uma imagem do sensor AVIRIS. Obtiveram-se resultados animadores em termos de acurácia da classificação,sugerindo a eficácia dos algoritmos propostos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O tema central deste trabalho é a segurança alimentar e nutricional. O objetivo básico é entender porque o Brasil não possui uma política de segurança alimentar capaz de coordenar e integrar as diversas ações nos estados, municípios e sociedade civil para a erradicação da fome. Para atingir este objetivo buscou-se aprofundar conhecimentos sobre segurança alimentar e nutricional, abordar conceitos de justiça social, analisar as políticas sociais brasileiras, examinar a questão da pobreza, fome e desnutrição e avaliar criticamente o Programa Fome Zero apresentado pelo governo como uma proposta de segurança alimentar para o Brasil. A guisa de conclusão pretendeu-se reforçar a importância de considerar os aspectos qualificativos da pobreza na formulação de políticas e a prioridade do enfoque da segurança alimentar como um objetivo estratégico a ser perseguido com base em políticas públicas implementadas com ativa participação da sociedade civil.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo tem por objetivo conhecer os saberes e as práticas de cuidado à saúde da criança de zero a seis meses de vida desenvolvidos por mães em um município do interior do Estado do Rio Grande do Sul. Trata-se de uma investigação qualitativa com abordagem participativa, com dez mães como informantes. Para a coleta das informações, foram realizados quatro encontros intitulados “processo reflexivo-educativo”, fundamentado na estratégia teórico-metodológica dos Círculos de Cultura, proposta por Paulo Freire. Para a análise das informações, adotou-se a análise de conteúdo proposta por Bardin (1977), na qual emergiram duas categorias, denominadas: Cuidado à criança na perspectiva das mães; O olhar das mães sobre a equipe de saúde. Destas categorias originaram-se cinco subcategorias. O estudo revelou a existência de uma dissonância entre o saber e o fazer das mães frente aos cuidados com o filho e apontou para a necessidade de uma maior aproximação entre os profissionais de saúde e a família com vistas à troca de informações e à aliança de saberes no cuidado da saúde da criança. Os resultados mostraram que o Círculo de Cultura é um instrumento potencializador para desenvolver ações de Educação em Saúde junto à população, pois permite a participação de todos os atores envolvidos no processo de cuidado da criança; e, dessa forma, favorece a troca, a negociação e a aliança de saberes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introdução - O achatamento da curva do pulso de oxigênio durante o teste de esforço cardiopulmonar com cargas progressivas tem sido proposto para melhorar a acurácia diagnóstica da isquemia miocárdica induzida pelo esforço. Entretanto, este critério não foi formalmente avaliado em pacientes de baixo risco, para os quais a melhora da acurácia diagnóstica pode ser clinicamente mais relevante. Objetivo - Testar a hipótese de que o achatamento da curva do pulso de oxigênio durante o teste de esforço cardiopulmonar pode detectar isquemia miocárdica extensa, mas não detectar isquemia miocárdica leve, usando como padrão ouro a cintilografia de perfusão miocárdica. Métodos - Oitenta e sete pacientes (idade média ± DP de 57 ± 11 anos, 64% do sexo masculino) referidos para cintilografia de perfusão miocárdica com exercício para diagnóstico de isquemia miocárdica foram também avaliados com teste de esforço cardiopulmonar. Um investigador identificou prospectivamente os pacientes que apresentaram defeito transitório de perfusão induzido pelo exercício na cintilografia miocárdica com 99mTcsestamibi. Outro investigador avaliou a resposta do pulso de oxigênio durante o exercício de cargas progressivas, sem o conhecimento da resposta eletrocardiográfica ou dos achados da cintilografia. Resultados - A cintilografia de perfusão miocárdica com exercício detectou defeitos transitórios de perfusão em 36% dos pacientes. Comparados com os pacientes com estudos de perfusão normal, os pacientes com isquemia vii induzida pelo exercício apresentaram duplo produto máximo (Isquemia: 33060±5489; Sem Isquemia: 31826±5343; p=0,17), consumo de oxigênio de pico (VO2 pico) (Isquemia: 29±8 mL/kg.min; Sem Isquemia: 30±8 mL/kg.min; p=0,59) e consumo de oxigênio do limiar anaeróbio (Isquemia: 64±12%; Sem Isquemia: 61±13%; p=0,15) similares. O pulso de oxigênio analisado a 25% (9,7±2 vs 9,3±2 ml/b), 50% (11,2±3 vs 10,8±3 ml/b), 75% (12,5±3 vs 11,9±3 ml/b) do VO2 pico, e no pico do exercício (15±4 vs 14±4 ml/b), não foram diferentes no grupo com Isquemia e Sem Isquemia, respectivamente. Entretanto, os pacientes com defeitos perfusionais transitórios extensos durante o exercício apresentaram um pulso de oxigênio no pico menor (12,8±3,8 vs 16,4±4,6 mL/b; p=0,035) e demonstraram um achatamento detectável na curva de pulso de oxigênio. Conclusão - A análise da resposta do pulso de oxigênio ao teste de esforço com cargas progressivas não identifica isquemia miocárdica leve. O achatamento do pulso de oxigênio no teste de esforço de cargas progressivas está presente apenas nos pacientes com isquemia miocárdica extensa.