591 resultados para Inferência Bayesiana
Resumo:
Neste estudo investigam-se as possibilidades de Cenários Educacionais Informatizados como alternativas estratégicas de uso de produtos da tecnologia informática para o desenvolvimento de processos cognitivos. São propostos indicadores de aprendizagem na forma de Pegadas Cognitivas. Tais Pegadas são o resultado gráfico de uma distribuição espacial de pontos correspondentes aos indicadores de aprendizagem e suas dimensões nos cenários pesquisados. Em cada caso, a “pegada” resulta da ligação entre tais pontos, formando um diagrama onde a disposição dos indicadores, comparando-se as situações ideal e real, permitiu avaliar o desvio em que se encontra a situação real, comparativamente à situação ideal. Sua construção permitiu simbolizar a provisoriedade de cada situação de aprendizagem e inspirar ações para as correções que se fizerem necessárias. Utilizaram-se: software de modelagem computacional – Modellus; espaços virtuais de comunicação – chat, e-mail, listas de discussão, whiteboard, forms, entre outros; Mapas Conceituais/Mentais; imagens e representações; ações ligadas às atividades endógenas permanentes dos aprendizes em função de seu imaginário e dos espaços virtuais e recursos da telemática em atividades de aprendizagem, na área de físico-química, visando ao estudo de como ocorrem as reações químicas. A partir dos resultados obtidos realizou-se o confronto entre as possibilidades reais do ambiente com o imaginado, sobre o tema, por alunos do ensino médio que integram o grupo denominado Grupo Imagem. O caminho que representa a linha mestra deste referencial teórico encontra-se nas Ciências Cognitivas no que se refere às questões relativas às formas de representação, às estratégias cognitivas utilizadas pelo sistema humano de processamento de informação e às aplicações de modelagem computacional em situações de aprendizagem. Considerou-se uma abordagem que leva em conta arquiteturas cognitivas e influências do meio ambiente sobre a capacidade humana de aprender. Aprender no sentido de assimilar novas informações, armazená-las e, ao acessá-las, desenvolver estratégias cognitivas que promovam a evolução das estruturas do conhecimento, numa dinâmica caracterizada pela inovação, pela capacidade humana de estar constantemente em mudança, através de ações situadas, contextualizadas, na Sociedade da Informação, geradora da Sociedade do Conhecimento. Tal sociedade impõe desafios a ser enfrentados com estratégias que permitam a todos, independente de sua situação na escala social, a acessibilidade e a mobilidade informacional e de tecnologias cada vez mais especializadas em todas as áreas, sejam acadêmicas, econômicas ou de bem-estar pessoal que produzam não apenas a mundialização de recursos materiais e físicos, mas que incluam as diferenças de pensamentos e ações que permitem aos seres humanos serem individuais e únicos em sua essência. A Aprendizagem à Distância – AAD – utilizada neste fazer investigatório evidenciou competência para solucionar as dificuldades relativas à flexibilidade dos programas disponíveis para compor cenários educacionais que privilegiem a aprendizagem significativa, em escolas de ensino médio, por exigirem novos posicionamentos e novas habilidades de educandos e de educadores. Entre as habilidades de aprendizagem individual e coletiva que os aprendizes devem possuir ou desenvolver para cooperar com o grupo em AAD, destacam-se: autonomia, responsabilidade, liderança, capacidade para negociação e decisão, capacidade de inferência, dedução, possibilidade de realização de análise e síntese, regras de conduta que permitam a convivência e as trocas de conhecimentos.
Resumo:
O presente estudo avalia a aplicação em ambiente de banhados, especificamente no Banhado do Taim, de metodologia existente de investigação da continuidade espacial de variáveis através da análise preliminar de variogramas experimentais de semivariância. A variável utilizada foi a Diferença Normalizada das bandas do infravermelho próximo e vermelho (Landsat TM) - NDVI, em 10 datas, de 1987 a 2003. A verificação de dependência espacial neste estudo teve por fim definir o melhor delineamento de amostragem, para caracterizar parâmetros de populações, de forma que os dados não sejam autocorrelacionados e possibilitem o tratamento estatístico adequado para a inferência. As áreas escolhidas para a análise foram a região central e sul do banhado. Os resultados mostraram a existência de gradientes e padrões em todas as regiões estudadas. Os alcances dos patamares, quando ocorreram, variaram de 450 a 1600m. Este estudo evidenciou que a variografia por análise de semivariância realiza um papel importante ao quantificar e identificar patamares de variância, o alcance em que eles ocorrem quando ocorrem, assim como também ao identificar as direções de anisotropia do processo. Conclui, neste sentido que um delineamento amostral que considere a autocorrelação dos dados no espaço pode ser efetivamente melhorado pela variografia preliminar da variável de interesse ou de variável bem correlacionada com esta como no caso do NDVI com aspectos de vegetação.
A reconstrução da realidade com a informação digital : a emergência da dupla competência sociológica
Resumo:
As possibilidades das metodologias informacionais para a Sociologia tornam-se problemáticas, pois ela se encontra imersa na sociedade do conhecimento, cuja novidade principal é a de que a informação está envolvida numa estruturação reflexiva e comunicacional. As metodologias de pesquisa do conhecimento sociológico, vinculadas ao mundo da informação digital computável, implicam desafios, sobretudo diante das novas modulagens relacionadas à produção e à descoberta de conhecimentos suportados por computadores. O mundo sociológico apresenta-se, cada vez mais, conectado à reflexividade do conhecimento, assim, a decifração da esfinge informacional pode vir a ser uma grande contribuição da Sociologia à compreensão tanto da produção do conhecimento dessa área, como da vida social contemporânea. Urge, nesse sentido, que a Sociologia caminhe em direção à dupla competência sociológica (Sociologia e Informática) para a formação dos novos cientistas e pesquisadores sociais. O objetivo principal desta tese é verificar a situação da atual interface entre os(as) sociólogos(as) brasileiros(as) e a Informática. Busca-se, também, identificar as implicações metodológicas advindas da interface entre Informática e Sociologia na produção do saber acadêmico, assim como apontar algumas perspectivas desafiadoras para a dupla competência sociológica tanto no tocante à investigação como à produção do seu próprio saber. Inicia-se com parte da história da informação digital, especificando-se e precisando-se seu conceito. Metodologicamente, realizou-se uma pesquisa em nível nacional, através da Internet, visando-se identificar o impacto da Informática na produção do conhecimento sociológico no Brasil. Para tanto, utilizaram-se um programa questionário (software criado para esta tese) e recursos de banco de dados relacionais. Pergunta-se se a adoção de múltiplos procedimentos da informação computada está ou não permitindo a superação das velhas antinomias do tratamento informacional e afirmando um novo padrão de produção e de trabalho científico que se poderia denominar sociologia informacional. Quer-se, assim, afirmar que, diferentemente dos artefatos e instrumentos de elevada amplificação muscular e/ou apenas sensória, a informação digital computável potencializa mais efetivamente a amplificação lógico-cognitiva como o compartilhamento de memória de longo prazo, a integração de suportes recursivos sobre inferência numéricas ou miméticas, a recuperação parametrizada de dados e informações, o compartilhamento de cenários analíticos de simulações e o apoio a descobertas de conhecimento sociológico.
Resumo:
A partir de uma adaptação da metodologia de Osler e Chang (1995), este trabalho avalia, empiricamente, a lucratividade de estratégias de investimento baseadas na identificação do padrão gráfico de Análise Técnica Ombro-Cabeça-Ombro no mercado de ações brasileiro. Para isso, foram definidas diversas estratégias de investimento condicionais à identificação de padrões Ombro-Cabeça- Ombro (em suas formas padrão e invertida), por um algoritmo computadorizado, em séries diárias de preços de 47 ações no período de janeiro de 1994 a agosto de 2006. Para testar o poder de previsão de cada estratégia, foram construídos intervalos de confiança, a partir da técnica Bootstrap de inferência amostral, consistentes com a hipótese nula de que, baseado apenas em dados históricos, não é possível criar estratégias com retornos positivos. Mais especificamente, os retornos médios obtidos por cada estratégia nas séries de preços das ações, foram comparados àqueles obtidos pelas mesmas estratégias aplicadas a 1.000 séries de preços artificiais - para cada ação - geradas segundo dois modelos de preços de ações largamente utilizados: Random Walk e E-GARCH. De forma geral, os resultados encontrados mostram que é possível criar estratégias condicionais à realização dos padrões Ombro- Cabeça-Ombro com retornos positivos, indicando que esses padrões conseguem capturar nas séries históricas de preços de ações sinais a respeito da sua movimentação futura de preços, que não são explicados nem por um Random Walk e nem por um E-GARCH. No entanto, se levados em consideração os efeitos das taxas e dos custos de transação, dependendo das suas magnitudes, essas conclusões somente se mantêm para o padrão na sua forma invertida
Resumo:
Um estudo envolvendo populações asiáticas e ameríndias foi realizado para avaliar os relacionamentos históricos e genéticos entre eles através de polimorfismos moleculares autossômicos. Um deles é uma seqüência polimórfica localizada na região 16p13.3. Um total de 1558 pares de base foram investigados em 98 indivíduos da Mongólia, Beringia e das Américas. Estes resultados foram comparados com aqueles obtidos em uma prévia investigação por outros autores. Cinqüenta e cinco sítios polimórficos foram classificados em trinta e cinco haplótipos. Uma árvore de haplótipos (median joining network) baseada neles, revelou dois grupos distintos, um mais compacto com haplótipos derivados das cinco categorias etno-geográficas estabelecidas; enquanto o outro, com haplótipos mais divergentes, era composto principalmente por africanos e ameríndios. Quase todos os parâmetro de neutralidade apresentaram valores negativos. Simulações realizadas para interpretar estes resultados foram executadas com dois conjuntos de dados: um composto exclusivamente de ameríndios e outro com populações mundiais. O primeiro, sugerindo crescimento e declínio populacional, rejeitou os cenários com crescimento abaixo de cinco vezes e anteriores a ~18 mil anos atrás; enquanto que o segundo, sugerindo crescimento populacional, não rejeitou cenários nos quais a magnitude de crescimento foi maior que dez vezes e anteriores a ~21 mil anos atrás, provavelmente refletindo um crescimento antigo fora da África. Doze polimorfismos de inserções Alu foram também estudados em 170 indivíduos pertencentes a 7 grupos nativos sul-americanos, 60 a dois siberianos, e 91 a dois mongóis. Estes dados foram integrados com aqueles de 488 indivíduos associados a outros 13 grupos, para determinar as relações entre asiáticos, Beringianos e ameríndios. Nestes três grupos, foi observado um decréscimo da heterozigosidade e da quantidade de fluxo gênico, na mesma ordem indicada acima. A solidez destas subdivisões foi demonstrada nas distâncias genéticas, nas análises de componentes principais, de variância molecular, no teste de Mantel, e numa abordagem Bayesiana de atribuição genética. Entretanto, não pode ser observada uma clara estrutura entre os nativos Sul-americanos, indicando a importância dos fatores dispersivos (deriva genética, efeito fundador) na sua diferenciação. A congruência dos resultados obtidos com os dois marcadores são: (a) não foi confirmada uma história de declínio populacional forte associado com a chegada do homem pré-histórico nas Américas; (b) os ameríndios não apresentaram estruturação clara dentro do continente e não se diferenciaram dos asiáticos do nordeste da Ásia (beringianos); e (c) o povo Aché foi o grupo mais divergente.
Resumo:
Este trabalho reconstitui-se o "caminho da pesquisa", desde os primeiros levantamentos quantitativos e os resultados preliminares obtidos, até a nova problematização e operacionalização da pesquisa, desta vez utilizando uma metodologia qualitativa. Os artigos publicados na Revista do Serviço Público (a partir de 1937) e Revista de Administração Pública (1967) foram analisados tendo em vista estabelecer relações entre os "sentidos dos referidos artigos" e o conceito de público subjacente a eles. Utilizando-se o método de análise de conteúdo passou-se então ao tratamento dos resultados, à inferência e à interpretação. Para tanto, construiu-se um referencial analítico com base nas proposições e construções teóricas selecionadas, apresentado no Quadro L. Posteriormente, apresenta-se em detalhe a análise de conteúdo efetuada nos artigos publicados pelas duas Revistas, a partir da década de 30. Aponta-se no sentido da existência de um Paradigma do "Público enquanto "Estatal" que vigora no período de 1930 a 1979, mesmo que sofrendo algumas oscilações, especialmente nos anos de 1945, 56 e 67. No entanto, estes pontos de inflexão não foram suficientemente fortes para abalar aquele consenso, o que ocorre somente a partir da década de 80, quando, em função de uma série
Resumo:
Este trabalho apresenta a estruturação de um controle difuso, para a automação de reatores seqüenciais em batelada (RSB), no processo de remoção biológica de matéria orgânica e nitrogênio em águas residuárias domésticas, utilizando parâmetros inferenciais, pH, ORP e OD, em que as variáveis controladas foram as durações da reação aeróbia e anóxica. O experimento, em escala de bancada, foi composto por dois reatores seqüenciais em batelada, com volume útil de 10 L, no qual 6 L foram alimentados com esgoto sintético, com características de águas residuárias domésticas. O sistema de automação foi composto pela aquisição dos parâmetros eletroquímicos (pH, ORP e OD), pelos dispositivos atuadores (motor-bomba, aerador e misturador) e pelo controle predeterminado ou difuso. O programa computacional CONRSB foi implementado de forma a integrar o sistema de automação. O controle difuso, implementado, foi constituído pelos procedimentos de: normalização, nebulização, inferência, desnebulização e desnormalização. As variáveis de entrada para o controlador difuso, durante o período: aeróbio foram dpH/dt, dpH/d(t-1) e o pH ; anóxico foram dORP/dt, dORP/d(t-1) e o OD. As normalizações das variáveis crisps estiveram no universo de [0,1], utilizando os valores extremos do ciclo 1 ao 70. Nas nebulizações foram aplicadas as funções triangulares, as quais representaram, satisfatoriamente, as indeterminações dos parâmetros. A inferência nebulosa foi por meio da base heurística (regras), com amparo do especialista, em que a implicação de Mamdani foi aplicada Nessas implicações foram utilizadas dezoito expressões simbólicas para cada período, aeróbio e anóxico. O método de desnebulização foi pelo centro de áreas, que se mostrou eficaz em termos de tempo de processamento. Para a sintonia do controlador difuso empregou-se o programa computacional MATLAB, juntamente com as rotinas Fuzzy logic toolbox e o Simulink. O intervalo entre as atuações do controlador difuso, ficou estabelecido em 5,0 minutos, sendo obtido por meio de tentativas. A operação do RSB 1, durante os 85 ciclos, apresentou a relação média DBO/NTK de 4,67 mg DBO/mg N, sendo classificado como processo combinado de oxidação de carbono e nitrificação. A relação média alimento/microrganismo foi de 0,11 kg DBO/kg sólido suspenso volátil no licor misto.dia, enquadrando nos sistemas com aeração prolongada, em que a idade do lodo correspondeu aos 29 dias. O índice volumétrico do lodo médio foi de 117,5 mL/g, indicando uma sedimentação com características médias. As eficiências médias no processo de remoção de carbono e nitrogênio foram de 90,8% (como DQO) e 49,8%, respectivamente. As taxas específicas médias diárias, no processo de nitrificação e desnitrificação, foram de 24,2g N/kg SSVLM.dia e 15,5 g N/kg SSVLM.dia, respectivamente. O monitoramento, em tempo real, do pH, ORP e OD, mostrou ter um grande potencial no controle dos processos biológicos, em que o pH foi mais representativo no período aeróbio, sendo o ORP e o OD mais representativos no período anóxico. A operação do RSB com o controlador difuso, apresentou do ciclo 71 ao 85, as eficiências médias no processo de remoção de carbono e nitrogênio de 96,4% (como DQO) e 76,4%, respectivamente. A duração média do período aeróbio foi de 162,1 minutos, que tomando como referência o período máximo de 200,0 minutos, reduziu em 19,0% esses períodos. A duração média do período anóxico foi de 164,4 minutos, que tomando como referência o período máximo de 290,0 minutos, apresentou uma redução de 43,3%, mostrando a atuação robusta do controlador difuso. O estudo do perfil temporal, no ciclo 85, mostrou a atuação efetiva do controlador difuso, associada aos pontos de controle nos processos biológicos do RSB. Nesse ciclo, as taxas máximas específicas de nitrificação e desnitrificação observadas, foram de 32,7 g NO3 --N/kg sólido suspenso volátil no licor misto.dia e 43,2g NO3 --N/kg sólido suspenso volátil no licor misto.dia, respectivamente.
Resumo:
O cerne da Sustentabilidade como conceito contemporâneo é a inclusão de uma lógica diferente da tradicional dentro do sistema social: o cuidado com os aspectos econômicos, humanos e ambientais como orientadores de decisões para toda e qualquer atividade produtiva em exercício (produtos, serviços, bem estar humano). Responder ao constructo da sustentabilidade exige das organizações um sistema complexo de gestão sobre suas trocas com o meio. Nas Organizações Não Governamentais (ONGs) o funcionamento organizacional tem também buscado um estado duradouro de produção de resultados de utilidade pública, adotando formas de gestão que variam entre o tradicionalismo e a inovação, numa tentativa de equilibrar-se com fatores emergentes como a responsabilidade social interna, a capacidade de aprendizagem e a responsabilidade ambiental. Esta pesquisa propõe um composto de Critérios aplicativo dos princípios orientadores da sustentabilidade ajustados às ONGs: substitui os tradicionais elementos que só se aplicam às empresas, como “lucro” e “produção limpa”, por elementos equivalentes nas ONGs, como “produção de resultados” e “inovação metodológica”. Esses ajustes foram feitos a partir da literatura analisada e são sustentados durante toda a dissertação. Diversos estudos e modelos científicos sobre a eficiência, efetividade e sustentabilidade de organizações foram fontes elementares desta pesquisa, para propor um instrumento operacional de medição sobre o quanto uma ONG reflete o constructo da sustentabilidade em sua gestão. A pesquisa é não experimental de caráter exploratório e se utiliza de métodos quantitativos e qualitativos, quando os dados resultantes foram discutidos com um Grupo Foco. A proposição, descrição e validação teórica deu origem ao modelo teórico global de 26 indicadores agrupados em seis Critérios: Governança, Inovação, Produção de Resultados, Gestão e Impacto Econômico-Financeiro, Gestão Social, Gestão, Educação e Impacto Ambiental. Foi aplicado um Questionário com noventa questões para um Universo de 161 ONGs em três áreas de atuação- Educação não formal, Meio Ambiente e Desenvolvimento Comunitário, cadastradas no Mapa do Terceiro Setor (FGV-EAESP / Centro de Estudos do Terceiro Setor), e o índice de respostas foi de 54%. A partir dessa coleta os dados foram analisados de modo quantitativo (estatísticas descritivas, análises e escores fatoriais) e qualitativo (grupo focal), donde surgiram hipóteses emergentes e conclusões para uma inferência descritiva do Universo da pesquisa. As Hipóteses Emergentes resultantes versam sobre a dissociação entre gestão organizacional da economia interna e do meio, a participação da ONG na economia de mercado e a ocorrência de um isomorfismo mimético e normativo nas ONGs. Tece ainda conclusões e provocações para novas investigações.
Resumo:
A grande disponibilidade de informações oferece um amplo potencial comercial. Contudo, o enorme volume e diversidade de oportunidades gera um problema: limitações comerciais criadas pela seleção e a manipulação manual dessa informação. O tratamento das grandes bases de dados não estruturadas e/ou semi-estruturadas (BDNE/SE), como as trazidas pela Internet, é uma fonte de conhecimento rica e confiável, permitindo a análise de mercados. O tratamento e a estruturação dessa informação permitirá seu melhor gerenciamento, a realização de consultas e a tomada de decisões, criando diferenciais competitivos de mercado. Pesquisas em Recuperação de Informação (RI), as quais culminaram nesta tese, investem na melhoria da posição competitiva de pequenas e médias empresas, hoje inseridas, pelo comércio eletrônico, em um mercado globalizado, dinâmico e competitivo. O objetivo deste trabalho é o desenvolvimento de uma Metodologia de Extração de Informações para o Tratamento e Manipulação de Informações de Comércio Eletrônico. Chamaremos essa metodologia de EI-MNBC, ou seja, Extração de Informações em Múltiplos Níveis Baseada em Conhecimento. Os usuários da EIMNBC podem rapidamente obter as informações desejadas, frente ao tempo de pesquisa e leitura manual dos dados, ou ao uso de ferramentas automáticas inadequadas. Os problemas de volume, diversidade de formatos de armazenamento, diferentes necessidades de pesquisa das informações, entre outros, serão solucionados. A metodologia EI-MNBC utiliza conhecimentos de RI, combinando tecnologias de Recuperação de Documentos, Extração de Informações e Mineração de Dados em uma abordagem híbrida para o tratamento de BDNE/SE. Propõe-se uma nova forma de integração (múltiplos níveis) e configuração (sistema baseado em conhecimento - SBC) de processos de extração de informações, tratando de forma mais eficaz e eficiente as BDNE/SE usadas em comércio eletrônico. Esse tratamento viabilizará o uso de ferramentas de manipulação de dados estruturados, como Sistemas Gerenciadores de Bancos de Dados, sobre as informações anteriormente desestruturadas. A busca do conhecimento existente em bases de dados textuais não estruturadas demanda a compreensão desses dados. O objetivo é enfatizar os aspectos cognitivos superficiais envolvidos na leitura de um texto, entendendo como as pessoas recuperam as informações e armazenando esse conhecimento em regras que guiarão o processo de extração. A estrutura da metodolo gia EI-MNBC é similar a de um SBC: os módulos de extração (máquinas de inferência) analisam os documentos (eventos) de acordo com o conteúdo das bases de conhecimento, interpretando as regras. O resultado é um arquivo estruturado com as informações extraíd as (conclusões). Usando a EI-MNBC, implementou-se o SE-MNBC (Sistema de Extração de Informações em Múltiplos Níveis Baseado em Conhecimento) que foi aplicado sobre o sistema ETO (Electronic Trading Opportunities). O sistema ETO permite que as empresas negociem através da troca de e-mails e o SE-MNBC extrai as informações relevantes nessas mensagens. A aplicação é estruturada em três fases: análise estrutural dos textos, identificação do assunto (domínio) de cada texto e extração, transformando a informação não estruturada em uma base de dados estruturada.
Resumo:
A presente dissertação de mestrado procura analisar o mercado de leasing no Brasil, a partir de suas duas modalidades, o “leasing financeiro” e o “leasing operacional”. Sua ênfase, contudo é o “leasing operacional” por ser este um instrumento de financiamento muito apropriado ao ambiente corporativo, como se evidenciará no trabalho. Metodologicamente, o trabalho se vale de dois caminhos, o da pesquisa secundária, mediante levantamentos de fontes de dados e informações já existentes sobre o tema, e a inferência realizada a partir do conhecimento da situação do “leasing operacional”, levando à proposta de soluções para a consolidação e desenvolvimento do produto na economia brasileira. O leasing está presente no Brasil há várias décadas. Entretanto, devido ao ambiente de elevada instabilidade prevalecente no quarto final do século passado e pelo fato do país encontrar-se ainda num processo de amadurecimento institucional, sendo classificado como uma economia emergente nesse princípio do século XXI, esse importante “instrumento de financiamento” somente agora vem se consolidando. Nos países centrais e mais desenvolvidos economicamente, ao contrário, o leasing, tanto em sua versão financeira quanto na operacional, é um produto reconhecido por sua importância no processo de financiamento corporativo, servindo plenamente aos interesses das economias de mercado. O “leasing financeiro”, relativamente menos freqüente nas economias desenvolvidas (embora muito encontrado no Brasil), caracteriza-se pelo financiamento concedido a agentes econômicos que, adquirindo um bem, paulatinamente, na medida em que amortizam esse financiamento, vão incorporando o produto financiado ao seu ativo patrimonial. Trata-se, por assim dizer, de um “produto financeiro” strictu sensu, muito próximo do financiamento bancário tradicional. O “leasing operacional”, por seu turno, é encontrado com grande freqüência nas economias maduras, onde operacionalmente se assimila ao renting (aluguel), possibilitando ao cliente adquirir produtos (máquinas, equipamentos), pagando uma importância periódica ao agente arrendador (que muitas vezes é o próprio fabricante), podendo, ao final do contrato, incorporar ou não o bem objeto do contrato ao seu ativo patrimonial. Muito freqüentemente, o cliente prefere substituir o equipamento antigo por um novo, iniciando um novo contrato de leasing operacional, o que leva o sistema produtivo a um processo autônomo de evolução tecnológica. A presente dissertação parte da constatação da importância estratégica do leasing no processo de financiamento corporativo, e examina a evolução do leasing de modo comparativo, tanto na economia brasileira quanto em outros países, constituindo um pano de fundo para compreender a importância deste instrumento para o desenvolvimento de negócios, oferecendo uma análise de uma perspectiva financeira e também econômica. Constata que três importantes dimensões explicam a ainda pouca utilização do produto no país, quais sejam, o marco regulatório, ineficiências de back office e o risco país. No entanto, como um passo seguro para a superação dessas dificuldades, o trabalho recomenda a criação de uma clearing house unificada - uma espécie de back office centralizado-, envolvendo os principais players do leasing operacional, que possa diluir custos de transação, retomar e recolocar o objeto arrendado, dando flexibilidade e eficiência ao sistema.
Resumo:
O objetivo deste trabalho é testar a aplicação de um modelo gráfico probabilístico, denominado genericamente de Redes Bayesianas, para desenvolver modelos computacionais que possam ser utilizados para auxiliar a compreensão de problemas e/ou na previsão de variáveis de natureza econômica. Com este propósito, escolheu-se um problema amplamente abordado na literatura e comparou-se os resultados teóricos e experimentais já consolidados com os obtidos utilizando a técnica proposta. Para tanto,foi construído um modelo para a classificação da tendência do "risco país" para o Brasil a partir de uma base de dados composta por variáveis macroeconômicas e financeiras. Como medida do risco adotou-se o EMBI+ (Emerging Markets Bond Index Plus), por ser um indicador amplamente utilizado pelo mercado.
Resumo:
A determinação da taxa de juros estrutura a termo é um dos temas principais da gestão de ativos financeiros. Considerando a grande importância dos ativos financeiros para a condução das políticas econômicas, é fundamental para compreender a estrutura que é determinado. O principal objetivo deste estudo é estimar a estrutura a termo das taxas de juros brasileiras, juntamente com taxa de juros de curto prazo. A estrutura a termo será modelado com base em um modelo com uma estrutura afim. A estimativa foi feita considerando a inclusão de três fatores latentes e duas variáveis macroeconômicas, através da técnica Bayesiana da Cadeia de Monte Carlo Markov (MCMC).
Resumo:
Redes Bayesianas podem ser ferramentas poderosas para construção de modelos econômico-financeiros utilizados para auxílio à tomada de decisão em situações que envolvam grau elevado de incerteza. Relações não-lineares entre variáveis não são capturadas em modelos econométricos lineares. Especialmente em momentos de crise ou de ruptura, relações lineares, em geral, não mais representam boa aproximação da realidade, contribuindo para aumentar a distância entre os modelos teóricos de previsão e dados reais. Neste trabalho, é apresentada uma metodologia para levantamento de dados e aplicação de Redes Bayesianas na obtenção de modelos de crescimento de fluxos de caixa de empresas brasileiras. Os resultados são comparados a modelos econométricos de regressão múltipla e finalmente comparados aos dados reais observados no período. O trabalho é concluído avaliando-se as vantagens de desvantagens da utilização das Redes de Bayes para esta aplicação.
Resumo:
Diante do inédito momento vivido pela economia brasileira e, especialmente, pela bolsa de valores nacional, principalmente após a obtenção do grau de investimento pelo Brasil, este trabalho aborda um tema que ganhou um enorme espaço na mídia atual que é a análise técnica. A partir de uma amostra de 37 ações listadas na Bolsa de Valores de São Paulo no período compreendido entre janeiro de 1999 e agosto de 2009, este trabalho examina se a análise técnica agrega valor 'as decisões de investimentos. Através da elaboração de intervalos de confiança, construídos através da técnica de Bootstrap de inferência amostral, e consistentes com a hipótese nula de eficiência de mercado na sua forma fraca, foram testados 4 sistemas técnicos de trading. Mais especificamente, obteve-se os resultados de cada sistema aplicado às series originais dos ativos. Então, comparou-se esses resultados com a média dos resultados obtidos quando os mesmos sistemas foram aplicados a 1000 séries simuladas, segundo um random walk, de cada ativo. Caso os mercados sejam eficientes em sua forma fraca, não haveria nenhuma razão para se encontrar estratégias com retornos positivos, baseando-se apenas nos valores históricos dos ativos. Ou seja, não haveria razão para os resultados das séries originais serem maiores que os das séries simuladas. Os resultados empíricos encontrados sugeriram que os sistemas testados não foram capazes de antecipar o futuro utilizando-se apenas de dados passados. Porém, alguns deles geraram retornos expressivos e só foram superados pelas séries simuladas em aproximadamente 25% da amostra, indicando que a análise técnica tem sim seu valor.
Resumo:
O presente trabalho busca testar a validade da Regra de Taylor no controle da inflação em sete países emergentes que adotam o sistema de metas inflação: Brasil, Colômbia, México, Polônia, Turquia, África do Sul e Filipinas. A estimação e inferência são realizadas a partir de um modelo de estado espaço para determinar os períodos em que os países seguiram a regra. Em seguida é realizado um teste de raiz unitária com threshold para verificar se o desvio da inflação em relação a meta depende (ou não) da indicação dada pela Regra de Taylor. Os resultados obtidos indicam que em países que seguem a Regra de Taylor, o desvio da expectativa de inflação em relação a meta é estacionário, em todos os casos. Em contrapartida, na maioria dos casos em que a Regra de Taylor não é respeitada, o desvio da expectativa de inflação em relação à meta é não-estacionário.