908 resultados para Variância realizada
Resumo:
Trata-se do exame do viés resultante da diferença entre o prêmio teórico e o prêmio observado de uma opção de compra de ações preferenciais da Telebrás no período de agosto de 1992 a agosto de 1994. Admite-se como causa do viés a natureza estocástica da volatilidade e procede-se à sua modelagem.
Resumo:
O presente trabalho tem como tema a qualidade de produtos e serviços bancários, sob a perspectiva dos clientes, e visa a identificar o grau de importância e o nível de satisfação com a qualidade dos produtos e serviços oferecidos pelo Banco do Brasil S/A aos clientes da "Carteira Empresas" da agência de Canela - RS. A avaliação do nível de satisfação e do grau de importância da qualidade dos produtos e serviços oferecidos aos clientes da "Carteira Empresas" do Banco do Brasil S/A tem sido realizada como um "exercício de imaginação" ou de feeling dos gerentes de agências. Com o presente trabalho, busca-se o emprego de método de pesquisa para a realização de tal avaliação. Para tanto, é realizada pesquisa bibliográfica sobre serviços, qualidade em serviços, satisfação dos clientes, valor do cliente, estratégia da lealdade CRM - Customer Relationship Management, gestão do relacionamento com os clientes, recuperação do serviço e pesquisa de marketing. Através de pesquisa qualitativa, são levantados os atributos da qualidade demandada dos produtos e serviços oferecidos. Logo após, é realizada pesquisa quantitativa na qual são identificados o grau de importância e o nível de satisfação atribuídos pelos clientes aos atributos da qualidade demandada levantados pela referida pesquisa. Para processamento e análise dos resultados são utilizadas técnicas estatistícas como método de análise descritiva, de análise de variância, de análise de regressão e o teste de confiabilidade do instrumento de pesquisa. Com base nos resultados encontrados é desenvolvido e apresentado, também um plano de melhorias.
Resumo:
Trata da avaliação de hospitais gerais ocorrida no município de Jundiai - SP no ano de 1995. Aborda: o contexto das políticas públicas de saúde nacional e local; os conceitos de avaliação; os instrumentos de avaliação e seu uso. Estuda especialmente este processo de avaliação, explorando sua realização, seus produtos e resultados e o instrumento utilizado.
Resumo:
A Mancha Foliar de Phaeosphaeria é considerada uma das mais importantes moléstias do milho no Brasil. Atualmente, existem dúvidas quanto ao agente causal e o melhoramento genético tem dificuldade de desenvolver cultivares resistentes estáveis. Neste estudo os objetivos foram identificar os fungos causadores da moléstia, estudar a herança da resistência, sob infestação natural e artificial, e identificar marcadores moleculares ligados à resistência à moléstia. Quatro fungos foram associados às lesões de Phaeosphaeria. Phyllosticta sp., Phoma sorghina e Sporormiella sp. foram patogênicos e Phoma sp. não foi testado. Os fungos P. sorghina e Phoma sp. foram, respectivamente, o predominante e o menos freqüente na lesão para todos os quatro ambientes coletados. Phyllosticta sp. e Sporormiella sp. foram os de mais baixa freqüência e restritos a locais. Estudos sob infestação natural, com três cruzamentos, em um único ambiente e com três tipos de avaliação de severidade evidenciaram a presença de variabilidade genética para a resistência e proporcionaram estimativas de herdabilidade intermediárias (0,48-0,69). No estudo de médias de gerações o modelo aditivo-dominante explicou as bases genéticas da resistência, sendo a ação gênica de dominância a mais importante. A inoculação artificial de um cruzamento com Phyllosticta sp. e P. sorghina, confirmaram a presença de dominância. Nos estudos moleculares, a fenotipagem foi realizada sob infestação natural e para um único ambiente e a genotipagem com marcadores microssatélites. A percentagem de polimorfismo obtida foi de 36%, sendo que seis QTLs foram identificados. Estes resultados indicam que vários fungos estão envolvidos na produção dos sintomas da moléstia conhecida por Mancha Foliar de Phaeosphaeria e a composição de fungos na lesão pode variar conforme o ambiente. A estimativa de herdabilidade indica a possibilidade de êxito com a seleção em gerações segregantes, principalmente porque os efeitos gênicos preponderantes para a resistência envolvem aditividade e dominância. A análise de QTL permitiu explicar grande parte da variância fenotípica (80%) e genotípica (58%); entretanto, outros ambientes devem ser testados para a sua efetiva confirmação.
Resumo:
Uma das principais características da estratégia como campo de conhecimento é o seu foco no estudo da individualidade das empresas em contraste com a economia que foca prioritariamente os ramos de negócios. As empresas diferem entre si em várias dimensões e estas diferenças constituem a essência do interesse de pesquisa em estratégia. Uma destas dimensões é a velocidade com que as empresas crescem ou diminuem de tamanho. Esta tese analisou a estrutura de variabilidade das taxas de crescimento das empresas tendo como objetivo identificar grupos de fatores que influem nesta variabilidade e a magnitude relativa desta influência. O estudo foi feito sobre uma amostra internacional com 13.221 empresas de 47 países e 216 ramos de negócios diferentes no período 1994 a 2002. Os dados originais foram obtidos da base de dados Compustat Global, mantida pela Standard and Poor’s, e combinados com índices do World Bank Development Indicators para considerar o efeito de inflação e mudanças de moedas nos vários países. A técnica de componentes de variância, normalmente utilizada para analisar a variabilidade natural em áreas como genética e biologia, foi usada para entender a composição da variância das taxas de crescimento. O principal achado foi que os aspectos individuais, idiossincráticos a cada empresa, respondem pela maior parcela da variância. Outros fatores como o país e o ramo de negócios têm uma influência menor. No plano teórico, a predominância do efeito empresa individual na explicação da variabilidade das taxas de crescimento oferece suporte empírico à abordagem de Penrose (1959) que considera o crescimento como um processo natural, endógeno decorrente dos recursos da empresa e se contrapõe a abordagens econômicas que usam efeitos prioritariamente associados ao ramo de negócios como determinantes do crescimento das firmas. Estes resultados também permitem ver o crescimento como um dos resultados do uso de recursos superiores e, portanto, como uma dimensão adicional do construto vantagem competitiva, ligando o trabalho à visão baseada em recursos da estratégia (RBV). Uma das possíveis implicações gerenciais da pesquisa refere-se à eficácia de políticas públicas de crescimento. Sendo o efeito do ramo de negócios no crescimento tão pequeno, estes dados colocam em dúvida a eficácia de políticas setoriais e indica que políticas que dêem recursos à empresa individual ou que se direcionem ao fortalecimento de instituições de infraestrutura do país, como educação, transporte, saúde, possam ter maior eficácia em promover o crescimento das empresas através do efeito país. Além da contribuição principal o estudo permitiu várias conclusões secundárias sobre o a variabilidade das taxas de crescimento das empresas.
Resumo:
A determinação e a mensuração da importância das principais fontes de vantagem competitiva, ainda é um tema em discussão na área de Estratégia. Uma linha de pesquisa, iniciada em meados dos anos 80, tem seu foco principal na determinação e quantificação da importância dos fatores que poderiam explicar as diferenças no desempenho de um grupo de empresas, utilizando a decomposição da variância dos valores do desempenho através das técnicas de Regressão Linear ou de Componentes de Variância. Nesta linha de pesquisa, desenvolveram-se uma série de trabalhos empíricos cujo propósito principal é quantificar, entre outros fatores, qual a importância do setor industrial em que a empresa atua, qual a importância do ano, qual a importância de se fazer parte de um grupo econômico e qual a importância dos fatores idiossincráticos da empresa na explicação do desempenho apresentado em determinados períodos. Dos resultados destes trabalhos surgiram discussões importantes sobre o papel da estratégia corporativa e sobre a importância relativa de tais fatores na determinação da vantagem competitiva. Este trabalho se insere nesta linha de pesquisa, cujo objetivo é, utilizando uma base de dados brasileira muito mais abrangente e completa que os estudos anteriores, quer nacionais e internacionais, primeiramente verificar se a realidade apontada nos estudos internacionais se assemelha à do Brasil. Em segundo lugar, contribuir com um refinamento teórico, refazendo estas análises utilizando modelos lineares mistos, mais apropriados para estes conjuntos de dados, que os modelos de componentes de variância. Em terceiro lugar, utilizando dois tipos de matriz de covariância, verifica se o desempenho de um determinado ano influi no desempenho dos anos imediatamente subseqüentes, verificando, assim, a possível existência de medidas repetidas para a variável ano. Finalmente, analisa se parte da variabilidade do desempenho das empresas brasileiras pode ser atribuído ao fato da empresa se localizar em determinada Unidade da Federação
Resumo:
A avaliação de desempenho de fundos de investimentos é, tradicionalmente, realizada utilizando-se o Índice de Sharpe, que leva em consideração apenas os dois primeiros momentos da distribuição de retornos (média e variância), assumindo as premissas de normalidade da distribuição de retornos e função quadrática de utilidade do investidor. Entretanto, é sabido que uma função de utilidade quadrática é inconsistente com o comportamento do investidor e que as distribuições de retornos de determinados fundos, como os hedge funds, estão longe de serem uma distribuição normal. Keating e Shadwick (2002a, 2002b) introduziram uma nova medida denominada Ômega que incorpora todos os momentos da distribuição, e tem a vantagem de não ser necessário fazer premissas sobre a distribuição dos retornos nem da função de utilidade de um investidor avesso ao risco. O objetivo deste trabalho é verificar se esta medida Ômega tem um poder de previsibilidade maior que outras medidas de avaliação de desempenho, como o Índice de Sharpe e o Índice de Sortino. O estudo empírico indicou que a medida Ômega gera um ranqueamento, na maioria das vezes, relativamente diferente das outras medidas testadas. Apesar das carteiras formadas com base na medida Ômega terem gerado um retorno médio maior que o retorno médio das carteiras formadas pelas outras medidas em praticamente todos os testes, esta diferença entre as médias dos retornos só foi significativa em alguns casos. Mesmo assim, há uma leve indicação de que a medida Ômega é a mais apropriada para utilização do investidor ao fazer a avaliação de desempenho dos fundos de investimentos.
Resumo:
A modelagem conjunta de média e variância tem se mostrado particularmente relevante na obtenção de processos e produtos robustos. Nesse contexto, deseja-se minimizar a variabilidade das respostas simultaneamente com o ajuste dos fatores, tal que se obtenha a média da resposta próxima ao valor alvo. Nos últimos anos foram desenvolvidos diversos procedimentos de modelagem conjunta de média e variância, alguns envolvendo a utilização dos Modelos Lineares Generalizados (GLMs) e de projetos fatoriais fracionados. O objetivo dessa dissertação é apresentar uma revisão bibliográfica sobre projetos fatoriais fracionados e GLM, bem como apresentar as propostas de modelagem conjunta encontradas na literatura. Ao final, o trabalho enfatiza a proposta de modelagem conjunta de média e variância utilizando GLM apresentada por Lee e Nelder (1998), ilustrando-a através de um estudo de caso.
Resumo:
Esta pesquisa de mestrado analisa o discurso do jornal Zero Hora sobre o Partido dos Trabalhadores, durante a Comissão Parlamentar de Inquérito da Segurança Pública, realizada pela Assembléia Legislativa do Rio Grande do Sul, de 18 de abril a 10 de novembro de 2001. Para compreender o funcionamento destes discursos nos amparamos em fundamentos teóricos e em procedimentos metodológicos consagrados pela Escola Francesa da Análise do Discurso e, também, nos cercamos de conceitos de comunicação, política e jornalismo. 7 RESUMO Construímos o corpus de nossa pesquisa, partindo das 48 edições do jornal Zero Hora subseqüentes às audiências da Comissão Parlamentar de Inquérito e mais a edição relativa à leitura do relatório final dos trabalhos desta Comissão, totalizando 49 exemplares, nas quais foram publicadas 110 matérias informativas sobre a Comissão Parlamentar de Inquérito. Deste total, subdividimos e classificamos as matérias exclusivas sobre o Partido dos Trabalhadores. Verificamos que o jornal Zero Hora, no período estudado, construiu um discurso de resistência e de oposição ao Partido dos Trabalhadores e ao poder político instituído no Estado, visando desestabilizar o capital simbólico deste partido - a sua credibilidade. Articulado com veículos da RBS, o jornal interferiu na pauta da CPI da Segurança Pública, fiscalizou as ações do PT, sugeriu rumos ao partido e usou ironias da oposição, no seu discurso jornalístico. A repetição e a disputa política pelas eleições de 2002 também estiveram presentes na discursividade do jornal. Partimos da perspectiva de que o discurso jornalístico não é um discurso da realidade, mas um discurso sobre a realidade. Assim, contestamos o mito da objetividade jornalística, embora esta visão ainda domine no campo da comunicação. E nos contrapomos ao argumento da neutralidade no discurso do jornal Zero Hora, utilizando o paradigma de Gaye Tuchman, segundo o qual os jornais e os jornalistas, em busca da imparcialidade jornalística, recorrem a determinados rituais estratégicos para se protegerem das críticas - como ouvir os dois lados, apresentar provas complementares, usar aspas e a pirâmide invertida, na elaboração das matérias jornalísticas. Identificamos no discurso do jornal Zero Hora sobre o Partido dos Trabalhadores, no período estudado, a existência de pelo menos duas formações discursivas: uma FD-petista e outra FD-antipetista, que em alguns momentos aparecem isoladas e, em outros se misturam e se mesclam. As principais marcas observadas em ambas linhas discursivas são relativas à ética e à democracia. Embora os enunciadores tenham sido múltiplos, o fio condutor destes discursos apontou para uma mesma direção de sentidos e a FD-antipetista se revelou com uma presença mais marcante.
Resumo:
A Estatística é uma ferramenta indispensável em todos os campos científicos. A Estatística descritiva é usada para sintetizar dados. O principal problema desta área está relacionado aos valores de uma amostra, os quais geralmente possuem erros que ocorrem durante a obtenção dos dados. Um dos objetivos deste trabalho é apresentar uma forma de representação para os valores amostrais que considera os erros contidos nestes valores. Esta representação é realizada através de intervalos. A literatura mostra que foram realizadas pesquisas somente em problemas de calcular os valores intervalares das medidas de dispersão variância, covariância e coeficiente de correlação, que a utilização da computação intervalar na solução de problemas de medidas de dispersão intervalar sempre fornece solução com intervalos superestimados (intervalos com amplitude grande), e que ao procurar uma solução com intervalos de amplitude pequena (através da computação da imagem intervalar), o problema passa a pertencer a classe de problemas NP-Difícil. Com o objetivo principal de analisar a complexidade computacional dos problemas de computar os valores dos indicadores estatísticos descritivos com entradas intervalares, e realizar uma classificação quanto a classe de complexidade, a presente tese apresenta: i) definições intervalares de medidas de tendência central, medidas de dispersão e separatrizes; ii) investigação da complexidade de problemas das medidas de tendência central média, mediana e moda, das medidas de dispersão amplitude, variância, desvio padrão, coeficiente de variação, covariância, coeficiente de correlação e das separatrizes e iii) representação intervalar dos valores reais, de tal modo que garante a qualidade de aproximação nos intervalos solução calculado através da extensão intervalar Primeiramente, apresentamos uma abordagem intervalar para os indicadores estatísticos e propomos algoritmos para a solução dos problemas de computar os intervalos de medidas de tendência central intervalar, dispersão intervalar e separatrizes intervalares. Tais algoritmos utilizam a aritmética intervalar definida por Moore, a extensão intervalar e foram projetados para serem executados em ambientes intervalares como IntLab e Maple Intervalar. Por meio da análise da complexidade computacional verificamos que os problemas de medidas de tendência central, dispersão e separatrizes, com entradas intervalares, pertencem à classe de problemas P. Este trabalho apresenta, portanto, algoritmos de tempo polinomial que calculam os intervalos dos indicadores estatísticos com entradas intervalares, e que retornam como solução intervalos com qualidade de aproximação. Os resultados obtidos no desenvolvimento do trabalho tornaram viável a computação da Estatística Descritiva Intervalar.
Resumo:
O objetivo deste trabalho é analisar o desempenho de estimadores de volatilidade que utilizam valores extremos (máximo, mínimo, abertura e fechamento) para ativos no mercado brasileiro. Discute-se o viés dos estimadores usando como referências o estimador clássico, a volatilidade realizada e a volatilidade implícita de 1 mês da série de opções no dinheiro (ATM - at the money); discute-se a eficiência quanto à previsibilidade da volatilidade futura usando o estimador clássico e a volatilidade implícita defasados um período para frente como variáveis dependentes e a eficiência em si, isto é, quanto ao tamanho da variância do estima-dor. Como representantes de ativos brasileiros, foram escolhidos a paridade BRL/USD spot e o Índice Bovespa. Além de bastante líquidos, esses dois ativos têm bastante importância no mercado brasileiro, seja como benchmark para investimentos, bem como ativos-base para muitos derivativos operados na Bolsa de Mercadorias e Futuros (BM&F) e na Bolsa de Va-lores de São Paulo (Bovespa). A volatilidade do ativo-base é uma das variáveis para o apre-çamento de derivativos como opções; muitas estratégias são montadas, no mercado financei-ro, utilizando-a como referência. A volatilidade também é bastante usada no gerenciamento de riscos, em modelos como o Value at Risk (VaR), por exemplo.
Resumo:
Introdução: A Síndrome Hepatopulmonar (SHP) é definida pela tríade que compreende a presença de doença hepática, aumento do gradiente alvéolo-capilar no ar ambiente e dilatações vasculares intrapulmonares na ausência de doença pulmonar ou cardíaca coexistente. Objetivo: Avaliar o efeito antioxidante do flavonóide Quercetina (Q) no tecido pulmonar de ratos com ligadura de ducto biliar comum, como um modelo experimental de SHP. Matérias e Métodos: Este estudo tem caráter experimental qualitativo e quantitativo, no qual foram utilizados ratos machos Wistar, pesando entre 200 e 300 gramas, divididos em quatro grupos: Controle + Veículo (CO+V), Controle + Quercetina (CO+Q), Cirrose Biliar Secundária + Veículo (CBS+V) e Cirrose Biliar Secundária + Quercetina (CBS+Q). Foram realizadas análises séricas de Aminotransferares (AST e ALT) e Fosfatase Alcalina (FA), gasometria arterial, avaliação da lipoperoxidação (substâncias que reagem ao ácido tiobarbitúrico - TBA-RS), quantificação das enzimas antioxidantes Superóxido Dismutase (SOD) e Catalase (CAT), avaliação de nitratos totais, avaliação do dano ao DNA através dos Testes de Micronúcleos e Ensaio Cometa e teste anatomopatológico dos tecidos hepático e pulmonar. O período do experimento foi de 28 dias. A partir do 14º dia os animais receberam Q na dose de 50mg/Kg ou veículo (NaCl 0,9%) no volume de 1mL/Kg de peso corporal intraperitonealmente. Para análise estatística foi realizada análise de variância (ANOVA) seguida de teste de Student-Newman-Keuls, sendo o nível de significância adotado de 5% (P<0,05). Resultados: Constatou-se aumento significativo (P<0,05) das enzimas AST, ALT e FA e diminuição significativa de valores gasométricos de pressão parcial de oxigênio arterial (PaO2) e saturação de oxigênio da hemoglobina (SatO2/Hb) nos animais CBS+V em relação aos demais grupos, e melhora nos parâmetros enzimáticos e gasométricos após o tratamento com Q. Observou-se redução do dano oxidativo através de TBA-RS no pulmão e no fígado. Quanto às enzimas antioxidantes, a Q nos animais cirróticos manteve os valores da SOD, tanto no fígado como no pulmão, semelhantes aos animais controles. A CAT no pulmão manteve-se inalterada e, no fígado, após o uso de Q, permaneceu em seus níveis basais. Na avaliação de nitratos totais observou-se aumento no tecido pulmonar dos ratos cirróticos e após o tratamento com Q redução aos níveis dos controles. Quanto ao dano ao DNA a Q reduziu a freqüência de micronúcleos e o dano ao DNA no fígado e no pulmão dos animais CBS+Q e não mostrou indícios de dano ao DNA nem aumento da freqüência de micronúcleos quando comparados CO+Q com CO+V. No teste anatomopatológico do fígado sinais de necrose e nódulos regenerativos foram atenuados nos animais CBS+Q. No tecido pulmonar, os animais CBS+V desenvolveram alterações pulmonares semelhantes a SHP e após o uso de Q observou-se redução da vasodilatação e da estase sangüínea. Conclusões: Os resultados obtidos sugerem que o flavonóide Quercetina, através do seu potencial antioxidante, provavelmente atenua as alterações pulmonares presentes na SHP, fato que nos estimula a futuras investigações.
Resumo:
O presente trabalho propõe para o cálculo VaR o modelo de simulação histórica, com os retornos atualizados pela volatilidade realizada calculada a partir de dados intradiários. A base de dados consiste de cinco ações entre as mais líquidas do Ibovespa de distintos segmentos. Para a metodologia proposta utilizamos duas teorias da literatura empírica – simulação histórica ajustada e volatilidade realizada. Para análise e verificação do desempenho da metodologia proposta utilizamos o Teste de Kupiec e o Teste de Christoffersen.
Resumo:
O objetivo geral deste estudo foi comparar adolescentes infratores e não infratores quanto a variáveis familiares que podem estar relacionadas ao desenvolvimento do comportamento infrator. Além disso, pretendeu-se investigar as variáveis preditoras da conduta infratora. Os sujeitos foram 311 adolescentes divididos em dois grupos. O primeiro grupo foi composto por 148 adolescentes do sexo masculino autores de atos infracionais, que estavam cumprindo medida sócio-educativa privativa de liberdade na Fase-RS. O segundo grupo foi constituído por 163 adolescentes que não cometeram atos infracionais, estudantes do Ensino Fundamental e Médio em escolas públicas de Porto Alegre. Os instrumentos utilizados foram uma entrevista estruturada, a Escala de Estilos Parentais e um protocolo para a análise dos prontuários dos adolescentes infratores. Os resultados indicaram a presença de diferenças significativas entre os grupos nas seguintes variáveis: configuração familiar; comportamento anti-social na família; número de irmãos; existência de conflitos na família; responsividade, exigência e intrusividade parental; práticas educativas parentais; e consumo de drogas pelos adolescentes. As análises descritivas permitiram a caracterização do comportamento infrator apresentado pelos jovens, incluindo aspectos como idade de cometimento do primeiro delito, motivações e tipo de delitos efetuados. Para investigar o valor preditivo das variáveis familiares e individuais sobre o comportamento infrator foi realizada a Análise de Regressão. Os resultados mostraram que as variáveis independentes (responsividade e exigência parentais; comportamento anti-social na família; número de irmãos; uso de drogas pelo adolescente; existência de conflitos na família e práticas educativas parentais) contribuíram para explicar 53% da variância do comportamento infrator. Examina-se o papel da família, em especial das práticas educativas, no desenvolvimento da conduta infratora, as limitações metodológicas para a investigação em adolescentes com as características dos que compõem a amostra e as implicações dos resultados encontrados para a implementação de políticas de prevenção e de tratamento destinados a essas famílias.
Resumo:
The concept of stochastic discount factor pervades the Modern Theory of Asset Pricing. Initially, such object allows unattached pricing models to be discussed under the same terms. However, Hansen and Jagannathan have shown there is worthy information to be brought forth from such powerful concept which undelies asset pricing models. From security market data sets, one is able to explore the behavior of such random variable, determining a useful variance bound. Furthermore, through that instrument, they explore one pitfall on modern asset pricing: model misspecification. Those major contributions, alongside with some of its extensions, are thoroughly investigated in this exposition.