955 resultados para Distribuição normal
Resumo:
O movimento de inclusão na escola, preconiza uma mudança como o mundo percepciona a diferença e o direito à educação. O objectivo deste estudo, ao encontro da actuais directrizes para uma escola inclusiva, é contribuir para uma reflexão sobre a problemática da percepção dos professores dos grupos disciplinares de Educação Física, Humanidades, Ciências e Expressões com referência às Culturas, Políticas e às Práticas inclusivas. Este estudo vem no seguimento de uma linha de investigação relacionada com a inclusão educativa, criada no âmbito do Mestrado da U.L.H.T. em Ensino da Educação Física nos Ensinos Básico e Secundário. A recolha de dados foi elaborada com base no questionário “Index for Inclusion – developing learning and participation in schools” (2002), da autoria de Tony Booth e Mel Ainscow, tendo sido inquiridos setecentos e noventa e nove docentes que leccionam em escolas do Distrito de Lisboa. No que concerne às questões de avaliação de desempenho e importância dada a cada um dos aspectos das várias dimensões da inclusão, todas estas se caracterizaram por ser uma variável discreta do tipo ordinal. Metodologicamente recorremos à Anova, sendo este um teste paramétrico utilizado com o propósito comparativo dos grupos em função da sua média. Uma vez que não se verificou os pressupostos para a sua utilização (distribuição normal dos grupos e homogeneidade das variâncias), como reforço, utilizamos a metodologia aplicativa não paramétricas na comparação dos grupos, ou seja teste de Mann-Whitney.
Resumo:
No nosso Estudo obtivemos uma amostra 183 estudantes do 1º Ciclo de Direito, organizados por três grupos de intervenção: Retribuição (M=34,11; DP=12,865), Prevenção Geral (M=30,52; DP=11,489), Prevenção Especial (M=30,95; DP=13,485). Através da análise estatística dos dados recolhidos, relativamente a comparação de médias entre estratégias penais, verificou-se que o grupo Retribuição sentenciou uma média mais elevada de anos a todos os crimes, excepto ao Crime J. A nossa amostra, a qual aleatória simples apresentou uma distribuição normal e todos os testes apresentaram um p-value inferior a .05, indicando a significância dos nossos resultados, excepto no Crime I, da estratégia Prevenção Especial (pvalue=. 074).
Resumo:
O impacto da obesidade na fisiopatologia da pele humana parece relacionar-se com diversas dermatoses, resultado da alteração da sua fisiologia normal, incluindo alterações na função barreira e na função de “envelope”. Contudo, a informação disponível é ainda escassa devido às diversas complexidades do tema. Este estudo pretende contribuir para a definição de uma metodologia de abordagem experimental para estudar, de forma objetiva, as alterações funcionais que caracterizam a pele obesa. O presente estudo, transversal, incluiu 28 voluntárias, do sexo feminino, saudáveis, com idade média 23±5 anos de idade, após consentimento informado. Foi realizada uma única medição de caracterização das diversas funções cutâneas obtidas por meios não invasivos em condições controladas. As variáveis consideradas relevantes foram, a hidratação (superficial e profunda) a função de barreira e o comportamento biomecânico, medidos em 4 áreas anatómicas distintas. Através do SPSS (v 20.0) realizámos uma análise estatística univariada com cálculo de medidas de tendência central e de dispersão. Recorremos aos testes de Pearson e de Spearman, para as variáveis que seguiam, ou não, uma distribuição normal, respectivamente, adotando um grau de confiança de 95% . Os resultados permitem propor uma metodologia para o estudo da pele, aplicável ao doente obeso, incluindo a escolha das áreas anatómicas e das variáveis adequadas ao objetivo pretendido.
Resumo:
O impacto da obesidade na fisiopatologia da pele humana parece relacionar-se com diversas dermatoses, resultado da alteração da sua fisiologia normal, incluindo alterações na função barreira e na função de “envelope”. Contudo, a informação disponível é ainda escassa devido às diversas complexidades do tema. Este trabalho pretende contribuir para a definição de uma metodologia de abordagem experimental para estudar, de forma objectiva, as alterações funcionais que caracterizam a pele obesa. O presente estudo, transversal, incluiu 28 voluntárias, do sexo feminino, saudáveis, com idade média 23±5 anos de idade, após consentimento informado. Foi realizada uma única medição de caracterização das diversas funções cutâneas obtidas por meios não invasivos em condições controladas. As variáveis consideradas relevantes foram, a hidratação (superficial e profunda) a função de barreira e o comportamento biomecânico, medidos em 4 áreas anatómicas distintas. Através do SPSS (v 20.0) realizámos uma análise estatística univariada com cálculo de medidas de tendência central e de dispersão. Recorremos aos testes de Pearson e de Spearman, para as variáveis que seguiam, ou não, uma distribuição normal, respectivamente, adoptando um grau de confiança de 95% . Os resultados permitem propor uma metodologia para o estudo da pele, aplicável ao doente obeso, incluindo a escolha das áreas anatómicas e das variáveis adequadas ao objetivo pretendido.
Resumo:
Introdução: a obtenção de um bom controle metabólico é essencial para a prevenção das complicações crônicas do Diabetes Melito (DM). O tratamento é complexo e depende da implementação efetiva das diferentes estratégias terapêuticas disponíveis. Para que isso seja possível, é necessário que o paciente entenda os princípios terapêuticos e consiga executá-los. A precária educação em diabetes é percebida como um dos obstáculos para o alcance das metas terapêuticas. Objetivo: analisar, os fatores associados ao controle metabólico, em pacientes com DM tipo 2 (DM2) não usuários de insulina. Métodos: foi realizado um estudo transversal em pacientes com DM2 não usuários de insulina, selecionados ao acaso entre aqueles que consultavam nos ambulatórios de Medicina Interna, Endocrinologia e Enfermagem do Hospital de Clínicas de Porto Alegre. Os pacientes foram submetidos à avaliação clínica, laboratorial e responderam um questionário que incluía o tipo de tratamento realizado para DM, outros medicamentos e co-morbidades, pesquisa de complicações em ano prévio e avaliação do conhecimento sobre DM. Os pacientes foram classificados em dois grupos, com bom ou mau controle glicêmico, de acordo com o valor da glico-hemoglobina de 1 ponto % acima do limite superior do método utilizado. As comparações entre variáveis contínuas, com distribuição normal, foram analisadas pelo teste t de Student para amostras não-pareadas e para as variáveis de distribuição assimétrica ou com variância heterogênea o teste U de Mann-Whitney. A comparação entre percentagem foi feita pelo teste de qui-quadrado ou exato de Fisher. Foi realizada uma análise logística múltipla para identificar os fatores mais relevantes associados ao controle metabólico (variável dependente). As variáveis independentes com um nível de significância de P < 0,1 na análise bivariada, foram incluídas no modelo. Resultados: foram avaliados 143 pacientes com DM2, idade de 59,3 ± 10,1 anos, duração conhecida do DM 7,5 ± 6,3 anos, índice de massa corporal (IMC) de 29,7 ± 5,2 kg/m².Destes, 94 pacientes (65,73%) apresentavam bom controle glicêmico. Os pacientes com mau controle glicêmico usavam mais anti-hiperglicemiantes orais como monoterapia (OR = 9,37; IC = 2,60-33,81; P=0,004) ou associados (OR = 31,08; IC = 7,42-130,15; P < 0,001). Da mesma maneira, não fizeram dieta em dias de festa (OR = 3,29; IC = 1,51-7,16; P = 0,012). A inclusão do conhecimento sobre diabetes não foi diferente entre os pacientes com bom ou mau controle glicêmico (OR = 1,08; IC = 0,97 - 1,21; P = 0,219). A análise multivariada demonstrou que a consulta com a enfermeira educadora (OR = 0,24; IC = 0,108-0,534; P = 0,003), com o endocrinologista (OR = 0,15 ; IC = 0,063-0,373; P = 0,001) e o uso de hipolipemiantes (OR = 0,10; IC = 0,016 - 0,72; P = 0,054) foram associados ao bom controle glicêmico, ajustados para a não realização de dieta em festas, uso de anti-hiperglicemiantes orais e conhecimento sobre diabetes. Conclusão: o controle metabólico em pacientes DM2 é influenciado pelas atividades de educação com enfermeira e endocrinologista. O tratamento do DM2 deve incluir atividades de educação de forma sistemática.
Resumo:
Apresentamos a distribuição hiperbólica corno alternativa à distribuição normal para a modelagem em finanças. A distribuição hiperbólica possui a vantagem de ter caudas pesadas e de permitir grande concentração das observações em torno da média. Estas características são verificadas empiricamente para os retornos dos ativos financeiros. Além de possuir um bom ajuste aos dados, o processo de Lévy hiperbólico apresenta caminhos puramente descontínuos. Corno os preços dos ativos seguem trajetórias descontínuas. esta característica consiste em mais urna vantagem desta distribuição. As descontinuidades nos levam a um modelo incompleto. )"lesmo assim, é possível definir urna fórmula para o apreçamento de opções. O bom ajuste aos dados da distribuição hiperbólica pode ser mais um indício de trabalharmos em mercados incompletos. Estimamos os parâmetros da hiperbólica para dados brasileiros. Com a fórmula de apreçamento e com os parâmetros estimados, determinamos os pre(;os para urna opção de Telebrás.
Resumo:
Dentre os principais desafios enfrentados no cálculo de medidas de risco de portfólios está em como agregar riscos. Esta agregação deve ser feita de tal sorte que possa de alguma forma identificar o efeito da diversificação do risco existente em uma operação ou em um portfólio. Desta forma, muito tem se feito para identificar a melhor forma para se chegar a esta definição, alguns modelos como o Valor em Risco (VaR) paramétrico assumem que a distribuição marginal de cada variável integrante do portfólio seguem a mesma distribuição , sendo esta uma distribuição normal, se preocupando apenas em modelar corretamente a volatilidade e a matriz de correlação. Modelos como o VaR histórico assume a distribuição real da variável e não se preocupam com o formato da distribuição resultante multivariada. Assim sendo, a teoria de Cópulas mostra-se um grande alternativa, à medida que esta teoria permite a criação de distribuições multivariadas sem a necessidade de se supor qualquer tipo de restrição às distribuições marginais e muito menos as multivariadas. Neste trabalho iremos abordar a utilização desta metodologia em confronto com as demais metodologias de cálculo de Risco, a saber: VaR multivariados paramétricos - VEC, Diagonal,BEKK, EWMA, CCC e DCC- e VaR histórico para um portfólio resultante de posições idênticas em quatro fatores de risco – Pre252, Cupo252, Índice Bovespa e Índice Dow Jones
Resumo:
Este trabalho examinou as características de carteiras compostas por ações e otimizadas segundo o critério de média-variância e formadas através de estimativas robustas de risco e retorno. A motivação para isto é a distribuição típica de ativos financeiros (que apresenta outliers e mais curtose que a distribuição normal). Para comparação entre as carteiras, foram consideradas suas propriedades: estabilidade, variabilidade e os índices de Sharpe obtidos pelas mesmas. O resultado geral mostra que estas carteiras obtidas através de estimativas robustas de risco e retorno apresentam melhoras em sua estabilidade e variabilidade, no entanto, esta melhora é insuficiente para diferenciar os índices de Sharpe alcançados pelas mesmas das carteiras obtidas através de método de máxima verossimilhança para estimativas de risco e retorno.
Resumo:
A avaliação de desempenho de fundos de investimentos é, tradicionalmente, realizada utilizando-se o Índice de Sharpe, que leva em consideração apenas os dois primeiros momentos da distribuição de retornos (média e variância), assumindo as premissas de normalidade da distribuição de retornos e função quadrática de utilidade do investidor. Entretanto, é sabido que uma função de utilidade quadrática é inconsistente com o comportamento do investidor e que as distribuições de retornos de determinados fundos, como os hedge funds, estão longe de serem uma distribuição normal. Keating e Shadwick (2002a, 2002b) introduziram uma nova medida denominada Ômega que incorpora todos os momentos da distribuição, e tem a vantagem de não ser necessário fazer premissas sobre a distribuição dos retornos nem da função de utilidade de um investidor avesso ao risco. O objetivo deste trabalho é verificar se esta medida Ômega tem um poder de previsibilidade maior que outras medidas de avaliação de desempenho, como o Índice de Sharpe e o Índice de Sortino. O estudo empírico indicou que a medida Ômega gera um ranqueamento, na maioria das vezes, relativamente diferente das outras medidas testadas. Apesar das carteiras formadas com base na medida Ômega terem gerado um retorno médio maior que o retorno médio das carteiras formadas pelas outras medidas em praticamente todos os testes, esta diferença entre as médias dos retornos só foi significativa em alguns casos. Mesmo assim, há uma leve indicação de que a medida Ômega é a mais apropriada para utilização do investidor ao fazer a avaliação de desempenho dos fundos de investimentos.
Resumo:
O objetivo do trabalho é demonstrar que a otimização de uma carteira composta por fundos multimercados brasileiros gera melhores resultados quando a medida de risco utilizada é o Conditional Value-at-Risk. Modelos de otimização de carteira têm como objetivo selecionar ativos que maximizem o retorno do investidor para um determinado nível de risco. Assim, a definição de uma medida apropriada de risco é de fundamental importância para o processo de alocação. A metodologia tradicional de otimização de carteiras, desenvolvida por Markowitz, utiliza como medida de risco a variância dos retornos. Entretanto, a variância é uma medida apenas apropriada para casos em que os retornos são normalmente distribuídos ou em que os investidores possuem funções de utilidade quadrática. Porém, o trabalho mostra que os retornos dos fundos multimercados brasileiros tendem a não apresentar distribuição normal. Logo, para efetuar a otimização de uma carteira composta por fundos multimercados brasileiros é necessário utilizar uma medida de risco alternativa.
Resumo:
Há forte evidência que os retornos das séries financeiras apresentam caudas mais pesadas que as da distribuição normal, principalmente em mercados emergentes. No entanto, muitos modelos de risco utilizados pelas instituições financeiras baseiam-se em normalidade condicional ou não condicional, reduzindo a acurácia das estimativas. Os recentes avanços na Teoria de Valores Extremos permitem sua aplicação na modelagem de risco, como por exemplo, na estimação do Valor em Risco e do requerimento de capital. Este trabalho verifica a adequação de um procedimento proposto por McNeil e Frey [1999] para estimação do Valor em Risco e conseqüente requerimento de capital às principais séries financeiras de retornos do Brasil. Tal procedimento semi-paramétrico combina um modelo GARCH ajustado por pseudo máxima verossimilhança para estimação da volatilidade corrente com a Teoria de Valores Extremos para estimação das caudas da distribuição das inovações do modelo GARCH. O procedimento foi comparado através de backtestings com outros métodos mais comuns de estimação de VaR que desconsideram caudas pesadas das inovações ou a natureza estocástica da volatilidade. Concluiu-se que o procedimento proposto por McNeil e Frey [1999] mostrou melhores resultados, principalmente para eventos relacionados a movimentos negativos nos mercados . Futuros trabalhos consistirão no estudo de uma abordagem multivariada de grandes dimensões para estimação de VaR e requerimento de capital para carteiras de investimentos.
Resumo:
Esta dissertação analisa o desempenho e as características de uma parte dos atuais fundos de fundos brasileiros, os denominados multigestores, bem como o desempenho de fundos de fundos resultantes da simulação de carteiras de fundos brasileiros que utilizam várias estratégias de investimentos, conhecidos como multimercados. A diversificação através de uma carteira de fundos multimercados envolve outras variáveis além da tradicional abordagem de média-variância. A primeira parte do estudo apresenta as principais características dos fundos de fundos selecionados e descreve, além da média e variância, o terceiro e quarto momentos das distribuições dos retornos. A segunda parte utiliza a ferramenta chamada Análise de Estilo (Sharpe, 1988), para determinar a exposição dos retornos de cada um dos fundos de fundos da amostra a determinadas classes de ativos. Neste trabalho foram escolhidas as seguintes classes de ativos: Ibovespa, CDI, Dólar e IRF-M. Através da abordagem de média-variância, a terceira parte do estudo utiliza a ferramenta conhecida na Teoria da Carteira (Markowitz, 1952) como fronteira de mínima variância, para avaliar o desempenho de cada um dos fundos de fundos da amostra. O desempenho é avaliado com base na comparação da fronteira de mínima variância construída a partir de uma carteira de referência (composta por dois dos principais ativos financeiros brasileiros de baixo e alto risco: CDI e Ibovespa, respectivamente) com outra fronteira de mínima variância construída a partir do acréscimo de um fundo de fundos à carteira de referência. A última parte refere-se a simulações de carteiras de fundos multimercados que permitem a alocação de renda variável na carteira e também permitem o uso de alavancagem. Seu objetivo é verificar, através dos valores de retorno médio, variância, assimetria e curtose, a eficiência desses fundos como instrumentos de diversificação. Os resultados mostram que os 32 fundos de fundos multigestores analisados não tem distribuição normal de retornos e 29 apresentam assimetria negativa. A Análise de Estilo indica grande sensibilidade ao CDI e ao IRF-M, e pouca sensibilidade ao Ibovespa e Dólar, importantes índices do mercado financeiro. A maioria dos fundos de fundos multigestores melhorou a Fronteira Eficiente quando adicionados a uma carteira de referência (CDI + Ibovespa), ou seja, houve uma redução na relação risco-retorno. A simulação das carteiras indica que nos últimos três anos os fundos multimercados classificados como Com Renda Variável Com Alavancagem tem sido mais agressivos nas estratégias, devido ao comportamento da assimetria, porém o comportamento da curtose indica também uma posição nem tão agressiva. Logo, a construção de carteiras com fundos que utilizam diversas estratégias de investimentos não deve se restringir à abordagem de média-variância. Deve também envolver também assimetria, curtose e preferências do investidor.
Resumo:
O objetivo deste trabalho foi mostrar modelagens alternativas à tradicional maneira de se apurar o risco de mercado para ativos financeiros brasileiros. Procurou-se cobrir o máximo possível de fatores de risco existentes no Brasil; para tanto utilizamos as principais proxies para instrumentos de Renda Fixa. Em momentos de volatilidade, o gerenciamento de risco de mercado é bastante criticado por trabalhar dentro de modelagens fundamentadas na distribuição normal. Aqui reside a maior contribuição do VaR e também a maior crítica a ele. Adicionado a isso, temos um mercado caracterizado pela extrema iliquidez no mercado secundário até mesmo em certos tipos de títulos públicos federais. O primeiro passo foi fazer um levantamento da produção acadêmica sobre o tema, seja no Brasil ou no mundo. Para a nossa surpresa, pouco, no nosso país, tem se falado em distribuições estáveis aplicadas ao mercado financeiro, seja em gerenciamento de risco, precificação de opções ou administração de carteiras. Após essa etapa, passamos a seleção das variáveis a serem utilizadas buscando cobrir uma grande parte dos ativos financeiros brasileiros. Assim, deveríamos identificar a presença ou não da condição de normalidade para, aí sim, realizarmos as modelagens das medidas de risco, VaR e ES, para os ativos escolhidos, As condições teóricas e práticas estavam criadas: demanda de mercado (crítica ao método gausiano bastante difundido), ampla cobertura de ativos (apesar do eventual questionamento da liquidez), experiência acadêmica e conhecimento internacional (por meio de detalhado e criterioso estudo da produção sobre o tema nos principais meios). Analisou-se, desta forma, quatro principais abordagens para o cálculo de medidas de risco sendo elas coerentes (ES) ou não (VaR). É importante mencionar que se trata de um trabalho que poderá servir de insumo inicial para trabalhos mais grandiosos, por exemplo, aqueles que incorporarem vários ativos dentro de uma carteira de riscos lineares ou, até mesmo, para ativos que apresentem risco não-direcionais.
Resumo:
A ferrugem da folha da aveia, causada pelo fungo Puccinia coronata f. sp. avenae, é responsável por grandes decréscimos na produção, afetando tanto o rendimento como a qualidade de grãos. O controle através do uso de cultivares com resistência qualitativa tem se mostrado pouco efetivo em termos de durabilidade. Neste sentido, a resistência quantitativa pode ser uma alternativa de controle viável, em busca de uma resistência mais durável, já que exerce menor pressão de seleção sobre a população patogênica. A resistência quantitativa reduz a taxa de progresso da doença, pela combinação dos diversos componentes que a condicionam, como: longo período latente, curto período infeccioso, baixa eficiência de infecção e pústulas de comprimento reduzido. Não se sabe ao certo o papel individual de cada um destes componentes sobre o progresso da doença no campo, bem como, o número de genes que determinam estas características. Assim, este trabalho visou caracterizar os componentes da resistência quantitativa (período latente, período infeccioso, comprimento de pústulas e ASCPD) à ferrugem da folha da aveia, em planta adulta e plântulas, tanto em condições controladas como em condições de campo. Para tanto foram utilizadas 83 linhagens recombinantes F6:10 de aveia branca, oriundas do cruzamento de um pai suscetível (UFRGS 7) com um pai com resistência quantitativa (UFRGS 910906). As linhagens apresentaram variabilidade para as características avaliadas, exceto para comprimento de pústulas em planta adulta. Os componentes da resistência apresentaram distribuição normal, exceto o comprimento de pústulas em planta adulta e o período de latência em plântulas. Isto sugere a presença de vários genes de pequeno efeito atuando na expressão dos mesmos, não se enquadrando em nenhum modelo de poucos genes. Os resultados sugerem que a resistência quantitativa à ferrugem da folha da aveia é resultado da ação conjunta de todos os componentes que a condicionam, e não de apenas um deles. Ainda, mecanismos diferenciados parecem estar atuando em cada genótipo na expressão desta característica.
Resumo:
O Brasil é o segundo produtor mundial de soja [Glycine max (L.) Merr.] e o sétimo de óleo vegetal. A produção brasileira desta oleaginosa alcançou 61 milhões de toneladas na safra 2007/08 e projeta-se, para 2020, produção de 105 milhões de toneladas. O consumo de biodiesel em 2008 representou um milhão de toneladas e a demanda por este biocombustível deverá atingir 3,1 milhões de toneladas em 2020. Para atender esta demanda haverá ampliação da área plantada principalmente na região Centro-Oeste, mas também exigirá esforços no aumento de produtividade. Visando melhor conhecimento das inferências das variáveis climáticas temperatura e radiação global sobre o desenvolvimento da soja e sua produtividade de grãos e óleo, foi proposto um modelo estocástico com distribuição normal truncada para os dados de temperatura máxima, mínima e média. Também foi incluído neste modelo distribuição triangular assimétrica para determinação da produtividade de óleo mais provável. Foram estipuladas oito datas de semeadura para a localidade de Piracicaba/SP onde está localizada a estação meteorológica da ESALQ/USP, fornecedora dos dados climáticos utilizados neste estudo. Conclui-se que: (i) ao longo das datas de semeadura houve redução do ciclo com o aumento da temperatura média; (ii) a redução do ciclo da cultura de soja interferiu nas produtividades de grãos e de óleo; (iii) a radiação global média nos trinta dias após a antese refletiram-se na partição de fotoassimilados e na produtividade de grãos e óleo; (iv) os modelos estocásticos podem ser utilizados para a previsão das produtividades de soja e óleo.