8 resultados para Análise Não-Linear
em Biblioteca Digital da Produção Intelectual da Universidade de São Paulo
Resumo:
As concentrações de 39 compostos orgânicos foram determinadas em três frações (cabeça, coração e cauda) obtidas da destilação em alambique do caldo de cana fermentado. Os resultados foram avaliados utilizando-se análise de variância (ANOVA), teste de Tukey, análise de componentes principais (PCA), agrupamento hierárquico (HCA) e análise discriminante linear (LDA). De acordo com PCA e HCA, os dados experimentais conduzem à formação de três agrupamentos. As frações de cabeça deram origem a um grupo mais definido. As frações coração e cauda apresentaram alguma sobreposição coerente com sua composição em ácidos. As habilidades preditivas de calibração e validação dos modelos gerados pela LDA para a classificação das três frações foram de 90,5 e 100%, respectivamente. Este modelo reconheceu como coração doze de treze cachaças comerciais (92,3%) com boas características sensoriais, apresentando potencial para a orientação do processo de cortes.
Resumo:
INTRODUÇÃO: As modificações da frequência cardíaca (FC) durante a transição repouso-exercício podem ser caracterizadas por meio da aplicação de cálculos matemáticos simples, como: deltas 0-10 e 0-30s para inferir sobre o sistema nervoso parassimpático, e delta e regressão linear aplicados no intervalo 60-240s para inferir sobre o sistema nervoso simpático. Assim, o objetivo deste estudo foi testar a hipótese de que indivíduos jovens e de meia-idade apresentam diferentes respostas da FC em exercício de intensidade moderada e intensa, com diferentes cálculos matemáticos. MÉTODOS: Homens aparentemente saudáveis, sendo sete de meia-idade e 10 jovens, foram submetidos a testes de carga constante de intensidade moderada e intensa. Foram calculados os deltas da FC nos períodos de 0-10s, 0-30s e 60-240s e a regressão linear simples no período de 60 a 240s. Os parâmetros obtidos na análise de regressão linear simples foram: intercepto e inclinação angular. Utilizou-se o teste Shapiro-Wilk para verificar a distribuição dos dados e o teste t não pareado para comparação entre os grupos. O nível de significância estatística considerado foi 5%. RESULTADOS: O valor do intercepto e do delta 0-10s foi menor no grupo meia-idade nas duas cargas e a inclinação do ângular foi menor no grupo meia-idade no exercício moderado. CONCLUSÃO: Os indivíduos jovens apresentam retirada vagal de maior magnitude no estágio inicial da resposta da FC durante exercício dinâmico em carga constante nas intensidades analisadas e maior velocidade de ajuste da resposta simpática em exercícios moderados.
Resumo:
O sistema cultivo mínimo, por possibilitar pouca movimentação de solo, menor número de operações agrícolas sem incorporação dos resíduos vegetais, apresenta vantagens em razão do menor custo de preparo e da redução das perdas de solo e água. No ano agrícola de 2006/2007, na Fazenda de Ensino e Pesquisa da Faculdade de Engenharia de Ilha Solteira, SP, Brasil - FEIS/UNESP, situada nas condições do Cerrado Brasileiro, objetivou-se analisar a produtividade de massa de matéria seca da consorciação de forragem (guandu+milheto) (MSF), em função de atributos físicos do solo, tais como resistência à penetração (RP), umidade gravimétrica (UG), umidade volumétrica (UV) e densidade do solo (DS) nas profundidades de 0,0-0,10 m; 0,10-0,20 m e 0,20-0,30 m. Para tanto, foi instalado um ensaio, contendo 117 pontos amostrais, em um Latossolo Vermelho distroférrico, sob pivô central, numa área experimental de 1600 m² sob cultivo mínimo. A análise estatística constou de análise descritiva inicial dos atributos e análise das correlações lineares simples entre eles, e, finalmente, de análise geoestatística. Do ponto de vista da correlação espacial, o atributo que mais bem explica a produtividade de massa de matéria seca da consorciação é a densidade do solo na camada de 0,20-0,30 m, com uma correlação inversa, indicando que as espécies se desenvolvem bem em solos adensados.
Resumo:
Discute-se o potencial prognóstico de índices de instabilidade para eventos convectivos de verão na Região Metropolitana de São Paulo. Cinco dos oito dias do período analisado foram considerados chuvosos, com observação de tempestades a partir do meio da tarde. O Índice K (IK) obteve valores abaixo de 31 nos 5 eventos, afetado pela presença de uma camada fria e seca em níveis médios da atmosfera em relação aos baixos níveis. O Índice Total Totals (ITT) falhou na detecção de severidade em 3 dos 5 eventos, apresentando valores inferiores ao mínimo limiar tabelado para fenômenos convectivos (ITT < 44) nesses dias. O Índice Levantado (IL) variou entre -4.9 e -4.3 em todos os 5 casos, valores associados a instabilidade moderada. O Índice de Showalter (IS) indicou possibilidade de tempestades severas em 4 dos 5 casos. Tanto o IS como o CAPE Tv tiveram seus valores fortemente reduzidos em uma sondagem com camada isotérmica entre 910 e 840 hPa. As séries temporais de CAPE Tv e IL mostraram significativa concordância de fase, com alta correlação linear entre ambas. CINE Tv ≈ 0 J kg-1 em associação com baixo cisalhamento vertical e com IS, IL e CAPE Tv, pelo menos moderados, parecem ser fatores comuns em dias de verão com chuvas abundantes e pequena influência da dinâmica de grande escala na área de estudo.
Faturamento de novos produtos na indústria do estado de São Paulo: análise dos fatores de influência
Resumo:
Diversos estudos têm sido realizados no intuito de analisar os impactos da inovação tecnológica no desempenho comercial das empresas. Com isso, este estudo visa analisar os fatores de influência sobre o percentual do faturamento com a venda de novos produtos na indústria do Estado de São Paulo. Trata-se de uma pesquisa com características descritivas e explicativas, cuja abordagem é quantitativa, utilizando dados secundários provindos da Pesquisa de Atividade Econômica Paulista (PAEP), realizada pela Fundação SEADE. Os resultados mostram que os fatores de influência sobre o faturamento provindo de novos produtos são: a origem do capital controlador; a empresa pertencer a um grupo empresarial; o total de pessoal em pesquisa e desenvolvimento; o pessoal alocado diretamente na produção; as fontes de informação para atividades inovativas; e o apoio governamental para a inovação tecnológica.
Resumo:
As estimações das taxas de inflação são de fundamental importância para os gestores, pois as decisões de investimento estão intimamente ligadas a elas. Contudo, o comportamento inflacionário tende a ser não linear e até mesmo caótico, tornando difícil a sua correta estimação. Essa característica do fenômeno pode tornar imprecisos os modelos mais simples de previsão, acessíveis às pequenas organizações, uma vez que muitos deles necessitam de grandes manipulações de dados e/ou softwares especializados. O presente artigo tem por objetivo avaliar, por meio de análise formal estatística, a eficácia das redes neurais artificiais (RNA) na previsão da inflação, dentro da realidade de organizações de pequeno porte. As RNA são ferramentas adequadas para mensurar os fenômenos inflacionários, por se tratar de aproximações de funções polinomiais, capazes de lidar com fenômenos não lineares. Para esse processo, foram selecionados três modelos básicos de redes neurais artificiais Multi Layer Perceptron, passíveis de implementação a partir de planilhas eletrônicas de código aberto. Os três modelos foram testados a partir de um conjunto de variáveis independentes sugeridas por Bresser-Pereira e Nakano (1984), com defasagem de um, seis e doze meses. Para tal, foram utilizados testes de Wilcoxon, coeficiente de determinação R² e o percentual de erro médio dos modelos. O conjunto de dados foi dividido em dois, sendo um grupo usado para treinamento das redes neurais artificiais, enquanto outro grupo era utilizado para verificar a capacidade de predição dos modelos e sua capacidade de generalização. Com isso, o trabalho concluiu que determinados modelos de redes neurais artificiais têm uma razoável capacidade de predição da inflação no curto prazo e se constituem em uma alternativa razoável para esse tipo de mensuração.
Resumo:
Modelos de apreçamento de ativos têm sido um tema sob constante investigação em finanças. Desde o capital asset pricing model (CAPM) proposto por Sharpe (1964), tais modelos relacionam, geralmente de maneira linear, a taxa de retorno esperada de um ativo ou carteira de ativos com fatores de risco sistêmico. Esta pesquisa apresenta um teste de um modelo de apreçamento, com dados brasileiros, introduzindo em sua formulação fatores de risco baseados em comomentos estatísticos. O modelo proposto é uma extensão do CAPM original acrescido da coassimetria e da cocurtose entre as taxas de retorno das ações das empresas que compõem a amostra e as taxas de retorno da carteira de mercado. Os efeitos de outras variáveis, como o valor de mercado sobre valor contábil, a alavancagem financeira e um índice de negociabilidade em bolsa, serviram de variáveis de controle. A amostra foi composta de 179 empresas brasileiras não financeiras negociadas na BM&FBovespa e com dados disponíveis entre os anos de 2003 a 2007. A metodologia consistiu em calcular os momentos sistêmicos anuais a partir de taxas de retornos semanais e em seguida testá-los em um modelo de apreçamento, a fim de verificar se há um prêmio pelo risco associado a cada uma dessas medidas de risco. Foi empregada a técnica de análise de dados em painel, estimada pelo método dos momentos generalizado (GMM). O emprego do GMM visa lidar com potenciais problemas de determinação simultânea e endogeneidade nos dados, evitando a ocorrência de viés nas estimações. Os resultados das estimações mostram que a relação das taxas de retorno dos ativos com a covariância e a cocurtose são estatisticamente significantes. Os resultados se mostraram robustos a especificações alternativas do modelo. O artigo contribui para a literatura por apresentar evidências empíricas brasileiras de que há um prêmio pelo risco associado aos momentos sistêmicos.