972 resultados para coeficiente de digestibilidade


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Informações sobre as condições de crescimento e expectativa de produção de culturas são importantes para a economia brasileira, visto que permitem um planejamento adequado da economia agrícola, contornando problemas de escassez e administrando com vantagens o excesso de produtos. Neste contexto, as tecnologias de sensoriamento remoto e geoprocessamento permitem a obtenção de informações precisas, em tempo hábil e com baixo custo. O presente trabalho teve como principal objetivo gerar subsídios para o aprimoramento do sistema atual de acompanhamento e previsão da safra de soja no Brasil, incorporando técnicas de sensoriamento remoto e geoprocessamento. Como objetivos específicos, buscou-se avaliar a acurácia da classificação digital de imagens LANDSAT para estimativa da área cultivada com soja e verificar a influência de aspectos regionais, tais como condições climáticas, de ocupação e de manejo, sobre a evolução temporal do índice de vegetação por diferença normalizada (NDVI), obtidos de imagens NOAA, visando o monitoramento da cultura da soja em projetos de previsão de safras. A estimativa de área cultivada com soja foi realizada através da classificação digital não supervisionada. Como verdade terrestre foram selecionadas 24 lavouras de soja, individualizadas na imagem com diferentes tamanhos e de diferentes regiões de uso e cobertura do solo, as quais foram quantificadas usando GPS de precisão topográfica. A verificação da acurácia da estimativa foi feita através de análise de regressão linear, sendo testada a significância do coeficiente de determinação. O monitoramento da cultura da soja foi realizada usando imagens decendiais de máximo NDVI. Nestas imagens, foram selecionadas 18 janelas amostrais, sendo extraídos os valores de NDVI e expressos na forma de perfis espectrais. Os resultados mostraram que a estimativa de área das lavouras cultivadas com soja, obtida através do processo de classificação digital não supervisionada em imagens LANDSAT, foi acurada e precisa para pequenas, médias e grandes lavouras, mostrando-se ser uma técnica eficiente para ser utilizada em projetos de previsão de safras de soja na região estudada. A evolução temporal do NDVI, obtida de imagens NOAA, apresentou sensibilidade quanto às diferenças de uso e cobertura do solo, demonstrando que as escalas espacial e temporal das imagens NOAA são adequadas para o acompanhamento em nível regional da evolução temporal da biomassa. Existe, ainda, potencial de uso de imagens NDVI para inferir sobre a área cultivada com soja em projetos de previsão de safras em escalas regionais, desde que a cultura seja predominante no pixel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução: Obesidade pode ser definida como uma condição de acúmulo anormal ou excessivo de gordura no tecido adiposo que acarreta prejuízo à saúde. Em países desenvolvidos, a obesidade é considerada um problema de saúde pública, e pela Organização Mundial da Saúde, uma epidemia global. Esta patologia predispõe ao desenvolvimento de outras doenças como: diabetes, hipertensão arterial, dislipidemias, doenças cardiovasculares, câncer, distúrbios respiratórios (entre eles apnéia do sono), colilitíase, esteatose hepática e afecções osteoarticulares. Em adolescentes e crianças, a obesidade contribui com mais de um terço das consultas endocrinológicas pediátricas (5). Dados americanos referentes ao excesso de peso durante a adolescência indicam que jovens com índice de massa corporal (IMC) elevado apresentam maior risco de desenvolver hipertensão, dislipidemia, intolerância à glicose e doenças crônicas como, por exemplo, doença cardiovascular. Nos Estados Unidos, por exemplo, cerca de 70 bilhões são gastos anualmente em obesidade, enquanto que doenças como diabetes e doença coronariana consomem apenas 50 bilhões de dólares. Em outros países, os gastos com obesidade representam uma proporção expressiva dos orçamentos destinados à saúde: 4% na Holanda, 3,5% em Portugal, 2,5% na Nova Zelândia, 2% na Austrália, 2,4% no Canadá e 1,5% na França. Tratando-se exclusivamente de crianças e adolescentes, em 1979-1981, o sistema americano de saúde gastou, em média, 35 milhões de dólares com tratamento da obesidade e, em 1997-1999, os custos chegaram a 127 milhões.A elevação dos custos está diretamente relacionada ao aumento da prevalência de obesidade, ocorrida nos últimos anos. No Brasil, segundo dados do Plano de Orçamento Familiar, havia 38 milhões de brasileiros com excesso de peso e 10,3 milhões com obesidade em 2003. Objetivos: estimar a prevalência de excesso de peso em adolescentes em uma amostra representativa da Cidade de Porto Alegre. Além de calcular taxas de prevalência de obesidade, sobrepeso e adiposidade utilizando diferentes pontos de corte internacionais para circunferência da cintura, razão cintura quadril, razão cintura-altura, percentual de gordura corporal e índice de massa corporal. Material e métodos: este estudo transversal de base populacional incluiu adolescentes, entre 12 a 19 anos, que residiam em Porto Alegre. Os adolescentes foram selecionados através de amostragem aleatória de base populacional. A coleta dos dados se deu através de entrevista domiciliar utilizando questionário padronizado, com questões sobre: idade, sexo, escolaridade, consumo de bebidas alcoólicas, tabagismo, freqüência e duração de prática de hábitos sedentários. Aferiu-se peso (kg), altura (cm), e circunferência da cintura (CC) em duplicata. Razão cintura-altura (RCA), razão cintura-quadril (RCQ), percentual de gordura corporal (%GC) e IMC [quilos (kg)/altura (m)2] também foram calculados. A análise dos dados incluiu as distribuições de percentis para cada variável antropométrica, regressão linear para calcular coeficiente de determinação, e análise de variância para calcular médias e desvios-padrões para idade e sexo. As taxas de prevalência e intervalos de confiança de 95% (IC 95%) foram calculadas utilizando-se padronização direta. Cálculo de tamanho da amostra determinou que 183 adolescentes deveriam ser estudados para que, com intervalo de confiança de 95%, fossem detectadas prevalências de 22%, com erro de 4%. Resultados: Cento e dois meninos e 99 meninas foram avaliados nesta análise interina, correspondendo a 25% da amostra global. A distribuição por idade e sexo foi comparável a do IBGE para adolescentes de Porto Alegre. As distribuições dos percentis 85 e 90 para IMC, CC, RCQ caracterizaram pontos de corte que incluíam valores anormais para indivíduos adultos. Um total de 20,9% dos meninos e 22,1% das meninas apresentavam sobrepeso e 7,9% e 4,6% obesidade, respectivamente. O IMC apresentou correlação mais forte com CC e RCA (r ≥0,80) do que com RCQ (r=0,33); e associou-se significativamenye com %GC (P,0,001). Detectaram-se associações estatisticamente significativas de CC, RCQ e %GC com sexo, e RCQ com idade e sexo, mas não houve interação entre sexo e idade. Conclusão: esta amostra de adolescentes permitiu detectar prevalências de sobrepeso e obesidade que estão entre as descritas em outros países e mesmo em outras partes do Brasil. Os percentis 80 a 85 dos índices antropométricos podem capturar um risco mais elevado para apresentar outros fatores de risco cardiovasculares. Unitermos: prevalência, adolescente, obesidade, sobrepeso, circunferência da cintura, razão cintura-quadril, razão cintura-altura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Métodos ‘in vivo’ são ideais para avaliar o valor nutritivo dos alimentos, porém são caros, demorados e avaliam poucos alimentos por vez. Portanto, métodos ‘in vitro’ e ‘in situ’ têm sido freqüentemente utilizados. Entre estes, tem se destacado a técnica de produção de gases ‘in vitro’, a qual vem sendo amplamente utilizada, particularmente pelos países do Hemisfério Norte. A sua modificação, tornando-a mais prática e semi-automatizada, tem impulsionado a sua utilização no Brasil. No entanto, a validação do uso desta técnica nos sistemas tropicais de produção animal necessita ainda ser estabelecido. O objetivo deste trabalho foi testar a técnica de produção cumulativa de gases ‘in vitro’, na avaliação da qualidade fermentativa e nutritiva de silagens de milho, e comparar seus resultados com os métodos tradicionais de digestibilidade ‘in vitro’ e de degradabilidade ‘in situ’. Para tanto foram utilizadas como ferramenta de pesquisa, silagens de milho colhidas em diferentes estágios de desenvolvimento e submetidas à diferentes níveis de compactação à ensilagem. Utilizado complementarmente à análise químico-bromatológica, o método de produção de gases ‘in vitro’ demonstrou ser uma boa ferramenta para avaliação da qualidade dos alimentos para ruminantes. Quando comparado ao método in vitro tradicional, possui as vantagens do método ‘in situ’ por estimar também a cinética da degradação ruminal do alimento. Contudo, é mais prático e, por possibilitar conhecer as taxas de degradação de diferentes frações dos alimentos, foi também mais sensível. Além disso, embora necessitando ainda adequada validação in vivo, permitiu estimar a eficiência da síntese microbiana ruminal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tendo por base o trabalho realizado por Hyde e Sherif (2010) com dados do mercado inglês, foi desenvolvido estudo com o objetivo de avaliar a capacidade do spread de curto e longo prazo da taxa de juros de funcionar como indicador do crescimento futuro do consumo no Brasil. Tanto Hyde e Sherif (2010) como outros estudos realizados em países desenvolvidos indicaram relação positiva entre o spread de juros de curto e longo prazo e o crescimento do consumo. Entretanto, as análises empíricas realizadas neste estudo para o caso brasileiro, apresentaram resultados divergentes do esperado pela teoria, indicando relação negativa entre o spread de juros e o crescimento do consumo. Em algumas análises, os estudos não indicaram relação entre as variáveis. Foram discutidas possíveis razões para estes resultados contraintuitivos, tais como tamanho reduzido da amostra, nível da taxa de juros no Brasil e liquidez do mercado futuro de juros. Adicionalmente foram analisados os modelos teóricos C-CAPM (Consumption-based asset pricing model) e o modelo de consumo habitual desenvolvido por Campbell e Cochrane (1999) com a adaptação proposta por Wachter (2006). Os resultados encontrados no modelo C-CAPM divergiram do esperado, já que a estimativa do coeficiente relativo de aversão ao risco apresentou sinal negativo. Por outro lado, os resultados obtidos no modelo de Wachter (2006) ficaram em linha com o esperado na teoria, tanto em relação à significância dos parâmetros como aos respectivos sinais e magnitudes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com o objetivo de avaliar o uso do consumo de energia elétrica como indicador socioeconômico, esta pesquisa analisa informações em dois níveis de agregação geográfica. No primeiro, sob perspectiva territorial, investiga indicadores de Renda e Consumo de Energia Elétrica agregados por áreas de ponderação (conjunto de setores censitários) do município de São Paulo e utiliza os microdados do Censo Demográfico 2000 em conjunto com a base de domicílios da AES Eletropaulo. Aplica modelos de Spatial Auto-Regression (SAR), Geographically Weighted Regression (GWR), e um modelo inédito combinado (GWR+SAR), desenvolvido neste estudo. Diversas matrizes de vizinhança foram utilizadas na avaliação da influência espacial (com padrão Centro-Periferia) das variáveis em estudo. As variáveis mostraram forte auto-correlação espacial (I de Moran superior a 58% para o Consumo de Energia Elétrica e superior a 75% para a Renda Domiciliar). As relações entre Renda e Consumo de Energia Elétrica mostraram-se muito fortes (os coeficientes de explicação da Renda atingiram valores de 0,93 a 0,98). No segundo nível, domiciliar, utiliza dados coletados na Pesquisa Anual de Satisfação do Cliente Residencial, coordenada pela Associação Brasileira dos Distribuidores de Energia Elétrica (ABRADEE), para os anos de 2004, 2006, 2007, 2008 e 2009. Foram aplicados os modelos Weighted Linear Model (WLM), GWR e SAR para os dados das pesquisas com as entrevistas alocadas no centróide e na sede dos distritos. Para o ano de 2009, foram obtidas as localizações reais dos domicílios entrevistados. Adicionalmente, foram desenvolvidos 6 algoritmos de distribuição de pontos no interior dos polígonos dos distritos. Os resultados dos modelos baseados em centróides e sedes obtiveram um coeficiente de determinação R2 em torno de 0,45 para a técnica GWR, enquanto os modelos baseados no espalhamento de pontos no interior dos polígonos dos distritos reduziram essa explicação para cerca de 0,40. Esses resultados sugerem que os algoritmos de alocação de pontos em polígonos permitem a observação de uma associação mais realística entre os construtos analisados. O uso combinado dos achados demonstra que as informações de faturamento das distribuidoras de energia elétrica têm grande potencial para apoiar decisões estratégicas. Por serem atuais, disponíveis e de atualização mensal, os indicadores socioeconômicos baseados em consumo de energia elétrica podem ser de grande utilidade como subsídio a processos de classificação, concentração e previsão da renda domiciliar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho estudamos uma equação diferencial parcial elíptica semilinear contendo uma singularidade e um termo de crescimento crítico. A existência de soluções depende da dimensão do espaço e do coeficiente da singularidade. Através da caracterização variacional e com o uso de seqüências de Palais-Smale provamos que o problema possui soluções não triviais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo objetivou demonstrar que é possível explicar os fenômenos que ocorrem na criação de frangos de corte através de redes neurais artificiais. A estatística descritiva e a diferença entre as médias das variáveis dos dados iniciais foram calculadas com o programa computacional SigmaStat® Statistical Software para Windows 2.03. Foi utilizada uma série histórica de dados de produção de frangos de corte, obtidos nos anos de 2001 e 2002, fornecidos por uma Integração Avícola do Rio Grande do Sul, contendo informações de 1.516 criadores com lotes alojados em 2001 e 889 criadores com lotes alojados em 2002. Nos arquivos estavam registrados, para cada lote, suas variáveis de produção, tais como número do lote, data do alojamento, data do abate, idade ao abate, número de pintos alojados, quilogramas de ração consumidos, quilogramas de frangos produzidos, número de aves abatidas, custo do frango produzido, mortalidade, peso médio, ganho de peso diário, índice de conversão alimentar, índice de eficiência, quilogramas líquido de frangos, quilogramas de ração inicial, quilogramas de ração crescimento, quilogramas de ração abate, além de outros. Para a construção das redes neurais artificiais foi utilizado o programa computacional NeuroShell®Predictor, desenvolvido pela Ward Systems Group. Ao programa foi identificado as variáveis escolhidas como “entradas” para o cálculo do modelo preditivo e a variável de “saída” aquela a ser predita. Para o treinamento das redes foram usados 1.000 criadores do banco de dados do alojamento de frangos de corte de 2001. Os restantes 516 criadores de 2001 e todos os 889 criadores de 2002 serviram para a validação das predições, os quais não participaram da etapa de aprendizagem, sendo totalmente desconhecidos pelo programa. Foram gerados 20 modelos na fase de treinamento das redes neurais artificiais, com distintos parâmetros de produção ou variáveis (saídas). Em todos estes modelos, as redes neurais artificiais geradas foram bem ajustadas apresentando sempre, um Coeficiente de Determinação Múltipla (R²) elevado e o menor Quadrado Médio do Erro (QME). Ressalta-se que o R² perfeito é 1 e um coeficiente muito bom deve estar próximo de 1. Todos os 20 modelos, quando validados com os 516 lotes de 2001 e com 889 de 2002, apresentaram também Coeficientes de Determinação Múltipla (R²) elevados e muito próximos de 1, além de apresentarem o Quadrado Médio do Erro (QME) e Erro Médio reduzidos. Foi comprovado não haver diferenças significativas entre as médias dos valores preditos e as médias dos valores reais, em todas as validações efetuadas nos lotes abatidos em 2001 e em 2002, quando aplicados os 20 modelos de redes neurais gerados. Como conclusão, as redes neurais artificiais foram capazes de explicar os fenômenos envolvidos com a produção industrial de frangos de corte. A técnica oferece critérios objetivos, gerados cientificamente, que embasarão as decisões dos responsáveis pela produção industrial de frangos de corte.Também permite realizar simulações e medir a contribuição de cada variável no fenômeno em estudo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A compreensão e a produção de metáforas são consideradas habilidades necessárias para o desenvolvimento inicial do léxico e para a formação de conceitos. As teorias da metáfora conceitual de Lakoff e Johnson (1980; 2002) e das metáforas verbais como aproximações semânticas de Duvignau (2003) demonstram a importância das metáforas para o desenvolvimento do pensamento e da linguagem. O objetivo deste estudo é verificar o processo de analogia envolvido na formação de conceitos verbais em crianças no período inicial de aquisição da linguagem oral, através da tarefa de denominação de ações dedeo. Utilizou-se um delineamento transversal, quasi-experimental, de grupos contrastantes. Comparando um grupo de 80 crianças de 2 a 4 anos com um grupo de 75 adultos universitários com idades entre 17 e 34 anos, constatou-se a presença da analogia nos dois grupos. Os dados foram analisados através do teste não-paramétrico U de Wilcoxon-Mann-Whitney (WMW) e do coeficiente de correlação para postos de Spearman. Os resultados foram estatisticamente diferentes para quase todas as variáveis estudadas. As crianças mostraram maior capacidade analógica nas primeiras respostas aos filmetes. Este resultado revelou que, quando não dispõem do léxico convencional para nomear uma ação, as crianças se utilizam de uma estratégia de aproximação semântica por analogia para expressar uma idéia. Os adultos, ao contrário, apresentaram um léxico altamente convencional. No entanto, quando solicitados a fornecer uma segunda alternativa de resposta aos filmetes, também apresentam aproximações semânticas por analogia. As aproximações podem ser do tipo intradomínio (sinonímia) e extradomínio (metáfora). O mesmo grupo de 80 crianças foi dividido em dois grupos com idades de 2 a 3 anos e de 3,1 a 4,4 anos, que foram comparados entre si. Os resultados mostraram diferenças estatisticamente significativas, demonstrando que as aproximações semânticas diminuem de freqüência conforme a idade avança, dando lugar a um léxico mais convencional e específico. O grupo de crianças brasileiras foi comparado com um grupo de crianças francesas da mesma faixa etária, sugerindo que há uma universalidade no uso das aproximações semânticas. Encontrou-se um percentual em torno de 35% de aproximações semânticas na faixa etária dos 2 aos 3 anos e 24% na faixa etária dos 3 aos 4 anos. A análise dos estímulos, realizada através da análise de agrupamento (cluster), demonstrou semelhanças e diferenças nos tipos de respostas aos filmetes. Os dados deste estudo são discutidos dentro da abordagem da psicolingüística cognitiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem como objetivo construir um referencial teórico que auxilie no entendimento de como a Agroenergia poderá impactar o mercado de terras no Brasil. Posteriormente, analisar os reflexos desta nova conjuntura no coeficiente de elasticidade de uso da terra, para a cultura da cana-de-açúcar, no Estado de São Paulo, após a introdução dos veículos flex-fuel no mercado brasileiro. Os aspectos relacionados ao mercado de terras, suas definições e características de uso, têm sido objeto de estudo de muitos pensadores e economistas, desde o final do século XIX. Motivado por esta afirmação, procurou-se realizar uma revisão de literatura para entender as diferentes linhas do pensamento econômico em relação às principais variáveis que compõem a formação de preço e a dinâmica do mercado de terras. Segundo a teoria neoclássica, o valor da terra está intrinsecamente associado à sua capacidade de produção. Aliado a esta característica, também é fundamental entender os atributos da terra como ativo real, seja na expectativa de ganhos de capital ou reserva de valor. Com o intuito de contribuir para esta discussão, foi proposto um fluxograma, que identificou como as variáveis deveriam se correlacionar e impactar na formação do preço das terras agrícolas. É possível afirmar que, no curto prazo, a Agroenergia impactará o valor das terras agrícolas, via preço das commodities, características de ativo real, especialmente na aposta de ganhos de capital e devido ao aumento das políticas governamentais relacionados à produção de biocombustíveis. Em relação ao coeficiente de elasticidade da área de cana-de-açúcar, em São Paulo, em relação a expectativa de preço da tonelada equivalente de ATR, para o açúcar e o etanol, observou-se que a cultura de cana-de-açúcar se tornou mais sensível às variações no preço da tonelada de ATR, expandindo a área cultivada com uma menor variação na expectativa de preço, após a introdução dos veículos flex-fuel no mercado nacional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desta dissertação é estudar a relevância dos gastos em P&D e Inovação no valor de mercado das empresas da indústria química brasileira. Este foi um tema de grande debate na reestruturação da indústria petroquímica e que resultou na criação da Braskem, a primeira petroquímica integrada brasileira. As justificativas para a referida integração vertical foram a maior capacidade para investimentos em P&D e o aumento do valor das empresas para poderem competir conforme os moldes internacionais. Por outro lado, economistas debatiam sobre o poder de monopólio da nova empresa e, consequentemente, o possível aumento de preços para o consumidor final. Desta forma, foram analisados nesse estudo os dados da indústria química brasileira de 1996 a 2008, obtidos no Anuário da Indústria Química Brasileira. Os modelos foram estimados utilizando estimadores de efeito fixos e aleatórios para um painel de dados não balanceado. A estimação por efeitos fixos foi escolhida, tanto para a estimação do modelo aditivo,quanto para o modelo multiplicativo. Acredita-se que o modelo multiplicativo, além de mais geral, seja o mais adequado para a modelagem de interesse, uma vez que ele trata as diferenças entre o porte das empresas consideradas por meio da linearização, e conseqüente suavização, do modelo. A elasticidade estimada dos gastos em P&D e inovação, com relação aos valores de mercado das empresas, indicou relacionamento positivo entre estes gastos e o aumento de valor das empresas. O coeficiente de 0,26 indica que um aumento de 1% nos gastos com P&D geram, em média, um aumento de 0,26% no valor de mercado destas empresas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho se propõe a testar a validade da hipótese da paridade câmbio-juro para o caso brasileiro e, posteriormente, a investigar a principal explicação apontada pela literatura para a falência da UIP, qual seja: a existência de um prêmio de risco cambial variante ao longo do tempo. A clássica abordagem das regressões de Fama, aplicadas para o período de livre flutuação cambial, sugere falência da hipótese em questão quando considerados contratos de NDF de doze meses sobre o real, identificando viés nos contratos futuros como estimadores da taxa de câmbio – não foi possível obter a mesma conclusão ao se trabalhar com contratos futuros de dólar de um mês negociados na BM&F. Feitas as regressões de Fama, replica-se ao caso brasileiro metodologia implementada por Clarida et. al. (2009) para os países desenvolvidos, na tentativa de capturar eventual relação entre a volatilidade e o excesso de retorno de uma estratégia de carry trade com o real. Em linha com os resultados obtidos pela experiência internacional, detecta-se correlação negativa entre a volatilidade e o excesso de retorno de tal estratégia. A partir de tal conclusão, revisitam-se as regressões de Fama para subperíodos, conforme a volatilidade. Períodos de maior volatilidade foram caracterizados por um incremento do coeficiente da regressão de Fama, novamente em um resultado alinhado àquele obtido por Clarida et. al. (2009). Esgotado o assunto circunscrito às regressões de Fama, passa-se à estimativa da série de prêmio de risco cambial propriamente dita, por meio da metodologia de Filtro de Kalman imposta à série de NDF de doze meses, a qual detectou um prêmio de risco cambial com média positiva na amostra considerada – em linha com a intuição -, mas com medidas de dispersão bastante elevadas. O estudo segue numa tentativa de modelar o prêmio de risco cambial através de um instrumental da família GARCH-M, sendo, entretanto, incapaz de prover boas estimativas para o comportamento da variável sob interesse. Inicia-se um novo capítulo com o intuito de introduzir microfundamentação ao prêmio de risco cambial, trazendo ao caso brasileiro método desenvolvido por Frankel (1982). A aderência da modelagem também foi baixa. Para terminar, apresenta-se investigação preliminar sobre a relação entre o prêmio de risco cambial e a presença de eventos considerados raros na série de PTAX, seguindo intuição levantada por Rietz (1988) e expandida por Barro (2005). A moeda brasileira carrega caráter leptocúrtico superior às demais componentes da amostra, indicando que, de fato, o prêmio de risco cambial exigido para se estar na moeda doméstica pode estar relacionado à recorrência de eventos supostamente raros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O cenário empresarial atual leva as empresas a terem atuações cada vez mais dinâmicas, buscando utilizar as informações disponíveis de modo a melhorar seu processo de decisão. Com esse objetivo, diversas organizações têm adquirido sistemas de business intelligence. O processo de seleção de sistemas é difícil, diferente do utilizado em outras aquisições empresariais e sofre influência de diversos aspectos intangíveis, o que impossibilita o uso das técnicas de análise financeira normalmente utilizadas pelas companhias para apoiar decisões de investimento. Dessa forma, pode-se dizer que a decisão de escolha de um software de business intelligence é baseada em um conjunto de fatores tanto tangíveis quanto intangíveis. Este trabalho teve como objetivo principal identificar e estabelecer um ranking dos principais fatores que influenciam a decisão de escolha entre sistemas de business intelligence, tendo como foco empresas do setor de incorporação imobiliária atuantes na grande São Paulo e como objetivo secundário procurar identificar a possível existência de aspectos determinantes para a decisão de escolha entre a lista de fatores apurados. Essa pesquisa foi realizada através de doze entrevistas com pessoas que participaram de processos de decisão de escolha de sistemas de business intelligence, sendo algumas da área de TI e outras de área de negócio, atuantes em sete empresas incorporadoras da grande São Paulo. Essa avaliação teve como resultado a identificação dos fatores mais importantes e a sua classificação hierárquica, possibilitando a apuração de um ranking composto pelos catorze fatores mais influentes na decisão de escolha e statisticamente válido segundo o coeficiente de concordância de Kendall. Desse total, apenas três puderam ser classificados como determinantes ou não determinantes; o restante não apresentou padrões de resposta estatisticamente válidos para permitir conclusões sobre esse aspecto. Por fim, após a análise dos processos de seleção utilizados pelas sete empresas dessa pesquisa, foram observadas duas fases, as quais sofrem influência de distintos fatores. Posteriormente, estudando-se essas fases em conjunto com os fatores identificados no ranking, pôde-se propor um processo de seleção visando uma possível redução de tempo e custo para a realização dessa atividade. A contribuição teórica deste trabalho está no fato de complementar as pesquisas que identificam os fatores de influência no processo de decisão de escolha de sistemas, mais especificamente de business intelligence, ao estabelecer um ranking de importância para os itens identificados e também o relacionamento de fatores de importância a fases específicas do processo de seleção identificadas neste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa teve por objetivo caracterizar o aluno matriculado no nível 4 do Curso Supletivo, em 1981, na Escola Estadual de 1o Grau Araújo Porto Alegre, do município de Porto Alegre, RS, bem como levantar possíveis fatores que estejam relacionados com a sua evasão escolar e perspectivas de estudo. A amostra constituiu-se de 88 alunos, que foram caracterizados quanto ao sexo, idade, estado civil, situação profissional, renda mensal, número, motivos e período de interrupções de escolaridade anterior, idade de ingresso no mercado de trabalho, dificuldades para freqüentar o Curso Supletivo e perspectivas de continuidade dos estudos. O instrumento de coleta de dados foi um questionário, aplicado pela própria pesquisadora. Para análise dessas variáveis, utilizou-se o tratamento estatístico descritivo, com cálculo de médias, variância e desvio-padrão. A associação entre algumas variáveis foi estudada pela aplicação do teste do qui-quadrado (X2), a nível de significância de 0,05, e pelo coeficiente de correlação de Pearson. Os resultados permitiram concluir que o nível 4 do Curso Supletivo funciona como uma nova oportunidade de estudo oferecida a alunos jovens, na faixa etária de "15 a 19 anos", solteiros, que abandonaram a escola por razoes socio- econômicas, alguns exercendo atividades de trabalho desde os 10 anos. Ao freqüentá-lo, os alunos, de modo geral, nao esperam que o certificado de 1o grau venha conseguir-lhes emprego ou promoção no emprego atual. As perspectivas de continuidade dos estudos prende-se, de imediato,ao ingresso em diversas modalidades do ensino de 2o grau e, posteriormente,a um Curso Universitário. Verificou-se, ainda, que o abandono do sistema formal é um antecedente que depois se repete na trajetória escolar dos alunos no Curso Supletivo. A incidência mínima de evasão no nível 4, do Curso Supletivo, da escola em estudo, é um fato que constatamos também nas outras escolas das quatro áreas educacionais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução Este presente estudo tem em sua introdução uma revisão de literatura sobre temas pertinentes à infecção por HIV. Começa pela epidemiologia, transmissão, diagnóstico e estágios clínicos da doença; revisa artigos sobre qualidade de vida em pessoas que vivem com HIV/AIDS (PVHAs) e finaliza com uma descrição breve do desenvolvimento do instrumento WHOQOL-HIV pela Organização Mundial da Saúde. Objetivos O objetivo principal deste estudo é (1) medir a qualidade de vida em indivíduos soropositivos brasileiros usando o World Health Organization Quality of Life instrument – HIV/AIDS module (WHOQOL-HIV) - versão com 128 itens - em uma amostra brasileira e avaliar as propriedades psicométricas deste instrumento. Os objetivos secundários são: (2) avaliar a relação entre depressão, ansiedade e qualidade de vida - dados empíricos indicam que sintomas mentais podem interferir na qualidade de vida de PVHAs - e (3) avaliar o desempenho de um dos instrumentos genéricos mais usados para avaliar qualidade de vida em PVHAs, o Medical Outcomes Study 36-Item Short-Form Health Survey (SF-36), comparando-o com outro instrumento genérico, o WHOQOL-100. Métodos Em Porto Alegre/RS, foi avaliada a qualidade de vida de pessoas que vivem com PVHIV usando o WHOQOL-HIV e o SF-36 em uma amostra selecionada por conveniência de 308 homens e mulheres infectados pelo HIV em diferentes estágios da infecção: assintomáticos (n=131), sintomáticos (n=91) e AIDS (n=86). Foram estudadas as propriedades psicométricas do WHOQOL-HIV: confiabilidade, consistência interna e as validades de construto, discriminante e concorrente. Foram medidos também os sintomas de depressão pelo Inventário de Beck para Depressão (Beck Depression Inventory, BDI) e os sintomas de ansiedade pelo Inventário de Ansiedade Traço-Estado (IDATE). As características sociodemográficas da amostra também foram analisadas. Resultados e Conclusões Os resultados deste estudo são apresentados na forma de 3 artigos. No primeiro deles, observou-se desempenho satisfatório do WHOQOL-HIV em relação às propriedades psicométricas. A confiabilidade foi medida pelo alfa de Cronbach, o qual revelou valores acima de 0,70 em 27 das 31 facetas do WHOQOL-HIV, variando entre 0,32 e 0,65 nas demais; a validade discriminante foi evidenciada com o instrumento identificando piores escores de qualidade de vida para a fase AIDS em todos os domínios; a validade concorrente foi analisada através da correlação dos domínios do WHOQOLHIV com Qualidade de Vida Geral (uma faceta do próprio WHOQOL-HIV), sendo que todos os coeficientes de correlação de Pearson foram superiores a 0,50 (p<0,01). Concluise que o WHOQOL-HIV discriminou bem a qualidade de vida entre os estágios da infecção do HIV na direção esperada e demonstrou confiabilidade e validade concorrente satisfatórias nesta amostra de brasileiros HIV-positivos. Este instrumento parece ser útil para detectar aspectos subjetivos da vida das pessoas que vivem com HIV/AIDS. No segundo artigo, o objeto de estudo foi a relação entre qualidade de vida em PVHIV e os sintomas de depressão e ansiedade. Não houve diferenças significativas quanto à presença de ansiedade entre as fases da infecção, entretanto, houve maiores escores de depressão no estágio AIDS quando comparado com os assintomáticos e sintomáticos. Na correlação do BDI com os domínios do WHOQOL-HIV, os valores dos coeficientes de Pearson foram superiores a 0,30 (magnitude moderada a muito grande, pela escala de Magnitude de Efeito), enquanto a sub-escala IDATE-Traço apresentou coeficientes de valores mais baixos (magnitudes pequena a moderada) quando correlacionada com os domínios do WHOQOL-HIV. Ajustando para estágios da doença, variáveis clínicas e variáveis sociodemográficas em um modelo de regressão linear múltipla, o BDI apresentou valores de coeficiente beta expressivamente maiores que todas as demais variáveis. Os dados deste trabalho indicam que a qualidade de vida de PVHAs é afetada por outras variáveis que não apenas os estágio da doença, principalmente a depressão. Finalmente, no terceiro artigo, é apresentada a comparação entre o WHOQOL-HIV e o SF-36. Tanto o WHOQOL-100 como o SF-36 discriminaram bem a qualidade de vida entre os estágios da infecção na direção esperada: na comparação com os estágios assintomático e sintomático, o estágio AIDS apresentou escores significativamente inferiores. Isto só não aconteceu em dois domínios do WHOQOL-HIV, Meio Ambiente e Espiritualidade, os quais discriminaram apenas entre os pacientes com AIDS e sintomáticos. Estes domínios provavelmente não tenham uma relação linear com a evolução da doença. Como estes domínios são os domínios que se distanciam mais em seu construto do conceito de “funcionamento” e “incapacitação” talvez explique a menor sensibilidade em captar diferenças entre os diferentes estágios da doença. Já os domínios do SF-36, uma medida que tem uma ênfase em todos os seus domínios no “status funcional” parece ter captado com mais sensibilidade estas diferenças. Nas correlações com BDI ambos apresentaram coeficientes de Pearson com valores de magnitude moderada a grande; já com a sub-escala IDATE-Traço as correlações dos dois instrumentos foram de magnitudes menores, variando de pequena a moderada. Na correlação direta dos dois instrumentos entre si os oito domínios do SF-36 correlacionaram-se mais fortemente com três domínios do WHOQOL-100 (Físico, Psicológico e Nível de Independência). Constatou-se neste estudo que o SF-36 confirma sua característica de avaliar “status funcional”, enquanto o WHOQOL-100 demonstra ser um instrumento de qualidade de vida com construtos mais abrangentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho descreve os resultados da pesquisa que tem por objetivo a determinação de parâmetros térmicos de um corpo sólido: o valor médio da emissividade total e o coeficiente médio de transferência de calor por convecção. Foi desenvolvido o modelo matemático do processo de resfriamento de um corpo forjado. Foram examinados os métodos da determinação dos parâmetros mencionados, que estão descritos na literatura, e também foram analisadas as possibilidades de aproveitá-los no processo de forjamento. No meio de métodos analisados, o método do Instituto IBF (Institut für Bildsame Formgebung, IBF, RWTH, Aachen, Alemanha), foi considerado o mais apropriado tendo a metodologia deste trabalho seguindo a mesma sistemática. Aproveitando a metodologia do IBF para a determinação dos parâmetros térmicos mencionados e o modelo matemático do resfriamento de um corpo forjado, foi desenvolvida uma nova técnica para determinar o valor médio da emissividade total e o coeficiente médio de transferência de calor por convecção de um corpo sólido. Os materiais analisados foram o aço ABNT 1045 e a liga de alumínio AA 6061. Foram feitas as comparações dos resultados obtidos pela técnica desenvolvida com o método do IBF.