958 resultados para Coeficiente de Gini
Resumo:
Foram realizadas duas séries de 4 experimentos para testar a inclusão de aminoácidos essenciais (aa) na dieta de cães em crescimento visando o estabelecimento da melhor relação entre os aa: lisina (lys), metionina+cisteína (met+cys), treonina (thr) e triptofano (trp). Foram utilizados 10 cães da raça Pit Bull, sendo 5 machos e 5 fêmeas, com idade entre 50 e 170 dias que foram submetidos a um delineamento em crossover. Os 4 aa foram testados individualmente em 5 níveis de inclusão, isto é, em cada experimento variou somente o nível de inclusão de um aminoácido. O parâmetro utilizado para determinar o melhor nível de inclusão de cada aa foi o pico de uréia plasmática (UP) que ocorre 3 horas após a refeição. Dessa forma, os aa foram testados em uma sequência a iniciar pela lys. O tratamento que apresentou o menor pico de uréia (independente do nível de significância) foi utilizado para a formulação dos 5 tratamentos incluíndo um novo aa e assim sucessivamente até todos serem testados. Um último experimento de metabolismo foi realizado para testar a relação de aa encontrada (met+cys/lys = 0,67; thr:lys = 0,62 e trp:lys = 0,20) frente a outra dieta formulada com balanço diferente de aa (met+cys/lys = 0,57; thr:lys = 0,60 e trp:lys = 0,15). Ainda neste mesmo experimento foram dosadas UP para comparar o balanço nitrogenado a partir do pico da uréia. Notou-se no decorrer dos experimentos efeito marcante sobre o fator “dia” e sobre o fator “cão”. Não foram observadas diferenças significativas entre os tratamentos exceto quando o triptofano foi testado e permitiu traçar uma regresão expressa por: UP = 64,405 – 220,03*(trp:lys) + 486,61*(trp:lys)2 ) e P=0,03, que fornece a estimativa da melhor relação trp:lys em 0,22. No experimento de metabolismo não foi observada nenhuma diferença significativa sobre consumo, coeficiente de digestibilidade da matéria seca, da energia bruta, da gordura bruta, da proteína bruta, energia digestível da matéria seca, da matéria natural e tampouco nos valores de proteína retida em % ou em g e valor biológico da proteína bruta. No entanto, os animais apresentaram menor pico UP quando receberam o tratamento que possuiu o balanço de aa encontrado nestes experimentos. A metodologia empregada mostrou-se eficiente para demonstrar a melhor relação entre trp:lys, no entanto, o efeito de “dia” pode ter interferindo nos resultados finais. Este efeito pode ser atribuído aos altos níveis de proteína e aa nas dietas, cujo possível excesso acumulou-se sequencialmente ao longo dos dias de coleta.
Resumo:
Introdução: Os colesteatomas podem ocorrer tanto em crianças como em adultos, porém nas crianças pareceriam ter um crescimento mais agressivo e extenso. A atividade das colagenases poderia explicar este perfil. Objetivo: Comparar, histologicamente, a perimatriz de colesteatomas adquiridos de crianças com os de adultos. Métodos: Foram estudados 74 colesteatomas, 35 pediátricos, coletados em cirurgias otológicas, fixados em formol 10% e processados pelas técnicas histológicas habituais. Foram preparadas uma lâmina em Hematoxilina-Eosina (HE) e outra em Picrossírios, de cada amostra, e analisadas ao microscópio óptico. A leitura foi “cega”, efetuada por meio de imagens digitais, no software ImagePro Plus. A análise estatística foi realizada através dos coeficientes de correlação de Pearson e Spearman e dos testes t e χ2, sendo considerados como estatisticamente significativos os valores de P<0,05. Resultados: Dos 74 colesteatomas coletados, 17 - sete do grupo pediátrico e dez do adulto - foram excluídos por não terem presença de matriz e perimatriz nas lâminas processadas. A média±dp da idade, no grupo pediátrico, foi de 12,85±3,63; e no adulto, 33,69±13,10. Na análise histológica, o número médio de camadas de células epiteliais da matriz foi igual a oito, nos dois grupos, 60% das amostras apresentavam inflamação, de moderada a acentuada; quanto à fibrose, nas crianças, 71,4% e nos adultos, 62,1%; o granuloma apareceu em 10,7% e 13,8%, respectivamente; a presença de epitélio cubóide simples delimitando a perimatriz foi encontrada em 29% dos infantis e 14% dos adultos, entretanto, nenhuma dessas variáveis apresentou diferença estatisticamente significativas quando comparadas por faixa etária (P>0,05). Quanto à espessura da perimatriz, no grupo pediátrico, as medianas (intervalo interquartil) dos parâmetros foram: média=79 (41 a 259); mediana=77 (40 a 265); soma=1.588 (831 a 5.185); delta=82 (44 a 248); mínimo=53 (16 a 165) e máximo=127 (64 a 398); já no grupo de adultos foram: média=83 (26 a 174); mediana=68 (30 a 181); soma=1.801 (558 a 3.867); delta=92 (45 a 190); mínimo=27 (12 a 100) e máximo=136 (53 a 280). O coeficiente de Spearman mostrou correlação inversa, moderada, entre a espessura da perimatriz e a idade; também houve correlação, forte, entre a espessura da perimatriz e o número de camadas da matriz, porém não houve correlação entre essa com a idade. Conclusão: Histologicamente, a perimatriz de colesteatomas adquiridos, de crianças e adultos, vista à microscopia óptica, apresenta-se como um tecido conjuntivo denso de espessura variável (intra e interpacientes), que, por vezes, exibe infiltrado inflamatório linfoplasmocitário e/ou tecido de granulação e reação de corpo estranho; em alguns casos é delimitada em plano profundo por epitélio cubóide simples. Há correlação inversa, de fraca a moderada, entre o tamanho da perimatriz, medida em micrômetros e a idade do paciente na data da cirurgia. O grau de inflamação da perimatriz apresenta correlação, de moderada a forte, com a espessura da perimatriz. As espessuras da matriz e da perimatriz estão fortemente correlacionadas.
Resumo:
Informações sobre as condições de crescimento e expectativa de produção de culturas são importantes para a economia brasileira, visto que permitem um planejamento adequado da economia agrícola, contornando problemas de escassez e administrando com vantagens o excesso de produtos. Neste contexto, as tecnologias de sensoriamento remoto e geoprocessamento permitem a obtenção de informações precisas, em tempo hábil e com baixo custo. O presente trabalho teve como principal objetivo gerar subsídios para o aprimoramento do sistema atual de acompanhamento e previsão da safra de soja no Brasil, incorporando técnicas de sensoriamento remoto e geoprocessamento. Como objetivos específicos, buscou-se avaliar a acurácia da classificação digital de imagens LANDSAT para estimativa da área cultivada com soja e verificar a influência de aspectos regionais, tais como condições climáticas, de ocupação e de manejo, sobre a evolução temporal do índice de vegetação por diferença normalizada (NDVI), obtidos de imagens NOAA, visando o monitoramento da cultura da soja em projetos de previsão de safras. A estimativa de área cultivada com soja foi realizada através da classificação digital não supervisionada. Como verdade terrestre foram selecionadas 24 lavouras de soja, individualizadas na imagem com diferentes tamanhos e de diferentes regiões de uso e cobertura do solo, as quais foram quantificadas usando GPS de precisão topográfica. A verificação da acurácia da estimativa foi feita através de análise de regressão linear, sendo testada a significância do coeficiente de determinação. O monitoramento da cultura da soja foi realizada usando imagens decendiais de máximo NDVI. Nestas imagens, foram selecionadas 18 janelas amostrais, sendo extraídos os valores de NDVI e expressos na forma de perfis espectrais. Os resultados mostraram que a estimativa de área das lavouras cultivadas com soja, obtida através do processo de classificação digital não supervisionada em imagens LANDSAT, foi acurada e precisa para pequenas, médias e grandes lavouras, mostrando-se ser uma técnica eficiente para ser utilizada em projetos de previsão de safras de soja na região estudada. A evolução temporal do NDVI, obtida de imagens NOAA, apresentou sensibilidade quanto às diferenças de uso e cobertura do solo, demonstrando que as escalas espacial e temporal das imagens NOAA são adequadas para o acompanhamento em nível regional da evolução temporal da biomassa. Existe, ainda, potencial de uso de imagens NDVI para inferir sobre a área cultivada com soja em projetos de previsão de safras em escalas regionais, desde que a cultura seja predominante no pixel.
Resumo:
Introdução: Obesidade pode ser definida como uma condição de acúmulo anormal ou excessivo de gordura no tecido adiposo que acarreta prejuízo à saúde. Em países desenvolvidos, a obesidade é considerada um problema de saúde pública, e pela Organização Mundial da Saúde, uma epidemia global. Esta patologia predispõe ao desenvolvimento de outras doenças como: diabetes, hipertensão arterial, dislipidemias, doenças cardiovasculares, câncer, distúrbios respiratórios (entre eles apnéia do sono), colilitíase, esteatose hepática e afecções osteoarticulares. Em adolescentes e crianças, a obesidade contribui com mais de um terço das consultas endocrinológicas pediátricas (5). Dados americanos referentes ao excesso de peso durante a adolescência indicam que jovens com índice de massa corporal (IMC) elevado apresentam maior risco de desenvolver hipertensão, dislipidemia, intolerância à glicose e doenças crônicas como, por exemplo, doença cardiovascular. Nos Estados Unidos, por exemplo, cerca de 70 bilhões são gastos anualmente em obesidade, enquanto que doenças como diabetes e doença coronariana consomem apenas 50 bilhões de dólares. Em outros países, os gastos com obesidade representam uma proporção expressiva dos orçamentos destinados à saúde: 4% na Holanda, 3,5% em Portugal, 2,5% na Nova Zelândia, 2% na Austrália, 2,4% no Canadá e 1,5% na França. Tratando-se exclusivamente de crianças e adolescentes, em 1979-1981, o sistema americano de saúde gastou, em média, 35 milhões de dólares com tratamento da obesidade e, em 1997-1999, os custos chegaram a 127 milhões.A elevação dos custos está diretamente relacionada ao aumento da prevalência de obesidade, ocorrida nos últimos anos. No Brasil, segundo dados do Plano de Orçamento Familiar, havia 38 milhões de brasileiros com excesso de peso e 10,3 milhões com obesidade em 2003. Objetivos: estimar a prevalência de excesso de peso em adolescentes em uma amostra representativa da Cidade de Porto Alegre. Além de calcular taxas de prevalência de obesidade, sobrepeso e adiposidade utilizando diferentes pontos de corte internacionais para circunferência da cintura, razão cintura quadril, razão cintura-altura, percentual de gordura corporal e índice de massa corporal. Material e métodos: este estudo transversal de base populacional incluiu adolescentes, entre 12 a 19 anos, que residiam em Porto Alegre. Os adolescentes foram selecionados através de amostragem aleatória de base populacional. A coleta dos dados se deu através de entrevista domiciliar utilizando questionário padronizado, com questões sobre: idade, sexo, escolaridade, consumo de bebidas alcoólicas, tabagismo, freqüência e duração de prática de hábitos sedentários. Aferiu-se peso (kg), altura (cm), e circunferência da cintura (CC) em duplicata. Razão cintura-altura (RCA), razão cintura-quadril (RCQ), percentual de gordura corporal (%GC) e IMC [quilos (kg)/altura (m)2] também foram calculados. A análise dos dados incluiu as distribuições de percentis para cada variável antropométrica, regressão linear para calcular coeficiente de determinação, e análise de variância para calcular médias e desvios-padrões para idade e sexo. As taxas de prevalência e intervalos de confiança de 95% (IC 95%) foram calculadas utilizando-se padronização direta. Cálculo de tamanho da amostra determinou que 183 adolescentes deveriam ser estudados para que, com intervalo de confiança de 95%, fossem detectadas prevalências de 22%, com erro de 4%. Resultados: Cento e dois meninos e 99 meninas foram avaliados nesta análise interina, correspondendo a 25% da amostra global. A distribuição por idade e sexo foi comparável a do IBGE para adolescentes de Porto Alegre. As distribuições dos percentis 85 e 90 para IMC, CC, RCQ caracterizaram pontos de corte que incluíam valores anormais para indivíduos adultos. Um total de 20,9% dos meninos e 22,1% das meninas apresentavam sobrepeso e 7,9% e 4,6% obesidade, respectivamente. O IMC apresentou correlação mais forte com CC e RCA (r ≥0,80) do que com RCQ (r=0,33); e associou-se significativamenye com %GC (P,0,001). Detectaram-se associações estatisticamente significativas de CC, RCQ e %GC com sexo, e RCQ com idade e sexo, mas não houve interação entre sexo e idade. Conclusão: esta amostra de adolescentes permitiu detectar prevalências de sobrepeso e obesidade que estão entre as descritas em outros países e mesmo em outras partes do Brasil. Os percentis 80 a 85 dos índices antropométricos podem capturar um risco mais elevado para apresentar outros fatores de risco cardiovasculares. Unitermos: prevalência, adolescente, obesidade, sobrepeso, circunferência da cintura, razão cintura-quadril, razão cintura-altura.
Resumo:
Tendo por base o trabalho realizado por Hyde e Sherif (2010) com dados do mercado inglês, foi desenvolvido estudo com o objetivo de avaliar a capacidade do spread de curto e longo prazo da taxa de juros de funcionar como indicador do crescimento futuro do consumo no Brasil. Tanto Hyde e Sherif (2010) como outros estudos realizados em países desenvolvidos indicaram relação positiva entre o spread de juros de curto e longo prazo e o crescimento do consumo. Entretanto, as análises empíricas realizadas neste estudo para o caso brasileiro, apresentaram resultados divergentes do esperado pela teoria, indicando relação negativa entre o spread de juros e o crescimento do consumo. Em algumas análises, os estudos não indicaram relação entre as variáveis. Foram discutidas possíveis razões para estes resultados contraintuitivos, tais como tamanho reduzido da amostra, nível da taxa de juros no Brasil e liquidez do mercado futuro de juros. Adicionalmente foram analisados os modelos teóricos C-CAPM (Consumption-based asset pricing model) e o modelo de consumo habitual desenvolvido por Campbell e Cochrane (1999) com a adaptação proposta por Wachter (2006). Os resultados encontrados no modelo C-CAPM divergiram do esperado, já que a estimativa do coeficiente relativo de aversão ao risco apresentou sinal negativo. Por outro lado, os resultados obtidos no modelo de Wachter (2006) ficaram em linha com o esperado na teoria, tanto em relação à significância dos parâmetros como aos respectivos sinais e magnitudes.
Resumo:
Com o objetivo de avaliar o uso do consumo de energia elétrica como indicador socioeconômico, esta pesquisa analisa informações em dois níveis de agregação geográfica. No primeiro, sob perspectiva territorial, investiga indicadores de Renda e Consumo de Energia Elétrica agregados por áreas de ponderação (conjunto de setores censitários) do município de São Paulo e utiliza os microdados do Censo Demográfico 2000 em conjunto com a base de domicílios da AES Eletropaulo. Aplica modelos de Spatial Auto-Regression (SAR), Geographically Weighted Regression (GWR), e um modelo inédito combinado (GWR+SAR), desenvolvido neste estudo. Diversas matrizes de vizinhança foram utilizadas na avaliação da influência espacial (com padrão Centro-Periferia) das variáveis em estudo. As variáveis mostraram forte auto-correlação espacial (I de Moran superior a 58% para o Consumo de Energia Elétrica e superior a 75% para a Renda Domiciliar). As relações entre Renda e Consumo de Energia Elétrica mostraram-se muito fortes (os coeficientes de explicação da Renda atingiram valores de 0,93 a 0,98). No segundo nível, domiciliar, utiliza dados coletados na Pesquisa Anual de Satisfação do Cliente Residencial, coordenada pela Associação Brasileira dos Distribuidores de Energia Elétrica (ABRADEE), para os anos de 2004, 2006, 2007, 2008 e 2009. Foram aplicados os modelos Weighted Linear Model (WLM), GWR e SAR para os dados das pesquisas com as entrevistas alocadas no centróide e na sede dos distritos. Para o ano de 2009, foram obtidas as localizações reais dos domicílios entrevistados. Adicionalmente, foram desenvolvidos 6 algoritmos de distribuição de pontos no interior dos polígonos dos distritos. Os resultados dos modelos baseados em centróides e sedes obtiveram um coeficiente de determinação R2 em torno de 0,45 para a técnica GWR, enquanto os modelos baseados no espalhamento de pontos no interior dos polígonos dos distritos reduziram essa explicação para cerca de 0,40. Esses resultados sugerem que os algoritmos de alocação de pontos em polígonos permitem a observação de uma associação mais realística entre os construtos analisados. O uso combinado dos achados demonstra que as informações de faturamento das distribuidoras de energia elétrica têm grande potencial para apoiar decisões estratégicas. Por serem atuais, disponíveis e de atualização mensal, os indicadores socioeconômicos baseados em consumo de energia elétrica podem ser de grande utilidade como subsídio a processos de classificação, concentração e previsão da renda domiciliar.
Resumo:
Com o crescimento populacional, a indústria avícola tem se desenvolvido rapidamente, devido à demanda de alimentos. O seu produto possui grande aceitação no mercado mundial, em função do seu valor nutricional e por não existirem restrições culturais. Entretanto, este alimento gera grande quantidade de resíduos, dentre eles, as penas. Elas são compostas principalmente por queratina, substância de difícil degradação. Neste trabalho foram utilizadas duas bactérias queratinolíticas de resíduos da indústria avícola, para se avaliar a capacidade de degradação das mesmas. Foram produzidos hidrolisados de penas por proteólise bacteriana com ambos microrganismos: Bacillus cereus (KR16) e Chryseobacterium sp. (KR6). O crescimento das bactérias em diferentes quantidades de penas, e o fator de degradação das penas comprovaram que em até 5 % obteve-se degradação para KR6, enquanto, para a KR16, obteve-se degradação até 1%. A digestibilidade in vitro dos hidrolisados foi avaliada. Observou-se que o hidrolisado da bactéria KR6 apresentou maior digestibilidade, enquanto o de farinha de penas apresentou o menor valor. A composição de aminoácidos dos hidrolisados foi determinada, sendo observadas baixas concentrações de metionina, histidina e lisina. A partir da digestibilidade in vitro e da composição de aminoácidos, foram calculados o escore de aminoácidos corrigidos (PDCAAs), o coeficiente de eficiência protéica (PER) e o valor biológico (BV). O tratamento das penas com KR6 resultou em hidrolisados com os valores mais altos de PDCAAs, PER e BV, sugerindo que este microrganismo produz hidrolisados com propriedades nutricionais superiores aos demais.
Resumo:
Neste trabalho estudamos uma equação diferencial parcial elíptica semilinear contendo uma singularidade e um termo de crescimento crítico. A existência de soluções depende da dimensão do espaço e do coeficiente da singularidade. Através da caracterização variacional e com o uso de seqüências de Palais-Smale provamos que o problema possui soluções não triviais.
Resumo:
Este estudo objetivou demonstrar que é possível explicar os fenômenos que ocorrem na criação de frangos de corte através de redes neurais artificiais. A estatística descritiva e a diferença entre as médias das variáveis dos dados iniciais foram calculadas com o programa computacional SigmaStat® Statistical Software para Windows 2.03. Foi utilizada uma série histórica de dados de produção de frangos de corte, obtidos nos anos de 2001 e 2002, fornecidos por uma Integração Avícola do Rio Grande do Sul, contendo informações de 1.516 criadores com lotes alojados em 2001 e 889 criadores com lotes alojados em 2002. Nos arquivos estavam registrados, para cada lote, suas variáveis de produção, tais como número do lote, data do alojamento, data do abate, idade ao abate, número de pintos alojados, quilogramas de ração consumidos, quilogramas de frangos produzidos, número de aves abatidas, custo do frango produzido, mortalidade, peso médio, ganho de peso diário, índice de conversão alimentar, índice de eficiência, quilogramas líquido de frangos, quilogramas de ração inicial, quilogramas de ração crescimento, quilogramas de ração abate, além de outros. Para a construção das redes neurais artificiais foi utilizado o programa computacional NeuroShell®Predictor, desenvolvido pela Ward Systems Group. Ao programa foi identificado as variáveis escolhidas como “entradas” para o cálculo do modelo preditivo e a variável de “saída” aquela a ser predita. Para o treinamento das redes foram usados 1.000 criadores do banco de dados do alojamento de frangos de corte de 2001. Os restantes 516 criadores de 2001 e todos os 889 criadores de 2002 serviram para a validação das predições, os quais não participaram da etapa de aprendizagem, sendo totalmente desconhecidos pelo programa. Foram gerados 20 modelos na fase de treinamento das redes neurais artificiais, com distintos parâmetros de produção ou variáveis (saídas). Em todos estes modelos, as redes neurais artificiais geradas foram bem ajustadas apresentando sempre, um Coeficiente de Determinação Múltipla (R²) elevado e o menor Quadrado Médio do Erro (QME). Ressalta-se que o R² perfeito é 1 e um coeficiente muito bom deve estar próximo de 1. Todos os 20 modelos, quando validados com os 516 lotes de 2001 e com 889 de 2002, apresentaram também Coeficientes de Determinação Múltipla (R²) elevados e muito próximos de 1, além de apresentarem o Quadrado Médio do Erro (QME) e Erro Médio reduzidos. Foi comprovado não haver diferenças significativas entre as médias dos valores preditos e as médias dos valores reais, em todas as validações efetuadas nos lotes abatidos em 2001 e em 2002, quando aplicados os 20 modelos de redes neurais gerados. Como conclusão, as redes neurais artificiais foram capazes de explicar os fenômenos envolvidos com a produção industrial de frangos de corte. A técnica oferece critérios objetivos, gerados cientificamente, que embasarão as decisões dos responsáveis pela produção industrial de frangos de corte.Também permite realizar simulações e medir a contribuição de cada variável no fenômeno em estudo.
Resumo:
A compreensão e a produção de metáforas são consideradas habilidades necessárias para o desenvolvimento inicial do léxico e para a formação de conceitos. As teorias da metáfora conceitual de Lakoff e Johnson (1980; 2002) e das metáforas verbais como aproximações semânticas de Duvignau (2003) demonstram a importância das metáforas para o desenvolvimento do pensamento e da linguagem. O objetivo deste estudo é verificar o processo de analogia envolvido na formação de conceitos verbais em crianças no período inicial de aquisição da linguagem oral, através da tarefa de denominação de ações de vídeo. Utilizou-se um delineamento transversal, quasi-experimental, de grupos contrastantes. Comparando um grupo de 80 crianças de 2 a 4 anos com um grupo de 75 adultos universitários com idades entre 17 e 34 anos, constatou-se a presença da analogia nos dois grupos. Os dados foram analisados através do teste não-paramétrico U de Wilcoxon-Mann-Whitney (WMW) e do coeficiente de correlação para postos de Spearman. Os resultados foram estatisticamente diferentes para quase todas as variáveis estudadas. As crianças mostraram maior capacidade analógica nas primeiras respostas aos filmetes. Este resultado revelou que, quando não dispõem do léxico convencional para nomear uma ação, as crianças se utilizam de uma estratégia de aproximação semântica por analogia para expressar uma idéia. Os adultos, ao contrário, apresentaram um léxico altamente convencional. No entanto, quando solicitados a fornecer uma segunda alternativa de resposta aos filmetes, também apresentam aproximações semânticas por analogia. As aproximações podem ser do tipo intradomínio (sinonímia) e extradomínio (metáfora). O mesmo grupo de 80 crianças foi dividido em dois grupos com idades de 2 a 3 anos e de 3,1 a 4,4 anos, que foram comparados entre si. Os resultados mostraram diferenças estatisticamente significativas, demonstrando que as aproximações semânticas diminuem de freqüência conforme a idade avança, dando lugar a um léxico mais convencional e específico. O grupo de crianças brasileiras foi comparado com um grupo de crianças francesas da mesma faixa etária, sugerindo que há uma universalidade no uso das aproximações semânticas. Encontrou-se um percentual em torno de 35% de aproximações semânticas na faixa etária dos 2 aos 3 anos e 24% na faixa etária dos 3 aos 4 anos. A análise dos estímulos, realizada através da análise de agrupamento (cluster), demonstrou semelhanças e diferenças nos tipos de respostas aos filmetes. Os dados deste estudo são discutidos dentro da abordagem da psicolingüística cognitiva.
Resumo:
Este trabalho tem como objetivo construir um referencial teórico que auxilie no entendimento de como a Agroenergia poderá impactar o mercado de terras no Brasil. Posteriormente, analisar os reflexos desta nova conjuntura no coeficiente de elasticidade de uso da terra, para a cultura da cana-de-açúcar, no Estado de São Paulo, após a introdução dos veículos flex-fuel no mercado brasileiro. Os aspectos relacionados ao mercado de terras, suas definições e características de uso, têm sido objeto de estudo de muitos pensadores e economistas, desde o final do século XIX. Motivado por esta afirmação, procurou-se realizar uma revisão de literatura para entender as diferentes linhas do pensamento econômico em relação às principais variáveis que compõem a formação de preço e a dinâmica do mercado de terras. Segundo a teoria neoclássica, o valor da terra está intrinsecamente associado à sua capacidade de produção. Aliado a esta característica, também é fundamental entender os atributos da terra como ativo real, seja na expectativa de ganhos de capital ou reserva de valor. Com o intuito de contribuir para esta discussão, foi proposto um fluxograma, que identificou como as variáveis deveriam se correlacionar e impactar na formação do preço das terras agrícolas. É possível afirmar que, no curto prazo, a Agroenergia impactará o valor das terras agrícolas, via preço das commodities, características de ativo real, especialmente na aposta de ganhos de capital e devido ao aumento das políticas governamentais relacionados à produção de biocombustíveis. Em relação ao coeficiente de elasticidade da área de cana-de-açúcar, em São Paulo, em relação a expectativa de preço da tonelada equivalente de ATR, para o açúcar e o etanol, observou-se que a cultura de cana-de-açúcar se tornou mais sensível às variações no preço da tonelada de ATR, expandindo a área cultivada com uma menor variação na expectativa de preço, após a introdução dos veículos flex-fuel no mercado nacional.
Resumo:
O objetivo desta dissertação é estudar a relevância dos gastos em P&D e Inovação no valor de mercado das empresas da indústria química brasileira. Este foi um tema de grande debate na reestruturação da indústria petroquímica e que resultou na criação da Braskem, a primeira petroquímica integrada brasileira. As justificativas para a referida integração vertical foram a maior capacidade para investimentos em P&D e o aumento do valor das empresas para poderem competir conforme os moldes internacionais. Por outro lado, economistas debatiam sobre o poder de monopólio da nova empresa e, consequentemente, o possível aumento de preços para o consumidor final. Desta forma, foram analisados nesse estudo os dados da indústria química brasileira de 1996 a 2008, obtidos no Anuário da Indústria Química Brasileira. Os modelos foram estimados utilizando estimadores de efeito fixos e aleatórios para um painel de dados não balanceado. A estimação por efeitos fixos foi escolhida, tanto para a estimação do modelo aditivo,quanto para o modelo multiplicativo. Acredita-se que o modelo multiplicativo, além de mais geral, seja o mais adequado para a modelagem de interesse, uma vez que ele trata as diferenças entre o porte das empresas consideradas por meio da linearização, e conseqüente suavização, do modelo. A elasticidade estimada dos gastos em P&D e inovação, com relação aos valores de mercado das empresas, indicou relacionamento positivo entre estes gastos e o aumento de valor das empresas. O coeficiente de 0,26 indica que um aumento de 1% nos gastos com P&D geram, em média, um aumento de 0,26% no valor de mercado destas empresas.
Resumo:
Este trabalho se propõe a testar a validade da hipótese da paridade câmbio-juro para o caso brasileiro e, posteriormente, a investigar a principal explicação apontada pela literatura para a falência da UIP, qual seja: a existência de um prêmio de risco cambial variante ao longo do tempo. A clássica abordagem das regressões de Fama, aplicadas para o período de livre flutuação cambial, sugere falência da hipótese em questão quando considerados contratos de NDF de doze meses sobre o real, identificando viés nos contratos futuros como estimadores da taxa de câmbio – não foi possível obter a mesma conclusão ao se trabalhar com contratos futuros de dólar de um mês negociados na BM&F. Feitas as regressões de Fama, replica-se ao caso brasileiro metodologia implementada por Clarida et. al. (2009) para os países desenvolvidos, na tentativa de capturar eventual relação entre a volatilidade e o excesso de retorno de uma estratégia de carry trade com o real. Em linha com os resultados obtidos pela experiência internacional, detecta-se correlação negativa entre a volatilidade e o excesso de retorno de tal estratégia. A partir de tal conclusão, revisitam-se as regressões de Fama para subperíodos, conforme a volatilidade. Períodos de maior volatilidade foram caracterizados por um incremento do coeficiente da regressão de Fama, novamente em um resultado alinhado àquele obtido por Clarida et. al. (2009). Esgotado o assunto circunscrito às regressões de Fama, passa-se à estimativa da série de prêmio de risco cambial propriamente dita, por meio da metodologia de Filtro de Kalman imposta à série de NDF de doze meses, a qual detectou um prêmio de risco cambial com média positiva na amostra considerada – em linha com a intuição -, mas com medidas de dispersão bastante elevadas. O estudo segue numa tentativa de modelar o prêmio de risco cambial através de um instrumental da família GARCH-M, sendo, entretanto, incapaz de prover boas estimativas para o comportamento da variável sob interesse. Inicia-se um novo capítulo com o intuito de introduzir microfundamentação ao prêmio de risco cambial, trazendo ao caso brasileiro método desenvolvido por Frankel (1982). A aderência da modelagem também foi baixa. Para terminar, apresenta-se investigação preliminar sobre a relação entre o prêmio de risco cambial e a presença de eventos considerados raros na série de PTAX, seguindo intuição levantada por Rietz (1988) e expandida por Barro (2005). A moeda brasileira carrega caráter leptocúrtico superior às demais componentes da amostra, indicando que, de fato, o prêmio de risco cambial exigido para se estar na moeda doméstica pode estar relacionado à recorrência de eventos supostamente raros.
Resumo:
O cenário empresarial atual leva as empresas a terem atuações cada vez mais dinâmicas, buscando utilizar as informações disponíveis de modo a melhorar seu processo de decisão. Com esse objetivo, diversas organizações têm adquirido sistemas de business intelligence. O processo de seleção de sistemas é difícil, diferente do utilizado em outras aquisições empresariais e sofre influência de diversos aspectos intangíveis, o que impossibilita o uso das técnicas de análise financeira normalmente utilizadas pelas companhias para apoiar decisões de investimento. Dessa forma, pode-se dizer que a decisão de escolha de um software de business intelligence é baseada em um conjunto de fatores tanto tangíveis quanto intangíveis. Este trabalho teve como objetivo principal identificar e estabelecer um ranking dos principais fatores que influenciam a decisão de escolha entre sistemas de business intelligence, tendo como foco empresas do setor de incorporação imobiliária atuantes na grande São Paulo e como objetivo secundário procurar identificar a possível existência de aspectos determinantes para a decisão de escolha entre a lista de fatores apurados. Essa pesquisa foi realizada através de doze entrevistas com pessoas que participaram de processos de decisão de escolha de sistemas de business intelligence, sendo algumas da área de TI e outras de área de negócio, atuantes em sete empresas incorporadoras da grande São Paulo. Essa avaliação teve como resultado a identificação dos fatores mais importantes e a sua classificação hierárquica, possibilitando a apuração de um ranking composto pelos catorze fatores mais influentes na decisão de escolha e statisticamente válido segundo o coeficiente de concordância de Kendall. Desse total, apenas três puderam ser classificados como determinantes ou não determinantes; o restante não apresentou padrões de resposta estatisticamente válidos para permitir conclusões sobre esse aspecto. Por fim, após a análise dos processos de seleção utilizados pelas sete empresas dessa pesquisa, foram observadas duas fases, as quais sofrem influência de distintos fatores. Posteriormente, estudando-se essas fases em conjunto com os fatores identificados no ranking, pôde-se propor um processo de seleção visando uma possível redução de tempo e custo para a realização dessa atividade. A contribuição teórica deste trabalho está no fato de complementar as pesquisas que identificam os fatores de influência no processo de decisão de escolha de sistemas, mais especificamente de business intelligence, ao estabelecer um ranking de importância para os itens identificados e também o relacionamento de fatores de importância a fases específicas do processo de seleção identificadas neste trabalho.
Resumo:
Esta pesquisa teve por objetivo caracterizar o aluno matriculado no nível 4 do Curso Supletivo, em 1981, na Escola Estadual de 1o Grau Araújo Porto Alegre, do município de Porto Alegre, RS, bem como levantar possíveis fatores que estejam relacionados com a sua evasão escolar e perspectivas de estudo. A amostra constituiu-se de 88 alunos, que foram caracterizados quanto ao sexo, idade, estado civil, situação profissional, renda mensal, número, motivos e período de interrupções de escolaridade anterior, idade de ingresso no mercado de trabalho, dificuldades para freqüentar o Curso Supletivo e perspectivas de continuidade dos estudos. O instrumento de coleta de dados foi um questionário, aplicado pela própria pesquisadora. Para análise dessas variáveis, utilizou-se o tratamento estatístico descritivo, com cálculo de médias, variância e desvio-padrão. A associação entre algumas variáveis foi estudada pela aplicação do teste do qui-quadrado (X2), a nível de significância de 0,05, e pelo coeficiente de correlação de Pearson. Os resultados permitiram concluir que o nível 4 do Curso Supletivo funciona como uma nova oportunidade de estudo oferecida a alunos jovens, na faixa etária de "15 a 19 anos", solteiros, que abandonaram a escola por razoes socio- econômicas, alguns exercendo atividades de trabalho desde os 10 anos. Ao freqüentá-lo, os alunos, de modo geral, nao esperam que o certificado de 1o grau venha conseguir-lhes emprego ou promoção no emprego atual. As perspectivas de continuidade dos estudos prende-se, de imediato,ao ingresso em diversas modalidades do ensino de 2o grau e, posteriormente,a um Curso Universitário. Verificou-se, ainda, que o abandono do sistema formal é um antecedente que depois se repete na trajetória escolar dos alunos no Curso Supletivo. A incidência mínima de evasão no nível 4, do Curso Supletivo, da escola em estudo, é um fato que constatamos também nas outras escolas das quatro áreas educacionais.