1000 resultados para Erro refrativo


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho é verificar se o ajustamento das condições de paridade de juros por expectativa do mercado (paridade descoberta) e por prêmios de risco (paridades coberta e descoberta) leva à validação da relação de não-arbitragem subjacente, ou pelo menos a resultados econométricos mais próximos de sua validação. Para isso, combinamos taxas de retornos de instrumentos de renda fixa domésticos e norte-americanos e aplicamos o arcabouço econométrico de séries de tempo. Como primeiro passo de investigação, aplicamos a paridade de juros (descoberta e coberta) na sua forma tradicional. No passo seguinte aplicamos os testes econométricos às condições de paridade ajustadas por um prêmio de risco. No caso da PDJ, não obtivemos resultados satisfatórios, mesmo ajustando pelos prêmios de risco. Esse ajuste propiciou uma mudança nos sinais dos coeficientes na direção correta, mas a magnitude do coeficiente da desvalorização cambial efetiva passou a destoar bastante da magnitude das outras séries. Apesar de termos obtido a validade da PCJ na forma tradicional, não esperaríamos este resultado, pois isso implicaria que o prêmio de risco país seria nulo para este período. Ajustando a PCJ pelo prêmio de risco de não-pagamento passa-se a não obter co integração entre as séries, ou seja, o prêmio de risco de não-pagamento teria um comportamento independente do prêmio futuro e do diferencial de juros. As possíveis causas para a não obtenção dos resultados esperados são: intervalo amostraI menor que 3 anos, erro de medida dos dados de survey ou tentativa do Banco Central de controlar a taxa de câmbio nominal e as taxas de juros domésticas simultaneamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese discute a dívida cambial doméstica do setor público brasileiro entre 1995 e 2004. Argumenta-se que a origem dessa dívida não está relacionada à busca de uma composição ótima da dívida pública, mas sim a objetivos de política cambial. O caso dos tesobonos mexicanos é analisado como precedente para o caso brasileiro, ressaltando-se três peculiaridades: o prazo médio dos títulos cambiais; a concentração da dívida pública mexicana no mercado internacional; e a importância dos não-residentes entre os detentores. O caso brasileiro foi apresentado a partir de uma perspectiva histórica, desde a introdução das ORTN com cláusula de correção cambial, no fim dos anos sessenta. Foi realizada uma tentativa de reconstrução da trajetória da dívida mobiliária cambial até o período recente. Levando-se em consideração que os objetivos desse instrumento estão concentrados na política cambial, foi feita uma breve resenha da literatura sobre os determinantes da taxa de câmbio, começando por Meese e Rogoff (1983), que introduziram a idéia de que um passeio aleatório é melhor previsor do câmbio que os modelos baseados em fundamentos macroeconômicos. É feita também uma breve revisão da literatura sobre intervenção no câmbio, que é farta em trabalhos para países desenvolvidos e escassa no que se refere aos países emergentes. A colocação de títulos indexados ao câmbio é tratada como intervenção, avaliando-se seus efeitos sobre a taxa de câmbio e sua volatilidade. No exercício econométrico, foi construída uma base de dados diários de endividamento cambial doméstico, através da agregação dos leilões primários de títulos e de swaps emitidos entre 1991 e 2004. O impacto da dívida cambial sobre o câmbio foi estimado, para os períodos de câmbio administrado (1995-1999) e de câmbio flutuante (1999-2004), através de um Modelo Vetorial de Correção de Erro (VECM). As elasticidades estimadas apresentaram uma possível ocorrência de simultaneidade, que foi detectada através de um teste de causalidade de Granger. Esse teste revelou uma causação bi-direcional de tipo feedback. As estimações estão sujeitas a heterocedasticidade, que foi corrigida através da estimação de um GARCH. Este revelou que a elasticidade do câmbio em relação à intervenção com dívida cambial é de -0,17 no câmbio administrado e de -2,15 no câmbio flutuante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A deficiência da semialdeído succínico desidrogenase, ou acidúria γ-hidroxibutírica, é um erro inato do metabolismo do ácido γ-aminobutírico. Bioquimicamente, é caracterizada pelo acúmulo de elevadas concentrações do ácido γ-hidroxibutírico nos tecidos, líquido cefalorraquidiano, sangue e urina dos pacientes. As manifestações clínicas descritas nesses pacientes são muito variadas e inespecíficas, mas observa-se que os principais sintomas e sinais clínicos são neurológicos. Entretanto, os mecanismos responsáveis pela disfunção neurológica desses pacientes são pouco conhecidos. Neste trabalho, o efeito in vitro do ácido γ-hidroxibutírico foi investigado sobre a quimiluminescência, as substâncias reativas ao ácido tiobarbitúrico (TBA-RS), o potencial antioxidante total (TRAP), a reatividade antioxidante total (TAR) e as atividades das enzimas antioxidantes superóxido dismutase (SOD), catalase (CAT) e glutationa peroxidase (GPX) em homogeneizados de córtex cerebral de ratos jovens com o intuito de esclarecer, ao menos em parte, a etiopatogenia dos sintomas neurológicos característicos dessa doença. O ácido γ-hidroxibutírico aumentou significativamente a quimiluminescência e os níveis de TBA-RS, enquanto que o TRAP e o TAR foram marcadamente reduzidos. No entanto, as atividades das enzimas antioxidantes não foram alteradas pelo ácido γ-hidroxibutírico. Esses resultados indicam que o ácido γ-hidroxibutírico estimula a lipoperoxidação e reduz as defesas antioxidantes não-enzimáticas, sugerindo a participação do estresse oxidativo na neuropatologia da deficiência da semialdeído succínico desidrogenase. Porém, esses achados devem ser confirmados em pacientes afetados por essa doença.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação trata da questão dos preços administrados no Brasil sob a argumentação de que os mesmos apresentam uma persistência mais acentuada do que os demais preços da economia. Para alcançar este objetivo foram verificados alguns testes de persistência inflacionária. Em seguida, utilizou-se a metodologia dos Vetores de Correção de Erro (VEC) para estudar a relação dos preços administrados com as variáveis mais importantes da economia brasileira, tais como, produto, taxa de câmbio, preços livres e taxa de juros Selic. Por fim, utilizou-se do instrumental de Mankiw e Reis (2003) para verificar qual o índice de preços seria mais adequado para manter a atividade econômica brasileira mais próxima de seu nível potencial. Os resultados encontrados foram os seguintes: 1) observou-se persistência do IPCA representada pelos preços administrados; 2) a autoridade monetária responde a choques dos preços monitorados com maior veemência do que a choques nos preços livres; 3) o exercício de Mankiw e Reis (2003) apontou que a porcentagem dos preços monitorados deve ser menor que a atual do IPCA em um índice de preços estabilizador. Desta forma, mostra-se que a presença dos preços administrados dificulta pronunciadamente a condução de política monetária no Brasil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A doença de Lesch-Nyhan é um erro inato do metabolismo das purinas caracterizado pela deficiência na enzima hipoxantina- guanina fosforibosiltransferase. O bloqueio dessa reação resulta no acúmulo tecidual de hipoxantina, xantina e ácido úrico. A doença caracteriza-se por hiperuricemia, variado grau de retardo mental e motor, espasticidade e auto-mutilação. No sistema nervoso central, a Na+, K+ - ATPase é responsável pela manutenção da homeostase dos íons Na+ e K+, regulando o volume celular, a excitabilidade neuronal, o transporte de neurotransmissores e outras moléculas. Evidências na literatura demonstram que a redução na atividade da Na+, K+ - ATPase está relacionada com diversas doenças neurodegenerativas, tais como isquemia cerebral e doenças de Parkinson e de Alzheimer. No presente estudo, investigamos o efeito in vitro da hipoxantina, xantina e ácido úrico sobre a atividade da Na+, K+- ATPase em membrana plasmática sináptica de estriado de ratos. Estudamos, também, a cinética de inibição causada pela hipoxantina e de interação entre hipoxantina, xantina e ácido úrico. Nossos resultados demonstram que hipoxantina, xantina e ácido úrico inibem significativamente a atividade da Na+, K+- ATPase. O estudo dos mecanismos de inibição da atividade enzimática causados pela hipoxantina demonstrou um efeito inibitório não competitivo com o substrato ATP. Além disso, o estudo de interação cinética entre hipoxantina, xantina e ácido úrico sugere que esses compostos atuem em um mesmo sítio de ligação na enzima. Verificamos, também, o efeito da preincubação de homogeneizado de estriado de ratos na presença de hipoxantina (10 µM) sobre a atividade da Na+, K+- ATPase de membrana plasmática sináptica com a adição ou não de antioxidantes (glutationa e trolox), bem como alguns parâmetros de estresse oxidativo denominados TBARS (medida de lipoperoxidação) e TRAP (capacidade antioxidante tecidual não-enzimática) no intuito de verificar a participação do estresse oxidativo nos mecanismos de inibição enzimática provocados pela hipoxantina. Os resultados monstraram que a hipoxantina inibe significativamente a atividade da Na+, K+- ATPase. Adicionalmente, nossos resultados demonstraram que glutationa, mas não o trolox, na concentração de 1 mM, foi capaz de prevenir a inibição enzimática causada pela hipoxantina. Nossos resultados também mostraram que a hipoxantina, na mesma concentração, aumentou TBARS e diminuiu TRAP que essa substância induz o estresse oxidativo. É possível que a inibição na atividade da Na+, K+- ATPase possa estar envolvida nos mecanismos pelos quais as oxipurinas são neurotóxicas. Acreditamos que nossos resultados possam contribuir, pelo menos em parte, na compreensão da disfunção neurológica encontrada em pacientes portadores da doença de Lesch-Nyhan.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A teoria da paridade do poder de compra (PPP) foi formalizada há quase um século por Gustav Cassel como um paradigma para explicar o comportamento das taxas de câmbio. Sua comprovação empírica é historicamente controversa, mas aos poucos, a literatura parece convergir para o consenso de que a PPP é válida, mas apenas no longo prazo. Ainda que a PPP não sirva para prever o comportamento da taxa de câmbio no curto prazo, seu uso é disseminado na macroeconomia aplicada como restrição de longo prazo para a taxa de câmbio. Como lembram Dornbusch e Krugman, “Sob a pele de qualquer economista internacional, está enraizada uma fé em alguma variante da teoria da PPP”. O presente estudo se propõe a avaliar as evidências para a PPP a partir de mais de cem anos de história das maiores economias da América Latina. Na literatura, a maior parte dos estudos da PPP no longo prazo utiliza dados de países desenvolvidos (em parte, por causa da disponibilidade dos dados). Taylor (2002) incluiu Argentina, Brasil e México na sua amostra de 20 países desenvolvidos e em desenvolvimento. Há também alguns estudos que tratam especificamente de um ou outro país da região (por exemplo, Délano 1998, que testa a PPP com dados do Chile de 1835 a 1995). Seguindo os métodos usuais descritos na literatura – testes de raiz unitária para se avaliar a estacionariedade da taxa de câmbio real,de aplicação de mecanismos de correção de erro e testes de co-integração – chega-se à conclusão que a evidência obtida a partir dos dados da América Latina é favorável à tese de existência da PPP no longo prazo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho foi explorar o tema de estresse financeiro e recuperação no ambiente corporativo através de uma revisão bibliográfica e estudos de casos, fazendo um paralelo entre os conceitos e conclusões levantadas por autores que estudaram o tema e casos reais vivenciados por empresas do setor de telecomunicações no Brasil. Muitos autores apontaram os fatores externos (cenário macroeconômico, mudanças na estrutura da indústria, falta de liquidez no mercado financeiro, etc.) e os fatores internos (erro dos administradores) dentre as principais causas que levam uma empresa a apurar estresse financeiro, enfatizando que, os fatores internos são determinantes na maioria dos fracassos corporativos. Os autores também mencionaram importantes estratégias de sucesso a serem implementadas dentro de um processo de recuperação, destacando as estratégias voltadas para o aumento de eficiência (redução de custos e despesas, venda de ativos, etc.) e estratégias voltadas para o empreendorismo (re-posicionamento de mercado, entrada em novos produtos). O trabalho desenvolveu estudos de casos de empresas do setor de telecomunicações do Brasil no período após a privatização, que vivenciaram estresse financeiro e implementaram um processo de recuperação. Dentro deste critério, os casos de estresse financeiro da Embratel e da BCP foram os objetos de análise e contribuíram para interessantes conclusões sobre as causas que levaram as empresas de telecomunicações a enfrentarem estresse financeiro, as estratégias de recuperação implementadas, os aprendizados dos casos analisados e como os conceitos e conclusões descritos na revisão bibliográfica se aplicaram nos casos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação visa identificar o papel dos fundamentos econômicos e demográficos na determinação do boom imobiliário dos EUA nos anos 2000. Afinal, qual seria o equilíbrio do mercado? Qual seria uma estimativa do ajuste em termos de sua intensidade e duração? A conclusão é que houve uma conjunção de fatores atuando simultaneamente na geração do boom de construções e altas de preços dos imóveis e que houve, a partir de 2003, um considerável desvio das variáveis de seu equilíbrio de longo prazo. A metodologia aplicada baseou-se na construção na análise se cointegração e modelos de correção de erro (VEC) para identificar a relação de longo prazo e a dinâmica de ajuste a eventuais os desvios dela.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No Brasil, o regime de metas para inflação foi instituído em julho de 1999, pelo Banco Central do Brasil, sendo o principal objetivo ancorar as expectativas de mercado. Este regime levou a uma queda da inflação e também a uma convergência das expectativas. Quando comparadas com a inflação ocorrida, as expectativas do mercado melhoraram nos últimos anos, porém, continuam com um erro ainda expressivo para o prazo de 6 meses. Em linhas gerais, a contribuição desta dissertação é de mostrar que existem modelos simples que conseguem prever o comportamento da inflação em médio prazo (6 meses). Um modelo ARIMA do IPCA obtém projeções acumuladas de inflação melhores que as projeções do mercado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo do trabalho é estudar a relação entre “surpresas” na política monetária, reveladas pelas mudanças não-esperadas na taxa de juros de curto prazo (Selic) e a estrutura a termo da curva de juros para o caso brasileiro. Será testado o efeito de movimentos não-esperados da política monetária sobre a estrutura a termo de juros, utilizando como medida de surpresa da política monetária o erro de previsão do mercado para a taxa de juros estabelecida pela autoridade monetária. O trabalho está estruturado em 4 capítulos, além desta introdução. A introdução consiste no detalhamento da importância do problema e como o trabalho está organizado. O capítulo 1 compreende a revisão da literatura em duas partes: a parte 1 realiza uma síntese de alguns trabalhos sobre o tema e a parte subseqüente apresenta alguns resultados empíricos já conhecidos. No capítulo 2 será estudado o caso brasileiro, e definida a metodologia e hipóteses analisadas. O terceiro capítulo consiste nas estimações e resultados. Por último, o capítulo 4 disserta a respeito das conclusões obtidas, limitações do trabalho e questões para futuras pesquisas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O estudo foi feito através de séries históricas de dados de um incubatório pertencente a uma integração avícola do Rio Grande do Sul, durante os anos de 1999 a 2003, com os quais foram feitas análises do tipo observacional analítico e transversal. Primeiramente usou-se os registros de 5 linhagens de frangos utilizadas pela empresa no transcorrer do período de 23 de fevereiro de 1995 a 25 de janeiro de 2002. As linhagens foram identificadas da seguinte forma: COBB, HIGH YIELD, MPK, ROSS308, e X. Esses 81 lotes analisados foram estudados através dos seus respectivos registros que continham: o número inicial de fêmeas, número inicial de machos, ração total/cabeça, ração/cabeça/inicial/recria, ração/cabeça/inicial/postura, ovos postos, ração p/ovo posto, pintos nascidos, percentagem viabilidade postura fêmea, percentagem viabilidade postura machos. O método aqui proposto provou ser capaz de classificar as linhagens a partir das entradas escolhidas. Na linhagem que apresentava uma grande quantidade de amostras a classificação foi muito precisa. Nas demais, com menor número de dados, a classificação foi efetuada, e, como era de se esperar, os resultados foram menos consistentes. Com o mesmo banco de dados dos lotes fechados, realizou-se a segunda etapa da dissertação. Nela, procedeu-se o treinamento das redes neurais artificiais onde foram utilizadas as seguintes variáveis de saída: ovos incubáveis, percentagem de ovos incubáveis, ovos incubados, percentagem de ovos incubados, pintos nascidos e pintos aproveitáveis. Os resultados apresentaram R2 oscilando entre 0,93 e 0,99 e o erro médio e o quadrado médio do erro ajustados, demonstrando a utilidade das redes para explicar as variáveis de saída. Na terceira e última etapa da dissertação, destinada à validação dos modelos, foram usados quatro arquivos distintos denominados da seguinte forma: INPESO (3.110 linhas de registros de pesos dos reprodutores), ININFO (56.018 linhas de registros com as informações diárias do ocorrido nas granjas de reprodução até o incubatório), INOVOS (35.000 linhas de registros com informações sobre os ovos processados), INNASC: 43.828 linhas de registros com informações sobre os nascimentos. O modelo gerado para o ano de 1999 foi capaz de predizer corretamente os resultados deste mesmo ano e dos anos de 2000, 2001, 2002 e 2003. O mesmo procedimento foi repetido criando modelo com os registros do ano em questão e validando-o com os registros dos anos subseqüentes. Em todas as ocasiões foram obtidos bons resultados traduzidos por um alto valor no R2. Concluindo, os fenômenos próprios do incubatório puderam ser explicados através das redes neurais artificiais. A técnica, seguindo a mesma tendência das dissertações que anteriormente já haviam demonstrado que esta metodologia pode ser utilizada para o gerenciamento de reprodutoras pesadas e de frangos de corte, pode realizar simulações, predições e medir a contribuição de cada variável no fenômeno observado, tornando-se uma poderosa ferramenta para o gerenciamento do incubatório e num suporte cientificamente alicerçado para a tomada de decisão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Foram utilizados cento sessenta e dois animais, avaliados em dois anos para determinar a acurácia do ultra-som em estimar a espessura de gordura subcutânea (EGSC) e a área do músculo longissimus (AOLC) no sítio anatômico entre a 12ª e 13ª costelas. Dentro de vinte quatro horas antes do abate, foi medida por ultra-som a espessura de gordura subcutânea (EGSUS) e a área de músculo longissimus (AOLUS) utilizando uma eco câmera da Marca Aloka SSD 500V equipado com um transdutor de 17,2cm e 3,5MHz, no primeiro ano e de um Pie Medical Falcon 100 com transdutor de 18 cm e 3,5MHz no segundo ano. Os coeficientes de correlação simples entre as características medidas por ultra-som e a espessura de gordura subcutânea e área do músculo longissimus da carcaça foram de 0,95 e 0,96, respectivamente, considerando todos os animais. Correlações para EGSUS e EGSC foram iguais (0,95) entre os anos, enquanto as relações entre AOLUS e AOLC foram estreitamente relacionadas, de 0,96 no ano 1 e de 0,97, no ano 2. Diferenças entre medidas ultra-sônicas e da carcaça foram expressas em base atual (EDIFF e ADIFF) e em base absoluta (EDEV e ADEV). As médias da EDIFF e ADIFF indicaram que o ultra-som superestima a EGSC em 0,16mm e subestima a AOLC em 0,26cm² considerando ambos os anos. As médias globais da EDEV e ADEV, que são indicações da taxa média de erro, foram 0,34mm e 1,28cm², respectivamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese é uma coleção de quatro artigos em economia monetária escritos sob a supervisão do Professor Rubens Penha Cysne. O primeiro desses artigos calcula o viés presente em medidas do custo de bem-estar da inflação devido a não se levar em conta o potencial substitutivo de moedas que rendem juros, como depósitos bancários.[1] O segundo se concentra na questão teórica de se comparar os escopos dos tradicionais modelos money-in-the-utility-function e shopping-time através do estudo das propriedades das curvas de demanda que eles geram.[2] O terceiro desses trabalhos revisita um artigo clássico de Stanley Fischer sobre a correlação entre a taxa de crescimento da oferta monetária e a taxa de acumulação de capital no caminho de transição.[3] Finalmente, o quarto diz respeito à posição relativa de cada uma de seis medidas do custo de bem-estar da inflação (uma das quais é nova) em relação às outras cinco, e uma estimativa do erro relativo máximo em que o pesquisador pode incorrer devido a sua escolha de empregar uma dessas medidas qualquer vis-à-vis as outras.[4] This thesis collects four papers on monetary economics written under the supervision of Professor Rubens Penha Cysne. The first of these papers assesses the bias occuring in welfare-cost-of-inflation measures due to failing to take into consideration the substitution potential of interest-bearing monies such as bank deposits.[1] The second one tackles the theoretical issue of comparing the generality of the money-in-the-utility-function- and the shopping-time models by studying the properties of the demand curves they generate.[2] The third of these works revisits a classic paper by Stanley Fischer on the correlation between the growth rate of money supply and the rate of capital accumulation on the transition path.[3] Finally, the fourth one concerns the relative standing of each one of six measures of the welfare cost of inflation (one of which is new) with respect to the other five, and an estimate of the maximum relative error one can incur by choosing to employ a particular welfare measure in place of the others.[4] [1] Cysne, R.P., Turchick, D., 2010. Welfare costs of inflation when interest-bearing deposits are disregarded: A calculation of the bias. Journal of Economic Dynamics and Control 34, 1015-1030. [2] Cysne, R.P., Turchick, D., 2009. On the integrability of money-demand functions by the Sidrauski and the shopping-time models. Journal of Banking & Finance 33, 1555-1562. [3] Cysne, R.P., Turchick, D., 2010. Money supply and capital accumulation on the transition path revisited. Journal of Money, Credit and Banking 42, 1173-1184. [4] Cysne, R.P., Turchick, D., 2011. An ordering of measures of the welfare cost of inflation in economies with interest-bearing deposits. Macroeconomic Dynamics, forthcoming.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introdução: Obesidade pode ser definida como uma condição de acúmulo anormal ou excessivo de gordura no tecido adiposo que acarreta prejuízo à saúde. Em países desenvolvidos, a obesidade é considerada um problema de saúde pública, e pela Organização Mundial da Saúde, uma epidemia global. Esta patologia predispõe ao desenvolvimento de outras doenças como: diabetes, hipertensão arterial, dislipidemias, doenças cardiovasculares, câncer, distúrbios respiratórios (entre eles apnéia do sono), colilitíase, esteatose hepática e afecções osteoarticulares. Em adolescentes e crianças, a obesidade contribui com mais de um terço das consultas endocrinológicas pediátricas (5). Dados americanos referentes ao excesso de peso durante a adolescência indicam que jovens com índice de massa corporal (IMC) elevado apresentam maior risco de desenvolver hipertensão, dislipidemia, intolerância à glicose e doenças crônicas como, por exemplo, doença cardiovascular. Nos Estados Unidos, por exemplo, cerca de 70 bilhões são gastos anualmente em obesidade, enquanto que doenças como diabetes e doença coronariana consomem apenas 50 bilhões de dólares. Em outros países, os gastos com obesidade representam uma proporção expressiva dos orçamentos destinados à saúde: 4% na Holanda, 3,5% em Portugal, 2,5% na Nova Zelândia, 2% na Austrália, 2,4% no Canadá e 1,5% na França. Tratando-se exclusivamente de crianças e adolescentes, em 1979-1981, o sistema americano de saúde gastou, em média, 35 milhões de dólares com tratamento da obesidade e, em 1997-1999, os custos chegaram a 127 milhões.A elevação dos custos está diretamente relacionada ao aumento da prevalência de obesidade, ocorrida nos últimos anos. No Brasil, segundo dados do Plano de Orçamento Familiar, havia 38 milhões de brasileiros com excesso de peso e 10,3 milhões com obesidade em 2003. Objetivos: estimar a prevalência de excesso de peso em adolescentes em uma amostra representativa da Cidade de Porto Alegre. Além de calcular taxas de prevalência de obesidade, sobrepeso e adiposidade utilizando diferentes pontos de corte internacionais para circunferência da cintura, razão cintura quadril, razão cintura-altura, percentual de gordura corporal e índice de massa corporal. Material e métodos: este estudo transversal de base populacional incluiu adolescentes, entre 12 a 19 anos, que residiam em Porto Alegre. Os adolescentes foram selecionados através de amostragem aleatória de base populacional. A coleta dos dados se deu através de entrevista domiciliar utilizando questionário padronizado, com questões sobre: idade, sexo, escolaridade, consumo de bebidas alcoólicas, tabagismo, freqüência e duração de prática de hábitos sedentários. Aferiu-se peso (kg), altura (cm), e circunferência da cintura (CC) em duplicata. Razão cintura-altura (RCA), razão cintura-quadril (RCQ), percentual de gordura corporal (%GC) e IMC [quilos (kg)/altura (m)2] também foram calculados. A análise dos dados incluiu as distribuições de percentis para cada variável antropométrica, regressão linear para calcular coeficiente de determinação, e análise de variância para calcular médias e desvios-padrões para idade e sexo. As taxas de prevalência e intervalos de confiança de 95% (IC 95%) foram calculadas utilizando-se padronização direta. Cálculo de tamanho da amostra determinou que 183 adolescentes deveriam ser estudados para que, com intervalo de confiança de 95%, fossem detectadas prevalências de 22%, com erro de 4%. Resultados: Cento e dois meninos e 99 meninas foram avaliados nesta análise interina, correspondendo a 25% da amostra global. A distribuição por idade e sexo foi comparável a do IBGE para adolescentes de Porto Alegre. As distribuições dos percentis 85 e 90 para IMC, CC, RCQ caracterizaram pontos de corte que incluíam valores anormais para indivíduos adultos. Um total de 20,9% dos meninos e 22,1% das meninas apresentavam sobrepeso e 7,9% e 4,6% obesidade, respectivamente. O IMC apresentou correlação mais forte com CC e RCA (r ≥0,80) do que com RCQ (r=0,33); e associou-se significativamenye com %GC (P,0,001). Detectaram-se associações estatisticamente significativas de CC, RCQ e %GC com sexo, e RCQ com idade e sexo, mas não houve interação entre sexo e idade. Conclusão: esta amostra de adolescentes permitiu detectar prevalências de sobrepeso e obesidade que estão entre as descritas em outros países e mesmo em outras partes do Brasil. Os percentis 80 a 85 dos índices antropométricos podem capturar um risco mais elevado para apresentar outros fatores de risco cardiovasculares. Unitermos: prevalência, adolescente, obesidade, sobrepeso, circunferência da cintura, razão cintura-quadril, razão cintura-altura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo objetivou demonstrar que é possível explicar os fenômenos que ocorrem na criação de frangos de corte através de redes neurais artificiais. A estatística descritiva e a diferença entre as médias das variáveis dos dados iniciais foram calculadas com o programa computacional SigmaStat® Statistical Software para Windows 2.03. Foi utilizada uma série histórica de dados de produção de frangos de corte, obtidos nos anos de 2001 e 2002, fornecidos por uma Integração Avícola do Rio Grande do Sul, contendo informações de 1.516 criadores com lotes alojados em 2001 e 889 criadores com lotes alojados em 2002. Nos arquivos estavam registrados, para cada lote, suas variáveis de produção, tais como número do lote, data do alojamento, data do abate, idade ao abate, número de pintos alojados, quilogramas de ração consumidos, quilogramas de frangos produzidos, número de aves abatidas, custo do frango produzido, mortalidade, peso médio, ganho de peso diário, índice de conversão alimentar, índice de eficiência, quilogramas líquido de frangos, quilogramas de ração inicial, quilogramas de ração crescimento, quilogramas de ração abate, além de outros. Para a construção das redes neurais artificiais foi utilizado o programa computacional NeuroShell®Predictor, desenvolvido pela Ward Systems Group. Ao programa foi identificado as variáveis escolhidas como “entradas” para o cálculo do modelo preditivo e a variável de “saída” aquela a ser predita. Para o treinamento das redes foram usados 1.000 criadores do banco de dados do alojamento de frangos de corte de 2001. Os restantes 516 criadores de 2001 e todos os 889 criadores de 2002 serviram para a validação das predições, os quais não participaram da etapa de aprendizagem, sendo totalmente desconhecidos pelo programa. Foram gerados 20 modelos na fase de treinamento das redes neurais artificiais, com distintos parâmetros de produção ou variáveis (saídas). Em todos estes modelos, as redes neurais artificiais geradas foram bem ajustadas apresentando sempre, um Coeficiente de Determinação Múltipla (R²) elevado e o menor Quadrado Médio do Erro (QME). Ressalta-se que o R² perfeito é 1 e um coeficiente muito bom deve estar próximo de 1. Todos os 20 modelos, quando validados com os 516 lotes de 2001 e com 889 de 2002, apresentaram também Coeficientes de Determinação Múltipla (R²) elevados e muito próximos de 1, além de apresentarem o Quadrado Médio do Erro (QME) e Erro Médio reduzidos. Foi comprovado não haver diferenças significativas entre as médias dos valores preditos e as médias dos valores reais, em todas as validações efetuadas nos lotes abatidos em 2001 e em 2002, quando aplicados os 20 modelos de redes neurais gerados. Como conclusão, as redes neurais artificiais foram capazes de explicar os fenômenos envolvidos com a produção industrial de frangos de corte. A técnica oferece critérios objetivos, gerados cientificamente, que embasarão as decisões dos responsáveis pela produção industrial de frangos de corte.Também permite realizar simulações e medir a contribuição de cada variável no fenômeno em estudo.