929 resultados para Predição


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O padrão H.264 foi desenvolvido pelo JVT, que foi formado a partir de uma união entre os especialistas do VCEG da ITU-T e do MPEG da ISO/IEC. O padrão H.264 atingiu seu objetivo de alcançar as mais elevadas taxas de processamento dentre todos os padrões existentes, mas à custa de um grande aumento na complexidade computacional. Este aumento de complexidade impede, pelo menos na tecnologia atual, a utilização de codecs H.264 implementados em software, quando se deseja a decodi cação de vídeos de alta de nição em tempo real. Essa dissertação propõe uma solução arquitetural de hardware, denominada MoCHA, para compensação de movimento do decodi cador de vídeo de alta de nição, segundo o padrão H.264/AVC. A MoCHA está dividida em três blocos principais, a predição dos vetores de movimento, o acesso à memória e o processamento de amostras. A utilização de uma cache para explorar a redundância dos dados nos acessos à mem ória, em conjunto com melhorias propostas, alcançou economia de acessos à memória superior a 60%, para os casos testados. Quando uma penalidade de um ciclo por troca de linha de memória é imposta, a economia de ciclos de acesso supera os 75%. No processamento de amostras, a arquitetura realiza o processamento dos dois blocos, que dão origem ao bloco bi-preditivo, de forma serial. Dessa forma, são economizados recursos de hardware, uma vez que a duplicação da estrutura de processamento não é requerida. A arquitetura foi validada a partir de simulações, utilizando entradas extraídas de seqüências codi cadas. Os dados extraídos, salvos em arquivos, serviam de entrada para a simulação. Os resultados da simulação foram salvos em arquivos e comparados com os resultados extraídos. O processador de amostras do compensador de movimento foi prototipado na placa XUP Virtex-II Pro. A placa possui um FPGA VP30 da família Virtex-II PRO da Xilinx. O processador PowerPC 405, presente no dispositivo, foi usado para implementar um test bench para validar a operação do processador de amostras mapeado para o FPGA. O compensador de movimento para o decodi cador de vídeo H.264 foi descrito em VHDL, num total de 30 arquivos e cerca de 13.500 linhas de código. A descrição foi sintetizada pelo sintetizador Syplify Pro da Symplicity para o dispositivo XC2VP30-7 da Xilinx, consumindo 8.465 slices, 5.671 registradores, 10.835 LUTs, 21 blocos de memó- ria interna e 12 multiplicadores. A latência mínima para processar um macrobloco é de 233 ciclos, enquanto a máxima é de 590, sem considerar misses na cache. A freqüência máxima de operação foi de 100,5 MHz. A arquitetura projetada é capaz de processar, no pior caso, 36,7 quadros HDTV de 1080 por 1920, inteiramente bi-preditivos, por segundo. Para quadros do tipo P, que não utilizam a bi-predição, a capacidade de processamento sobe para 64,3 quadros por segundo. A arquitetura apresentada para o processamento de quadros bi-preditivos e a hierarquia de memória são, até o momento, inéditas na literatura. Os trabalhos relativos a decodi cadores completos não apresentam a solução para esse processamento. Os resultados apresentados tornam a MoCHA uma solução arquitetural capaz de fazer parte de um decodi cador para vídeos de alta definição.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Modelos de predição baseados em estimações não-paramétricas continuam em desenvolvimento e têm permeado a comunidade quantitativa. Sua principal característica é que não consideram a priori distribuições de probabilidade conhecidas, mas permitem que os dados passados sirvam de base para a construção das próprias distribuições. Implementamos para o mercado brasileiro os estimadores agrupados não-paramétricos de Sam e Jiang (2009) para as funções de drift e de difusão do processo estocástico da taxa de juros instantânea, por meio do uso de séries de taxas de juros de diferentes maturidades fornecidas pelos contratos futuros de depósitos interfinanceiros de um dia (DI1). Os estimadores foram construídos sob a perspectiva da estimação por núcleos (kernels), que requer para a sua otimização um formato específico da função-núcleo. Neste trabalho, foi usado o núcleo de Epanechnikov, e um parâmetro de suavizamento (largura de banda), o qual é fundamental para encontrar a função de densidade de probabilidade ótima que forneça a estimação mais eficiente em termos do MISE (Mean Integrated Squared Error - Erro Quadrado Integrado Médio) no momento de testar o modelo com o tradicional método de validação cruzada de k-dobras. Ressalvas são feitas quando as séries não possuem os tamanhos adequados, mas a quebra estrutural do processo de difusão da taxa de juros brasileira, a partir do ano 2006, obriga à redução do tamanho das séries ao custo de reduzir o poder preditivo do modelo. A quebra estrutural representa um processo de amadurecimento do mercado brasileiro que provoca em grande medida o desempenho insatisfatório do estimador proposto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na Argentina e no Uruguai, diversas tentativas de negociação de contratos futuros e de índice de preços de carne bovina foram frustradas ao longo dos anos, tendo os derivativos lançados fracassado, em um curto espaço de tempo, por falta de liquidez. Esse cenário, somado a outras particularidades do mercado físico da carne bovina, torna o gerenciamento de risco de preços um problema para os agentes econômicos que atuam nessa cadeia produtiva. Nesse contexto, emergiu a seguinte questão: a proteção cruzada com contratos futuros de boi gordo brasileiro da Bolsa de Valores, Mercadorias e Futuros de São Paulo (BM&FBovespa) é efetiva para a administração do risco de preços dos novilhos de corte no mercado a vista argentino e uruguaio? Com a finalidade de responder a essa questão, propôs-se a verificar se é possível mitigar o risco da volatilidade de preços no mercado a vista dos novilhos de corte argentinos e uruguaios por meio do cross hedging no mercado futuro do boi gordo brasileiro na BM&FBovespa. Para tanto, foram utilizados modelos estáticos e dinâmicos de estimação da razão de cross hedge ótima e efetividade em mitigação do risco. Os resultados do teste de hipóteses de mitigação do risco permitiram assegurar que são fortes as evidências de efetividade do mercado futuro do boi gordo brasileiro na proteção contra o risco de preços do mercado a vista dos novilhos argentinos e uruguaios. Complementarmente, verificou-se a hipótese de eficiência do mercado futuro. Os resultados apresentaram evidências de um relacionamento estocástico comum no longo prazo entre os preços a vista e futuros, e de eficiência na predição dos preços no curto prazo, o que sugere que os contratos futuros de boi gordo brasileiro da BM&FBovespa permitem uma trava adequada de cotação-preço para os novilhos argentinos e uruguaios no mercado a vista.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Apesar da centralidade e relevância do conceito de Vantagem Competitiva em Administração de Empresas, o tema ainda é fonte de debate quanto ao seu significado, mensuração, manifestação e relação com o desempenho financeiro. Este trabalho contribui com esse debate avançando em vários pontos conceituais, metodológicos e empíricos. Por meio de uma sequência de três artigos, o conceito de vantagem competitiva é revisitado propondo-se novas dimensões, sua existência é quantificada usando um modelo Bayesiano, seu dinamismo caracterizado e, por fim, as novas dimensões propostas são testadas empiricamente. O primeiro artigo contribui teoricamente com a discussão do conceito de vantagem competitiva e sua relação com o desempenho financeiro a partir de uma abordagem de criação de valor econômico. Este artigo traz uma contribuição metodológica ao elaborar um modelo hierárquico Bayesiano bidimensional para medir a existência da vantagem competitiva a partir do desempenho financeiro e uma contribuição conceitual ao propor duas novas dimensões do conceito (momentum e consistência). O segundo artigo aplica o modelo proposto no primeiro a uma base de dados de empresas norte americana, cobrindo o período de 1995 a 2011. Esse artigo traz contribuições empíricas ao quantificar a existência e a dinâmica da vantagem competitiva oferecendo uma topografia do tema no mundo real. Os resultados indicam que a manifestação da vantagem competitiva não é tão rara quanto apontada em estudos anteriores e que o grau de raridade depende fortemente do setor. A implicação para a teoria e para a prática é uma revisão da importância do setor frente às teorias que focam os recursos internos da empresa, como a visão baseada em recursos. Os resultados também demonstram e caracterizam como lucratividade e crescimento são conjuntamente necessários para avaliar a presença da vantagem competitiva e influem na sua dinâmica de forma diferenciada. O terceiro artigo operacionaliza as novas dimensões do conceito de vantagem competitiva propostas no primeiro artigo e testa sua ocorrência e capacidade de prever a mobilidade do estado competitivo numa visão longitudinal. Os resultados indicam que a inclusão das novas dimensões potencializa a predição do status competitivo futuro das empresas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A superfamília das fosfolipases A2 (FLA2) é composta por proteínas dotadas de propriedades diferenciadas que as tornam capazes de apresentar distintas atividades biológicas, além de sua atividade catalítica. Esta diversidade funcional é intrigante devido à alta similaridade de seqüência primária e de estrutura entre essas proteínas. O principal objetivo deste trabalho é o desenvolvimento de uma metodologia para a predição de atividades biológicas específicas em FLA2 de peçonha de serpentes a partir da análise de seqüências primárias. A metodologia desenvolvida compreende: a) seleção de seqüências anotadas quanto à função ou atividade biológica que desempenham; b) detecção e validação estatística de motivos de seqüência relacionados à atividade estudada; e c) construção de Modelos Ocultos de Markov (MOMs) representando cada motivo. MOM consiste em uma modelagem estatística que tem sido aplicada com sucesso em diversas áreas onde se faz necessária a detecção e representação de padrões de informação; por sua base matemática robusta e formal, pode ser utilizada na automação deste tipo de processo. A metodologia foi testada para duas atividades de FLA2 de peçonha de serpente: neurotoxicidade e miotoxicidade. Para as FLA2 neurotóxicas, foram detectados seis motivos conservados, dos quais três foram validados estatisticamente como sendo adequados na discriminação de seqüências neurotóxicas de não neurotóxicas. Para as FLA2 miotóxicas, foram detectados seis motivos conservados, dos quais quatro foram validados. Os MOMs dos motivos validados podem ser usados na predição de atividade neurotóxica e miotóxica. As relações entre seqüência, estrutura, função e evolução das FLA2s são discutidas. Os dados obtidos foram coerentes com a hipótese apresentada por Kini (2003), da existência de diferentes sítios farmacológicos na superfície das FLA2, interagindo independente ou cooperativamente com diferentes receptores, para gerar as diversas funções biológicas observadas. Por não haver, até o momento, qualquer ferramenta automatizada para a predição de função biológica de FLA2, os resultados deste trabalho foram a base para a construção de uma ferramenta (disponível em www.cbiot.ufrgs.br/bioinfo/phospholipase) para a identificação de miotoxicidade e neurotoxicidade em FLA2.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os barreiros são áreas de depressões, com pouca cobertura vegetal e solos úmidos, visitadas por muitos animais. O consumo de solo (geofagia) nestes locais é reconhecido para várias espécies de vertebrados em diversas regiões do mundo, sugerindo que os barreiros sejam importantes componentes do hábitat desses organismos. Na Amazônia e no Pantanal, estes lugares são muito procurados por populações humanas tradicionais para a caça. Assim, o conhecimento sobre o uso destas áreas pela fauna é importante para o delineamento de estratégias conservacionistas. A intensidade e horários preferenciais de uso de oito barreiros por vertebrados foram avaliados através de armadilhas fotográficas na Reserva Particular do Patrimônio Natural SESC-Pantanal, nordeste do Pantanal brasileiro. As amostragens foram realizadas durante as estações seca e cheia do ano de 2005. Durante 7375 horas de amostragem, foram registradas 24 espécies de mamíferos, 11 de aves e 2 de répteis utilizando os barreiros de alguma forma. Em 14 destas espécies a geofagia foi documentada, sendo a forma de uso predominante. Este comportamento foi registrado para a cutia (Dasyprocta azarae), o bugio-preto (Alouatta caraya), ungulados (Tayassu pecari, Tapirus terrestris, Pecari tajacu, Sus scrofa, Mazama americana e M. gouazoubira), cracídeos (Penelope ochrogaster, Pipile pipile, Crax fasciolata e Ortalis canicolis) e pombas (Leptotila sp. e Claravis pretiosa). Carnívoros, como a onça-parda (Puma concolor) e a jaguatirica (Leopardus pardalis), visitam estas áreas provavelmente devido à grande concentração de presas. O queixada (T. pecari) e a anta (T. terrestris) foram as espécies que mais utilizaram os barreiros. Os horários preferenciais de uso, em geral, são semelhantes aos padrões de atividade conhecidos para as espécies. A composição de espécies e intensidade de uso foram diferentes entre os barreiros avaliados e entre as estações. Barreiros pequenos apresentaram menor riqueza de espécies e índice de uso mais baixo, parâmetros que foram mais altos na seca em comparação à estação cheia. Diversos fatores, relativos aos barreiros e/ou aos organismos envolvidos, podem estar associados a estas variações. Fatores como tamanho dos barreiros, composição química e estrutural do solo, composição e arranjo da paisagem de entorno, relações dos organismos com esta paisagem e relações intra e interespecíficas podem estar atuando isoladamente ou em sinergismo. Uma das espécies mais freqüentes nos barreiros foi a anta (T. terrestris), um ungulado capaz de responder à heterogeneidade de paisagens em um amplo espectro de escalas. Análises foram realizadas com o objetivo de avaliar se os barreiros, unidades de hábitat em uma escala refinada, são importantes elementos na paisagem para a predição da distribuição local dessa espécie na área da RPPN SESC-Pantanal. Correlações entre a intensidade de uso de oito barreiros por T. terrestris e a composição da paisagem de entorno em diferentes escalas foram realizadas. As probabilidades de ocorrência de antas, obtidas através de um modelo de distribuição potencial a partir da composição da paisagem em áreas de diferentes tamanhos centradas nos barreiros, também foram correlacionadas com a intensidade de uso dos barreiros pela espécie. Áreas com composição da paisagem similar apresentaram diferentes intensidades de uso dos barreiros e locais com reduzida probabilidade de ocorrência de antas apresentaram elevada intensidade de uso, indicando que os barreiros são unidades discretas da paisagem relevantes para a geração de modelos de ocorrência potencial de T. terrestris na região. Considerando estes resultados, os barreiros no nordeste do Pantanal podem ser reconhecidos como importantes unidades de hábitat para diversas espécies de vertebrados. Estratégias conservacionistas locais e regionais, como o zoneamento da RPPN SESC-Pantanal e projetos de manejo e sustentabilidade de caça em reservas extrativistas, devem considerar estas informações para uma maior efetividade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho primeiramente explora fundamentos teóricos básicos para análise e implementação de algoritmos para a modelagem de séries temporais. A finalidade principal da modelagem de séries temporais será a predição para utilizá-la na arbitragem estatística. As séries utilizadas são retiradas de uma base de histórico do mercado de ações brasileiro. Estratégias de arbitragem estatística, mais especificamente pairs trading, utilizam a característica de reversão à média dos modelos para explorar um lucro potencial quando o módulo do spread está estatisticamente muito afastado de sua média. Além disso, os modelos dinâmicos deste trabalho apresentam parâmetros variantes no tempo que aumentam a sua flexibilidade e adaptabilidade em mudanças estruturais do processo. Os pares do algoritmo de pairs trading são escolhidos selecionando ativos de mesma empresa ou índices e ETFs (Exchange Trade Funds). A validação da escolha dos pares é feita utilizando testes de cointegração. As simulações demonstram os resultados dos testes de cointegração, a variação no tempo dos parâmetros do modelo e o resultado de um portfólio fictício.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Até recentemente, pesquisas sobre a relação do usuário com o uso de tecnologia focaram sistemas utilitários. Com a popularização dos PCs para uso doméstico e o surgimento da Internet, a interação dos usuários com tecnologia deixou de ser vista apenas de forma utilitária, e passou a ser orientada também ao atendimento de necessidades hedônicas, fazendo com que as pesquisas em Tecnologia e Sistemas de Informação (SI) extrapolassem os limites da empresa. As pesquisas no campo tem dado atenção cada vez maior ao uso de sistemas hedônicos, cujo objetivo é satisfazer necessidades como entretenimento e diversão, ao invés de um valor instrumental. Entre os sistemas hedônicos, um em particular recebe cada vez mais destaque, os videogames. Jogos digitais estão presentes por toda a sociedade, existindo uma crescente adoção, institucionalização e ubiquidade dos videogames na vida diária. A nova geração foi criada com jogos interativos e espera o mesmo tipo de interação nos demais SI. Por serem divertidos e envolventes, organizações de diversos setores estão tentando integrar características dos jogos digitais em sistemas organizacionais, com a expectativa de melhorar a motivação e desempenho dos funcionários e engajar consumidores online. Para analisar a relação do usuário com jogos digitais foram desenvolvidas três pesquisas. A primeira aborda os motivos pelos quais o indivíduo se engaja com o jogo, definindo Engajamento com base em desafio, imersão e curiosidade. Já as motivações dos indivíduos são analisadas pelo divertimento e a competição. A partir do momento em que o indivíduo está engajado, é necessário medir a experiência holística que ele experimenta desta interação. Para tanto, a segunda pesquisa analisa os dois construtos mais utilizados no campo para mensurar tal experiência, Flow e Absorção Cognitiva. A última pesquisa se utiliza dos conceitos explorados nas duas anteriores para desenvolver uma rede nomológica para a predição da intenção comportamental do indivíduo para o uso de jogos digitais. Como resultados temos um esclarecimento sobre os fatores que levam a um comportamento engajado dos jogadores, com maior importância do desafio de dominar o jogo e divertimento em relação a competição com outros jogadores. Outra contribuição é a conclusão que Flow e Absorção Cognitiva, dois dos principais construtos utilizados em SI para medir a experiência hedônica do usuário, não são adequados para mensurar tal experiência para videogames. Por fim existe a proposta de uma rede nomológica em um contexto de utilização de um sistema hedônico interativo, permitindo que novos trabalhos possam se beneficiar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A modelagem da estrutura a termo da taxa juros tem grande relevância para o mercado financeiro, isso se deve ao fato de ser utilizada na precificação de títulos de crédito e derivativos, ser componente fundamental nas políticas econômicas e auxiliar a criação de estratégias trading. A classe de modelos criada por Nelson-Siegel (1987), foi estendida por diversos autores e atualmente é largamente utilizada por diversos bancos centrais ao redor do mundo. Nesse trabalho utilizaremos a extensão proposta por Diebold e Li (2006) aplicada para o mercado brasileiro, os parâmetros serão calibrados através do Filtro de Kalman e do Filtro de Kalman Estendido, sendo que o último método permitirá estimar com dinamismo os quatros parâmetros do modelo. Como mencionado por Durbin e Koopman (2012), as fórmulas envolvidas no filtro de Kalman e em sua versão estendida não impõe condições de dimensão constante do vetor de observações. Partindo desse conceito, a implementação dos filtros foi feita de forma a possibilitar sua aplicação independentemente do número de observações da curva de juros em cada instante de tempo, dispensando a necessidade de interpolar os dados antes da calibração. Isso ajuda a refletir mais fielmente a realidade do mercado e relaxar as hipóteses assumidas ao interpolar previamente para obter vértices fixos. Também será testada uma nova proposta de adaptação do modelo de Nelson-Siegel, nela o parâmetro de nível será condicionado aos títulos terem vencimento antes ou depois da próxima reunião do Copom. O objetivo é comparar qualidade da predição entre os métodos, pontuando quais são as vantagens e desvantagens encontradas em cada um deles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A aprovação e posterior regulamentação da Lei 12.305, de 2 de agosto de 2010, que institui a Política Nacional de Resíduos Sólidos – PNRS estabeleceu necessidades de uma nova articulação entre os três entes federados – União, Estados e Municípios – o setor produtivo e a sociedade em geral na busca de soluções para os problemas atuais na gestão de resíduos sólidos. Baseada principalmente no conceito de responsabilidade compartilhada, toda a sociedade – cidadãos, setor produtivo, governos e sociedade civil organizada – passa a ser responsável pela gestão dos resíduos sólidos por ela produzidos. Falando especificamente do cidadão, um dos atuais desafios é saber como seu comportamento em relação à separação de resíduos recicláveis no âmbito do seu domicílio se relaciona com os objetivos e metas de reciclagem do município. Considerou-se uma amostra (N=310) de residentes em domicílios do Rio de Janeiro, e os dados coletados foram analisados segundo o modelo ABC de STERN. Os resultados empíricos mostraram que as variáveis associadas ao hábito, às normas sociais diretas e às atitudes afetivas têm peso significativo na predição do modelo do comportamento pró-reciclagem. Como contribuição prática, espera-se que o PMGIRS do Rio de Janeiro possa ser aprimorado, contribuindo para o aumento da participação do cidadão na separação de resíduos recicláveis em seu domicílio, auxiliando os gestores municipais nas decisões necessárias ao cumprimento de objetivos e metas relacionados com a reciclagem na cidade do Rio de Janeiro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ajuste assimétrico de preço é observado em diversos mercados, notavelmente varejo de gasolina: um aumento de custo é passado para os consumidores mais rápido do que uma redução. Eu desenvolvo um modelo de busca dos consumidores que gera essa predição sob aversão à perda. Uma fração dos consumidores ignora os preços no mercado e pode adquirir informação a um custo, o que permite que as firmas tenham lucro com dispersão de preços. Ajuste assimétrico de preço emerge se os consumidores são aversos a perdas em relação a um preço de referência. Custos mais altos tornam os consumidores mais dispostos a procurar, mas também diminui as chances de encontrar preços baixos, gerando uma relação custo-preço convexa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We investigate the effects of augmented life expectancy and health improvements on human capital investment, labor supply and fertility decisions. Our main motivation is the prediction of human capital theory that a longer and healthier life encourages educational investment and female labor force participation, while discouraging fertility. To assess the magnitude of these effects, we explore a national campaign against Chagas disease in Brazil as an exogenous source of adult mortality decline and improvement in health conditions. We show that, relative to non-endemic areas, previously endemic regions saw higher increases in educational investment, measured by literacy, school attendance and years of schooling, following the campaign. Additionally, we find that labor force participation increased in high prevalence areas relative to low prevalence ones. Furthermore, we estimate a substantially higher effect on female labor force participation relative to male, suggesting that longevity gains and health improvements affected women's incentives to work, encouraging women to join the labor force. We do not find significant effects on fertility decisions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectivo: Proceder à validação da equação de Slaugther e col., (1988), na estimação da percentagem de massa gorda (%MG), em crianças com 9 anos de idade, tendo a DXA como método de referência. Metodologia: A avaliação da composição corporal foi realizada em 450 crianças, das quais 219 eram raparigas (idade: 9.74 ± 0.33 anos; altura: 136.88 ± 6.8 cm; peso: 33.77 ± 8.16 kg; índice de massa corporal (IMC): 17.85 ± 3.16 kg/m2) e 231 eram rapazes (idade: 9.75 ± 0.33 anos; altura: 137.17 ± 6.97cm; peso: 34.3 ± 8.09 kg; IMC: 18.09 ± 3.17 kg/m2), pela DXA (QDR – 1500: Hologic, Waltham, MA, pencil beam mode, software version 5.67 anhanced whole body analisis) e pelas pregas adiposas subcutâneas, cujo os valores das pregas adiposas tricipital e geminal foram utilizados na equação desenvolvida por Slaugther e col., (1988). Na análise estatística, foram utilizadas a comparação de médias, a regressão linear e a concordância entre os métodos. Resultados: A %MG obtida por ambos os métodos apresentou diferenças significativas (p<0.05) entre os géneros, sendo as raparigas as que apresentam, em média, maiores valores de gordura corporal. Tanto para os rapazes como para as raparigas a %MGDXA é superior à %MGSKF. Na predição dos valores de %MG, a equação de Slaugther e col., (1988) tem para ambos os sexos (raparigas: r=0.94; EPE=3.2 e rapazes: r=0.96; EPE=2.7) uma correlação elevada com reduzido erro padrão de estimação com a DXA. Na análise de concordância entre os métodos, os rapazes parecem apresentar uma maior concordância entre o método alternativo e o método de referência, com os limites de concordância a variarem entre -9.26 e 1.57, enquanto nas raparigas variam entre -11.19 e 3.16. Em ambos os sexos é visível a subestimação, em valor médio, do método de referência, com uma média da diferença a situar-se nos -3.8% e -4.0%, respectivamente para rapazes e raparigas. Discussão: A equação de Slaugther e col., (1988) explica, para as raparigas, 87.5% da variância do método de referência, enquanto nos rapazes, 91.3% da variância é explicada.A diferença entre os métodos alternativo e de referência está dependente do nível de adiposidade, sendo que o método alternativo tende a sobrestimar a %MG nas crianças mais magras e a subestimar nas mais gordas. A equação de Slaugther e col., (1988) apresentou uma validade aceitável na avaliação da composição corporal num grupo de crianças, constituindo uma alternativa rápida na estimação da composição corporal numa avaliação inicial em escolas, clubes e estudos de larga escala. Contudo a sua utilidade, para uma correcta intervenção na saúde da criança, pode apresentar uma validade limitada, pelo que pode ser justificada a utilização de um método mais válido em termos clínicos, como a DXA.