462 resultados para Acurácia Posicional
Resumo:
O emprego de materiais geossintéticos em obras de Engenharia Civil tem sido freqüente nas últimas décadas. Os projetos e obras exigem uma maior compreensão do comportamento de interação solo-geossintético. Este mecanismo de interação é complexo e depende das propriedades dos materiais envolvidos. Os parâmetros de resistência da interface são determinados em ensaios de campo, menos usuais, e ensaios de laboratório, dos quais destacam-se os ensaios de arrancamento e cisalhamento direto, e, mais recentemente, ensaios de rampa. A escolha do ensaio mais adequado é função do tipo de geossintético e da sua solicitação na massa de solo. Este trabalho teve como finalidade geral desenvolver um equipamento de grande escala, capaz de executar em uma mesma estrutura os principais ensaios de resistência de interfaces solo-geossintético. Especificamente, o objetivo principal consistiu em habilitar o equipamento para a realização de ensaios de rampa. O equipamento de rampa teve seu desempenho avaliado através de ensaios preliminares que permitiram avaliar a acurácia dos resultados e a adequação da metodologia de preparação dos corpos de prova e procedimento de ensaio O programa experimental envolveu ensaios de rampa em quatro tipos distintos de interface: solo-solo, solo-geotêxtil, solo-geogrelha e solo-geomembrana. Os ensaios de interface solo-solo permitiram a avaliação do equipamento, a comparação com ensaios convencionais de cisalhamento direto e a obtenção dos parâmetros de resistência para a determinação das eficiências de interação das interfaces em termos de adesão e ângulo de atrito. Os ensaios de interface sologeossintéticos indicaram um comportamento de resistência semelhante ao reportado na literatura e condicionado pelo tipo de material.
Resumo:
Em cenas naturais, ocorrem com certa freqüência classes espectralmente muito similares, isto é, os vetores média são muito próximos. Em situações como esta, dados de baixa dimensionalidade (LandSat-TM, Spot) não permitem uma classificação acurada da cena. Por outro lado, sabe-se que dados em alta dimensionalidade [FUK 90] tornam possível a separação destas classes, desde que as matrizes covariância sejam suficientemente distintas. Neste caso, o problema de natureza prática que surge é o da estimação dos parâmetros que caracterizam a distribuição de cada classe. Na medida em que a dimensionalidade dos dados cresce, aumenta o número de parâmetros a serem estimados, especialmente na matriz covariância. Contudo, é sabido que, no mundo real, a quantidade de amostras de treinamento disponíveis, é freqüentemente muito limitada, ocasionando problemas na estimação dos parâmetros necessários ao classificador, degradando portanto a acurácia do processo de classificação, na medida em que a dimensionalidade dos dados aumenta. O Efeito de Hughes, como é chamado este fenômeno, já é bem conhecido no meio científico, e estudos vêm sendo realizados com o objetivo de mitigar este efeito. Entre as alternativas propostas com a finalidade de mitigar o Efeito de Hughes, encontram-se as técnicas de regularização da matriz covariância. Deste modo, técnicas de regularização para a estimação da matriz covariância das classes, tornam-se um tópico interessante de estudo, bem como o comportamento destas técnicas em ambientes de dados de imagens digitais de alta dimensionalidade em sensoriamento remoto, como por exemplo, os dados fornecidos pelo sensor AVIRIS. Neste estudo, é feita uma contextualização em sensoriamento remoto, descrito o sistema sensor AVIRIS, os princípios da análise discriminante linear (LDA), quadrática (QDA) e regularizada (RDA) são apresentados, bem como os experimentos práticos dos métodos, usando dados reais do sensor. Os resultados mostram que, com um número limitado de amostras de treinamento, as técnicas de regularização da matriz covariância foram eficientes em reduzir o Efeito de Hughes. Quanto à acurácia, em alguns casos o modelo quadrático continua sendo o melhor, apesar do Efeito de Hughes, e em outros casos o método de regularização é superior, além de suavizar este efeito. Esta dissertação está organizada da seguinte maneira: No primeiro capítulo é feita uma introdução aos temas: sensoriamento remoto (radiação eletromagnética, espectro eletromagnético, bandas espectrais, assinatura espectral), são também descritos os conceitos, funcionamento do sensor hiperespectral AVIRIS, e os conceitos básicos de reconhecimento de padrões e da abordagem estatística. No segundo capítulo, é feita uma revisão bibliográfica sobre os problemas associados à dimensionalidade dos dados, à descrição das técnicas paramétricas citadas anteriormente, aos métodos de QDA, LDA e RDA, e testes realizados com outros tipos de dados e seus resultados.O terceiro capítulo versa sobre a metodologia que será utilizada nos dados hiperespectrais disponíveis. O quarto capítulo apresenta os testes e experimentos da Análise Discriminante Regularizada (RDA) em imagens hiperespectrais obtidos pelo sensor AVIRIS. No quinto capítulo são apresentados as conclusões e análise final. A contribuição científica deste estudo, relaciona-se à utilização de métodos de regularização da matriz covariância, originalmente propostos por Friedman [FRI 89] para classificação de dados em alta dimensionalidade (dados sintéticos, dados de enologia), para o caso especifico de dados de sensoriamento remoto em alta dimensionalidade (imagens hiperespectrais). A conclusão principal desta dissertação é que o método RDA é útil no processo de classificação de imagens com dados em alta dimensionalidade e classes com características espectrais muito próximas.
Resumo:
Objetivo: métodos antropométricos que quantifiquem as curvas da coluna vertebral e a avaliação postural a fim de realizar investigações epidemiológicas sobre o papel da postura na ocorrência das dores lombares. O propósito do estudo foi avaliar acurácia e reprodutibilidade do Sistema de Avaliação Postural Digitalizado (SAPD) para medir lordose lombar comparando com raio-x. Delineamento: transversal, com amostra consecutiva. Participantes: para medida da acurácia no grupo 1 ( T12,L3,L5) n = 16 e grupo 2 (L1,L3,L5) n= 17. Na reprodutibilidade intra e inter-avaliador n= 80. Principais Medidas: marcadores externos nos processos espinhosos das vértebras T12, L1, L3 e L5. Raio-x de perfil da coluna lombar e foto digital em perfil direito. Medida da lordose lombar no raio-x com métodos de Cobb,Centróide (CLL) e Processos Espinhosos (PE) e com o SAPD. Resultados: grupo 1, correlação entre SAPD e Cobb foi 0,803 (p<0,001), entre SAPD e CLL foi 0,642 (p=0,024), entre SAPD e a medida dos PE a correlação foi 0,917, com R2 = 0,842. No grupo 2, correlação entre SAPD e Cobb foi 0,559 (p=0,020), entre SAPD e CLL de 0,325 (p=0,302), com correlação significativa somente entre SAPD e Cobb. Entre SAPD e PE a correlação foi 0,763, com R2 = 0,583. Para reprodutibilidade interavaliador a correlação foi 0,981 (p < 0,001) e para reprodutibilidade intra-avaliador de 0.978 (p < 0,001) referente às mesmas fotografias. Reprodutibilidade intraavaliador de 0.872 (p < 0.001) e 0.956 (p<0,001) para inter-avaliador referente à fotos diferentes de um mesmo indivíduo com recolocação dos marcadores sobre a pele . Considerações Finais: O SAPD mostrou-se acurado e reprodutível para a medida da lordose lombar.
Resumo:
Esta tese propõe-se a analisar os analistas de mercado de capitais de empresas brasileiras. Coletando informações do mercado e analisando o desempenho corrente das empresas, estes profissionais realizam projeções de resultados e fazem recomendações. Usando dados extraídos do sistema I/B/E/S, realiza-se uma abrangente pesquisa empírica das previsões e recomendações dos analistas, bem como de seu conteúdo informativo para o mercado brasileiro. O período de estudo foi entre janeiro 1995 a junho 2003. Inicialmente são discutidos conceitos e particularidades do modus operandi dos analistas de empresas brasileiras. A seguir, depois de uma revisão da literatura onde se documentam as principais contribuições e descobertas, procede-se a uma investigação da natureza dos erros de previsão dos analistas de empresas brasileiras. Características como a acurácia, viés e precisão das previsões dos analistas são apreciadas e contextualizadas em diferentes situações. Efetua-se um detalhamento analítico do conteúdo informativo dos diferentes tipos de revisões de previsões dos analistas e das surpresas provocadas pelo anúncio de resultados em desacordo com as expectativas. De modo geral, as revisões e as surpresas, na medida em que informarem o mercado, provocam variações de retornos. Encerra-se a tese com uma análise das recomendações dos analistas. Apura-se a distribuição percentual das recomendações, assim como os efeitos sobre os preços de recomendações de compra (buy) e de venda(sell). O desempenho das recomendações de consenso e o efeito das revisões de recomendações para cima (upgrade) e para baixo (downgrade) são exemplos de outros pontos analisados.
Resumo:
A presente dissertação analisa o erro de projeção dos analistas de investimentos do sell side, definido como a diferença entre o consenso das projeções dos analistas e o resultado reportado pela empresa. O tamanho do erro de projeção é uma medida da qualidade das projeções dos analistas de um determinado mercado de capitais. Uma vasta literatura acadêmica mostra que uma melhora na qualidade das projeções dos analistas, medida através de uma diminuição do tamanho do erro de projeção, está relacionada com a redução da assimetria de informação e com um aumento do valor de mercado das empresas. São testadas duas regressões, nas quais características das empresas, como setor, tamanho, endividamento e variabilidade do lucro, e características do ambiente de informação da empresa, como listagem de ADR, número de analistas que acompanham a empresa e convergência das projeções, são testadas contra duas métricas do erro de projeção, acurácia e viés. Nossas hipóteses são que existem fatores que influenciam de maneira significativa o tamanho do erro de projeção (acurácia) e o viés das projeções (viés). Estas hipóteses foram confirmadas, isto é, nossas regressões apresentaram pelo menos um fator que se mostrou significativo estatisticamente para influenciar o tamanho do erro de projeção (hipóteses H1 e H2) ou o seu viés (hipótese H3). Entretanto, os resultados mostram que vários fatores que se mostram significativos em testes conduzidos em mercados desenvolvidos – tais como tamanho, endividamento e variabilidade do lucro – não se mostraram significativos no mercado brasileiro. Por outro lado, os fatores relacionados com o resultado do ano projetado ou do ano anterior se mostraram fortemente significativos. Acreditamos que os resultados podem ser explicados de três maneiras: 1) ou a capacidade de adicionar valor dos analistas em relação a modelos estatísticos de projeção é muito pequena, devido à sua falta de habilidade; ou 2) a instabilidade macroeconômica é tão grande domina todos os outros fatores que poderiam influenciar o tamanho do erro de projeção; ou 3) os resultados das empresas nos mercados desenvolvidos são tão administrados, isto é, tão estáveis, que permitem que fatores mais sutis como o tamanho, o nível de endividamento e a variabilidade do lucro se tornem significativos. Esta dissertação não permite distinguir qual das explicações é a correta. Uma de suas limitações é não incluir variáveis referentes à habilidade e experiência dos analistas e, também, variáveis relacionadas a fatores como governança corporativa e disclosure de informações. Em uma linha de pesquisa muito extensa nos países desenvolvidos, mas praticamente inexistente no Brasil, esperamos que estudos futuros supram estas lacunas e nos permitam entender melhor a questão da qualidade das projeções de resultados no contexto brasileiro.
Resumo:
Há forte evidência que os retornos das séries financeiras apresentam caudas mais pesadas que as da distribuição normal, principalmente em mercados emergentes. No entanto, muitos modelos de risco utilizados pelas instituições financeiras baseiam-se em normalidade condicional ou não condicional, reduzindo a acurácia das estimativas. Os recentes avanços na Teoria de Valores Extremos permitem sua aplicação na modelagem de risco, como por exemplo, na estimação do Valor em Risco e do requerimento de capital. Este trabalho verifica a adequação de um procedimento proposto por McNeil e Frey [1999] para estimação do Valor em Risco e conseqüente requerimento de capital às principais séries financeiras de retornos do Brasil. Tal procedimento semi-paramétrico combina um modelo GARCH ajustado por pseudo máxima verossimilhança para estimação da volatilidade corrente com a Teoria de Valores Extremos para estimação das caudas da distribuição das inovações do modelo GARCH. O procedimento foi comparado através de backtestings com outros métodos mais comuns de estimação de VaR que desconsideram caudas pesadas das inovações ou a natureza estocástica da volatilidade. Concluiu-se que o procedimento proposto por McNeil e Frey [1999] mostrou melhores resultados, principalmente para eventos relacionados a movimentos negativos nos mercados . Futuros trabalhos consistirão no estudo de uma abordagem multivariada de grandes dimensões para estimação de VaR e requerimento de capital para carteiras de investimentos.
Resumo:
A formulação de planejamentos e o direcionamento estratégico das empresas dependem da identificação e a previsão correta das mudanças emergentes no ambiente de negócios, o que torna a previsão de demanda um elemento chave na tomada de decisão gerencial. Um dos maiores problemas associados com o uso de previsões de demanda no apoio à tomada de decisões é a escolha do método de previsão a ser implementado. Organizações com necessidades e características distintas em relação aos seus produtos e serviços atuam em diferentes cenários de mercado. Diferentes cenários necessitam de diferentes métodos de previsão, de forma a refletir mudanças na estrutura do mercado (como entrada de novos produtos, novos competidores e/ou mudanças no comportamento dos consumidores). Assim, uma metodologia que direcione diferentes métodos de previsão de demanda para as situações em que são mais eficientes pode auxiliar o processo preditivo e de tomada de decisões das organizações, minimizando erros de planejamentos estratégico, tático e operacional. Esta dissertação apresenta uma metodologia de seleção de métodos de previsão de demanda mais apropriados para diferentes situações. Métodos de integração de métodos qualitativos e quantitativos de previsão melhoram a acurácia nos processo preditivos e também são abordados na metodologia de seleção de métodos de previsão. A metodologia proposta é ilustrada através de dois estudos de caso. No primeiro estudo investigou-se o caso de um produto com demanda regular. No segundo estudo, detalhou-se o processo de previsão para um cenário de lançamento de um novo produto.
Resumo:
Foram utilizados cento sessenta e dois animais, avaliados em dois anos para determinar a acurácia do ultra-som em estimar a espessura de gordura subcutânea (EGSC) e a área do músculo longissimus (AOLC) no sítio anatômico entre a 12ª e 13ª costelas. Dentro de vinte quatro horas antes do abate, foi medida por ultra-som a espessura de gordura subcutânea (EGSUS) e a área de músculo longissimus (AOLUS) utilizando uma eco câmera da Marca Aloka SSD 500V equipado com um transdutor de 17,2cm e 3,5MHz, no primeiro ano e de um Pie Medical Falcon 100 com transdutor de 18 cm e 3,5MHz no segundo ano. Os coeficientes de correlação simples entre as características medidas por ultra-som e a espessura de gordura subcutânea e área do músculo longissimus da carcaça foram de 0,95 e 0,96, respectivamente, considerando todos os animais. Correlações para EGSUS e EGSC foram iguais (0,95) entre os anos, enquanto as relações entre AOLUS e AOLC foram estreitamente relacionadas, de 0,96 no ano 1 e de 0,97, no ano 2. Diferenças entre medidas ultra-sônicas e da carcaça foram expressas em base atual (EDIFF e ADIFF) e em base absoluta (EDEV e ADEV). As médias da EDIFF e ADIFF indicaram que o ultra-som superestima a EGSC em 0,16mm e subestima a AOLC em 0,26cm² considerando ambos os anos. As médias globais da EDEV e ADEV, que são indicações da taxa média de erro, foram 0,34mm e 1,28cm², respectivamente.
Resumo:
A microalbuminúria representa o primeiro estágio da nefropatia diabética (ND) e, além de prever a evolução para nefropatia clínica e insuficiência renal, é acompanhada de elevado risco de doença cardiovascular. Este trabalho discute o curso clínico, valores e procedimentos utilizados no diagnóstico da microalbuminúria em pacientes com diabete melito (DM). A progressão de microalbuminúria para nefropatia clínica é menor do que inicialmente suposto. O rastreamento da microalbuminúria deve ser realizado por ocasião do diagnóstico de DM tipo 2, em pacientes com DM tipo 1 após 5 anos de duração de DM e por ocasião da puberdade. A microalbuminúria é diagnosticada com valores de excreção urinária de albumina (EUA 24-h) entre 20-200 μg/min, embora valores elevados ainda dentro da faixa normal já sejam preditivos de nefropatia clínica. A concentração de albumina em amostra casual de urina, além de ser facilmente realizada, é o teste de maior acurácia e menor custo para o rastreamento da microalbuminúria. Contudo, o diagnóstico deve ser confirmado com EUA 24-h. Fitas reagentes para medida semi-quantitativa apresentam baixa acurácia, além de alto custo. No presente momento, a albuminúria é ainda o melhor teste para prever a instalação da nefropatia clínica.
Resumo:
Introdução: Embora a imagem com segunda harmônica esteja largamente disponível na maioria dos aparelhos de ultra-sonografia, sua acurácia para avaliar a morfologia e a função do apêndice atrial esquerdo (AAE) permanece precariamente caracterizada. Objetivos: Explorar o desempenho diagnóstico da ecocardiografia transtorácica com segunda harmônica (ETTsh) na avaliação do AAE após eventos neurológicos agudos. Métodos: Realizamos um estudo transversal em pacientes com eventos neurológicos isquêmicos agudos, encaminhados para realização de ETTsh e Ecocardiografia Transesofágica (ETE). As análises da área longitudinal máxima e do pico da velocidade de esvaziamento de fluxo do AAE foram realizadas por observadores cegos. Resultados: Foram avaliados 51 pacientes (49% femininas, 62 ± 12 anos) com eventos neurológicos isquêmicos agudos. Contraste ecocardiográfico espontâneo foi observado em 11 (22%) pacientes no AE, em 7(14%) no AAE e em 3 (6%) na aorta torácica descendente. Trombo no AAE foi identificado em apenas 2 (4%) pacientes. O mapeamento e a análise do AAE foi factível na maioria dos casos (98%), tanto para o estudo com Doppler quanto para avaliação da área do AAE. Observamos uma associação positiva e significativa entre o ETTsh e o ETE, tanto para a avaliação das velocidades máximas de esvaziamento do AAE (r=0,63; p<0,001) quanto para a área longitudinal máxima do AAE (r=0,73; p<0,001). Ademais, todos os pacientes com trombos no AAE ou contraste espontâneo (n=7) tiveram velocidade de esvaziamento inferior a 50 cm/s no mapeamento transtorácico (valor preditivo negativo de 100%). Na análise multivariada ajustada para diversos potenciais preditores transtorácicos de risco, a velocidade máxima de esvaziamento do AAE permaneceu independentemente associada com trombos no AAE ou contraste espontâneo. Conclusão: ETTsh pode fornecer informações relevantes a respeito da morfologia e dinâmica do AAE. Em particular, pacientes com velocidades altas de esvaziamento do AAE podem não necessitar de avaliação adicional com ETE.
Resumo:
Informações sobre as condições de crescimento e expectativa de produção de culturas são importantes para a economia brasileira, visto que permitem um planejamento adequado da economia agrícola, contornando problemas de escassez e administrando com vantagens o excesso de produtos. Neste contexto, as tecnologias de sensoriamento remoto e geoprocessamento permitem a obtenção de informações precisas, em tempo hábil e com baixo custo. O presente trabalho teve como principal objetivo gerar subsídios para o aprimoramento do sistema atual de acompanhamento e previsão da safra de soja no Brasil, incorporando técnicas de sensoriamento remoto e geoprocessamento. Como objetivos específicos, buscou-se avaliar a acurácia da classificação digital de imagens LANDSAT para estimativa da área cultivada com soja e verificar a influência de aspectos regionais, tais como condições climáticas, de ocupação e de manejo, sobre a evolução temporal do índice de vegetação por diferença normalizada (NDVI), obtidos de imagens NOAA, visando o monitoramento da cultura da soja em projetos de previsão de safras. A estimativa de área cultivada com soja foi realizada através da classificação digital não supervisionada. Como verdade terrestre foram selecionadas 24 lavouras de soja, individualizadas na imagem com diferentes tamanhos e de diferentes regiões de uso e cobertura do solo, as quais foram quantificadas usando GPS de precisão topográfica. A verificação da acurácia da estimativa foi feita através de análise de regressão linear, sendo testada a significância do coeficiente de determinação. O monitoramento da cultura da soja foi realizada usando imagens decendiais de máximo NDVI. Nestas imagens, foram selecionadas 18 janelas amostrais, sendo extraídos os valores de NDVI e expressos na forma de perfis espectrais. Os resultados mostraram que a estimativa de área das lavouras cultivadas com soja, obtida através do processo de classificação digital não supervisionada em imagens LANDSAT, foi acurada e precisa para pequenas, médias e grandes lavouras, mostrando-se ser uma técnica eficiente para ser utilizada em projetos de previsão de safras de soja na região estudada. A evolução temporal do NDVI, obtida de imagens NOAA, apresentou sensibilidade quanto às diferenças de uso e cobertura do solo, demonstrando que as escalas espacial e temporal das imagens NOAA são adequadas para o acompanhamento em nível regional da evolução temporal da biomassa. Existe, ainda, potencial de uso de imagens NDVI para inferir sobre a área cultivada com soja em projetos de previsão de safras em escalas regionais, desde que a cultura seja predominante no pixel.
Análise da perenidade do modelo de Wibe para previsão de demanda para papel para imprimir e escrever
Resumo:
A indústria de papel e celulose no mundo e no Brasil é de notável importância pela geração de empregos, faturamento e peso estratégico. Sendo uma indústria de base florestal tem sua cadeia produtiva verticalizada dependente de um longo ciclo de plantio, crescimento e colheita florestal que pode, nas melhores das condições, tomar de cinco a sete anos e, para casos mais extremos, demandar de 20 a 40 anos. O intenso capital empregado aliado à baixa mobilidade de curso faz da previsão de demanda para a indústria papeleira um ponto de extrema atenção. Esta pesquisa se propõe a estudar se um modelo proposto na década de 80, aplicado a dados da década de 70, se mantém válido até os dias atuais. Para tal, este trabalho levanta breve bibliografia relacionada aos conceitos de previsão de demanda e como a previsão de demanda foi aplicada para produtos de base florestal – dentre os quais, papel e celulose. O estudo segue com a escolha do modelo de Wibe (1984), sua reprodução e extrapolação para dados da década de 60, 70, 80 e 90. A função de demanda originalmente proposta por Wibe (1984) associa o cunsumo de papel à renda, preço e a um índice de substituição. Para teste de sua perenidade este trabalho mede a acurácia do modelo original para cada década e testa variações e simplificações de tal modelo.
Resumo:
Os recentes avanços na tecnologia de sensores tem disponibilizado imagens em alta dimensionalidade para fins de sensoriamento Remoto. Análise e interpretação dos dados provenientes desta nova geração de sensores apresenta novas possibilidades e também novos desafios. Neste contexto,um dos maiores desafios consiste na estimação dos parâmetros em um classificador estatístico utilizando-se um número limitado de amostras de treinamento.Neste estudo,propõe-se uma nova metodologia de extração de feições para a redução da dimensionalidadedos dados em imagens hiperespectrais. Essa metodologia proposta é de fácil implementação e também eficiente do ponto de vista computacional.A hipótese básica consiste em assumir que a curva de resposta espectral do pixel, definida no espaço espectral, pelos contadores digitais (CD's) das bandas espectrais disponíveis, pode ser substituída por um número menor de estatísticas, descrevendo as principais característicasda resposta espectral dos pixels. Espera-se que este procedimento possa ser realizado sem uma perda significativa de informação. Os CD's em cada banda espectral são utilizados para o cálculo de um número reduzido de estatísticas que os substituirão no classificador. Propõe-se que toda a curva seja particionada em segmentos, cada segmento sendo então representado pela respectiva média e variância dos CD's. Propõem-se três algoritmos para segmentação da curva de resposta espectral dos pixels. O primeiro utiliza um procedimento muito simples. Utilizam-se segmentos de comprimento constante, isto é, não se faz nenhuma tentativa para ajustar o comprimento de cada segmento às características da curva espectral considerada. Os outros dois implementam um método que permite comprimentos variáveis para cada segmento,onde o comprimentodos segmentos ao longo da curva de resposta espectral é ajustado seqüencialmente.Um inconveniente neste procedimento está ligado ao fato de que uma vez selecionadauma partição, esta não pode ser alterada, tornando os algoritmos sub-ótimos. Realizam-se experimentos com um classificador paramétrico utilizando-se uma imagem do sensor AVIRIS. Obtiveram-se resultados animadores em termos de acurácia da classificação,sugerindo a eficácia dos algoritmos propostos.
Resumo:
Objetivo: Avaliar a acurácia da colposcopia utilizando a Classificação Colposcópica Internacional de 2002. Métodos: 3040 pacientes de população geral foram rastreadas para patologia cervical através de exame citopatológico, captura híbrida para HPV de alto risco e inspeção cervical. As colposcopias que resultaram em biópsia (n=468) executadas no rastreamento e acompanhamento destas pacientes foram gravadas, revistas por dois colposcopistas cegados e incluídas para análise. Resultados: Os observadores apresentaram excelente concordância (Kappa=0.843) no relato dos achados pela nova nomenclatura. A colposcopia apresentou sensibilidade de 86% e especificidade de 30.3% em diferenciar colo normal de colo anormal (LSIL, HSIL ou carcinoma); quando a colposcopia objetivava diferenciar colo normal ou LSIL de HSIL ou carcinoma, apresentou sensibilidade de 61.1% e especificidade de 94.4%. Os achados colposcópicos classificados como “maiores” pela nova classificação apresentaram valores preditivos positivos elevados para HSIL. Presença do achado colposcópico na zona de transformação e tamanho da lesão estavam associados a HSIL. Bordas externas definidas, associação de múltiplos achados distintos e presença de zona iodo negativa não estavam relacionados à gravidade das lesões. Conclusão: A colposcopia utilizando a Classificação Internacional de 2002 mostra-se um bom método de rastreamento, mas como método diagnóstico apresenta falhas, não podendo substituir a avaliação histológica. A categorização em achados colposcópicos “maiores” e “menores” apresentada pela nova classificação é adequada. Na realização da colposcopia, é importante também que a lesão seja situada em relação à zona de transformação e que seu tamanho seja indicado, já que estes foram fatores associados a lesões de alto grau.
Resumo:
A previsão de demanda é uma atividade relevante pois influencia na tomada de decisão das organizações públicas e privadas. Este trabalho procura identificar modelos econométricos que apresentem bom poder preditivo para a demanda automotiva brasileira num horizonte de longo prazo, cinco anos, através do uso das séries de vendas mensais de automóveis, veículos comerciais leves e total, o período amostral é de 1970 a 2010. Foram estimados e avaliados os seguintes modelos: Auto-regressivo (Box-Jenkins, 1976), Estrutural (Harvey, 1989) e Mudança de Regime (Hamilton, 1994), incluindo efeitos calendário e dummies além dos testes de raízes unitárias sazonais e não-sazonais para as séries. A definição da acurácia dos modelos baseou-se no Erro Quadrático Médio (EQM) dos resultados apresentados na simulação da previsão de demanda dos últimos quinze anos (1995 a 2010).