994 resultados para métodos não-paramétricos
Resumo:
Proposição: Avaliar a expressão de Receptores de Fator de Crescimento Epidérmico (EGFR) nos remanescentes do epitélio odontogênico em folículos pericoronários e em amostras de mucosa bucal normal e sua relação com a gênese de cistos e tumores odontogênicos. Materiais e Métodos: 20 folículos pericoronários de terceiros molares inferiores, completamente retidos, de pacientes com idade média de 18 anos e 16 amostras de mucosa bucal destes pacientes foram selecionadas e analisadas pelo método da imunohistoquímica com mAb anti-EGFR. Nos folículos pericoronários, os campos que apresentaram remanescentes do epitélio odontogênico em forma de ilhas ou epitélio reduzido do órgão do esmalte foram capturados e analisados qualitativamente quanto à distribuição da localização do receptor e, comparados à mucosa bucal normal. Foram utilizados, para comparação, os testes não paramétricos de Friedman e Kruskal- Wallis (p<0,05). Resultados: As mucosas bucais apresentaram 100% de marcação de membrana e citoplasma nas camadas proliferativas. Nos folículos pericoronários, os campos de epitélio reduzido do órgão do esmalte apresentaram 63,3% de marcação concomitante de membrana e citoplasma e 36,7% de marcação citoplasmática. Nas ilhas dos remanescentes epiteliais da odontogênese a distribuição se deu 52% na porção citoplasmática das células, 47,3% na membrana e citoplasma e 0,7% das ilhas apresentaram marcação de membrana. Conclusões: A expressão de EGFR, observada na membrana e no citoplasma das células epiteliais das camadas proliferativas de todas as mucosas bucais normais, pode ser considerada como padrão fisiológico. Todas as células remanescentes epiteliais da odontogênese apresentaram imunoreatividade para o mAb anti-EGFR, havendo variações na expressão do EGFR, podendo estas diferenças estar relacionadas ao desenvolvimento de cistos e tumores odontogênicos. A distribuição da localização celular da expressão do EGFR é importante na análise da imunoreação; pois, representam diferentes estados de responsividade celular.
Resumo:
A leflunomida é um pró-fármaco anti-reumático encontrado na forma de comprimidos revestidos com nome comercial ARAVA que, in vivo, é rápida e extensamente convertida a seu metabólito ativo A77 1726. Considerando a ausência de metodologia de controle de qualidade na literatura para a leflunomida, foram desenvolvidos métodos de caracterização e quantificação da leflunomida matéria-prima e na forma de comprimido, além de estudo preliminar de sua estabilidade. As técnicas de ponto de fusão, espectroscopia no IV, RMN 1H e 13C e CLAE associada a detector de arranjo de diiodos foram utilizadas para identificação e caracterização da leflunomida. O A77 1726 foi sintetizado e caracterizado pelas técnicas de espectroscopia no IV, RMN 1H e 13C, CLAE e DSC. Foi desenvolvido e validado método analítico para quantificação da leflunomida em comprimidos por CLAE utilizando coluna C18, ACN:água (50:50) como fase móvel e detecção em 254 nm. O método apresentou parâmetros cromatográficos adequados e parâmetros de desempenho analítico satisfatórios, com limite de detecção de 10 ng/mL. Método por espectroscopia derivada no UV foi desenvolvido e validado como alternativa para quantificação da leflunomida em comprimidos. A comparação do método por UV derivada com a CLAE, para determinação da leflunomida em comprimidos, mostrou que os métodos são intercambiáveis, creditando a técnica de UV para testes de controle de qualidade de rotina. Foram realizados estudos de degradação forçada dos comprimidos de leflunomida submetendo amostras à temperatura de 80 ºC ou exposição à radiação UV a 254 nm com lâmpada germicida. O principal produto de degradação encontrado foi o A77 1726. Além disso, outro produto de degradação, com tempo de retenção de 5,5 min (CLAE), apresentou quantidades significativas no estudo de degradação térmica.
Resumo:
Os objetivos deste trabalho foram (i) rever métodos numéricos para precificação de derivativos; e (ii) comparar os métodos assumindo que os preços de mercado refletem àqueles obtidos pela fórmula de Black Scholes para precificação de opções do tipo européia. Aplicamos estes métodos para precificar opções de compra da ações Telebrás. Os critérios de acurácia e de custo computacional foram utilizados para comparar os seguintes modelos binomial, Monte Carlo, e diferenças finitas. Os resultados indicam que o modelo binomial possui boa acurácia e custo baixo, seguido pelo Monte Carlo e diferenças finitas. Entretanto, o método Monte Carlo poderia ser usado quando o derivativo depende de mais de dois ativos-objetos. É recomendável usar o método de diferenças finitas quando se obtém uma equação diferencial parcial cuja solução é o valor do derivativo.
Resumo:
Industrial segment uses natural resources in a wide scale, but evaluate the use of these resources is a complex and new task. Few is known about existing methodologies of evaluation, mainly because of the fact that the value of this resource is more implicit than explicit. It is known that evaluation methods support the environmental accounting but the industrial community for an effective environmental management of their businesses does not yet use this tool in a regular basis. The main objective of this work is to analyze how companies who develop industrial activities on mining, siderurgy, paper and cellulose segments, are evaluating the use of natural resources for economic development, in terms of methodologies application for environment evaluation. Based on an explore research with companies from the segments previously defined in an intentional sampling and through a case study, it was possible to understand enterprise behavior according to the existing level of knowledge internalized on evaluation methodologies, to go deeper on an analysis of the premises and of the basis of the methodologies in an environmental accounting project of a paper and cellulose segment industry.
Resumo:
Nesse trabalho fazemos um estudo sobre o desempenho de fundos de investimento na indústria brasileira. Sob as hipóteses de mercados incompletos e não arbitragem determinamos limites para a performance de fundos quando baseada em medidas admissíveis. Paralelamente, apresentamos uma variação desse método em que excluímos a possibilidade de Índices de Sharpe muito altos persistirem em um mercado em equilíbrio. Usando uma amostra mensal de 33 fundos multimercado para um período de aproximadamente oito anos, os resultados mostram que a performance de fundos pode variar bastante em função da medida. Para a maior parte dos fundos, não se pode excluir a possibilidade de uma avaliação conflitante para diferentes tipos de investidores.
Mudanças de métodos de custeio e o impacto no sistema de informação gerencial: um estudo qualitativo
Resumo:
A presente pesquisa consiste em identificar os impactos causados no Sistema de Informações Gerenciais com a mudança de método de Custeio Variável para Unidade de Esforço de Produção (UEP), mediante a realização de um Estudo de Caso sobre a empresa Bistex Alimentos LTDA. A coleta de dados, viabilizada pela análise documental e pela aplicação de entrevista com dois diretores, tornou possível a análise de dados interpretativa dos indicadores de desempenho presentes nas principais alterações após o processo de migração, na forma de um estudo comparativo, levantando controles usados na organização antes e depois da troca de método. Autores como Johnson e Kaplan (1993), que abordam a contabilidade gerencial, Allora (1996), que introduz os custos e controle gerencial de produção, e Wernke (2008), que aborda a aplicação do Método UEP, deram consistência à aplicabilidade operacional desta proposta. Os principais resultados podem ser identificados no ordenamento de informações, fundamental pelo uso da UEP, o que causa alterações na cultura organizacional da empresa. O estudo demonstra que a implementação do método UEP trouxe alterações nos controles da organização, entretanto, ainda falta uma visão holística e a integração com a gestão estratégica
Resumo:
A dificuldade em se caracterizar alocações ou equilíbrios não estacionários é uma das principais explicações para a utilização de conceitos e hipóteses que trivializam a dinâmica da economia. Tal dificuldade é especialmente crítica em Teoria Monetária, em que a dimensionalidade do problema é alta mesmo para modelos muito simples. Neste contexto, o presente trabalho relata a estratégia computacional de implementação do método recursivo proposto por Monteiro e Cavalcanti (2006), o qual permite calcular a sequência ótima (possivelmente não estacionária) de distribuições de moeda em uma extensão do modelo proposto por Kiyotaki e Wright (1989). Três aspectos deste cálculo são enfatizados: (i) a implementação computacional do problema do planejador envolve a escolha de variáveis contínuas e discretas que maximizem uma função não linear e satisfaçam restrições não lineares; (ii) a função objetivo deste problema não é côncava e as restrições não são convexas; e (iii) o conjunto de escolhas admissíveis não é conhecido a priori. O objetivo é documentar as dificuldades envolvidas, as soluções propostas e os métodos e recursos disponíveis para a implementação numérica da caracterização da dinâmica monetária eficiente sob a hipótese de encontros aleatórios.
Resumo:
Aborda Preços de Transferência, métodos de determinação por parte de empresas e governos. Formação das taxas de juros, Preços de Transferência nas operações de transferência internacional de recursos e a legislação brasileira sobre o assunto. Críticas e restrições à abordagem brasileira e proposta de modelos alternativos para o estabelecimento de juros praticados na transferência internacional de recursos entre empresas vinculadas ou situadas em paraísos fiscais.
Resumo:
A segurança dos alimentos é uma preocupação mundial e um fator importante na comercialização de produtos de origem animal. A presença de Salmonella sp. em suínos ao abate e em produtos do tipo frescal podem representar um risco para a saúde do consumidor. A análise de risco prevê a avaliação de diferentes fatores, entre eles a quantificação do microrganismo presente no alimento. A partir disso, a contribuição do presente estudo foi buscar estabelecer um método confiável de quantificação de Salmonella sp. em produtos suínos, uma vez que uma das etapas da análise de risco prevê a quantificação do perigo. No caso de Salmonella sp., a técnica da estimativa do Número Mais Provável (NMP) tem sido adotada. Em uma primeira fase desse trabalho, amostras foram quantificadas, individualmente, com três amostras de Salmonella Typhimurium (ATTCC15290 e 2 amostras de suínos) em três diferentes contagens, 101, 102 e 103 UFC. Para o método A, as amostras quantificadas foram adicionadas a 225 mL de água peptonada tamponada, sendo, posteriormente, fracionadas em 3 alíquotas de 50mL, 5mL e 0,5mL. Para o método B, a amostra fortificada foi diluída em água peptonada tamponada até 10-3, sempre em triplicata. Na segunda fase, foram testadas amostras naturalmente contaminadas, utilizando as mesmas metodologias usadas na primeira fase. Todas as alíquotas de ambos métodos foram incubadas a 370C por 18 horas. Após, cada alíquota foi semeada em caldo Rappaport-Vassiliadis (RV) e incubadas à 420C por 24 h e após, em àgar Xylose-Lysine-Tergitol 4 (XLT4) à 370C por 48 h. Colônias suspeitas foram confirmadas por testes bioquímicos. O número de placas positivas para Salmonella sp. foi utilizado para o cálculo do Número Mais Provável, utilizando tabela apropriada. Na segunda fase, os dois métodos foram avaliados em 20 amostras naturalmente contaminadas, mantidas congeladas por até 115 dias. Em 45 ensaios conduzidos, para cada método, em amostras de lingüiça de carne suína contaminadas artificialmente, 38 do método A e 41 do método B resultaram em NMP (95% de intervalo de confiança) concordante com número de UFC de Salmonella inoculado. A maioria das amostras naturalmente contaminada de massa de embutido apresentaram contagens <10NMP/g. A variabilidade encontrada entre os valores de NMP médio foi bastante elevada, tanto entre os métodos como entre repetições de um mesmo método. Isto reflete uma das limitações do método de NMP para estimar a contagem de microrganismos e deverá ser considerada quando o método for aplicado em alimentos naturalmente contaminados e quando aplicado em um estudo de análise de risco. Uma vez que o método B foi o que demonstrou valores médios de NMP mais próximos das quantidades inoculadas, sugere-se que este seja adotado em estudos futuros de quantificação de Salmonella sp. em produtos de origem suína.
Resumo:
Analisa e compara, sob as óticas de acurácia e custo, os principais métodos numéricos (simulação de Monte carlo, métodos de diferenças finitas, e modelos baseados em lattice para precificação de opções financeiras, exóticas e reais. Aponta as situações onde cada método deve ser empregado, e apresenta os algoritmos necessários para implementação dos métodos numéricos na prática.
Resumo:
Apresenta métodos quantitativos próprios para a discriminação entre grupos, baseados em Análise Discriminante Linear, Regressão Logística, Redes Neurais e Algoritmos Genéticos, dentro do contexto do problema da análise de crédito.
Resumo:
Este trabalho revisa os principais métodos numencos utilizados para reproduzir o comportamento de um índice, implementa quatro desses modelos ao caso brasileiro (Índice Bovespa) e discute a aplicação e os pontos favoráveis e desfavoráveis de cada modelo. Em uma primeira etapa, a vantagem da. administração passiva e a potencialidade de uso de uma carteira espelho são descritas. Em seguida, os modelos de replicação existentes na literatura no tocante a suas respectivas hipóteses, suas derivações matemáticas e suas propriedades teóricas são apresentados. Após essa revisão, os modelos de replicação plena, de carteira de rrururna vanancia global, de Black e de minimização quadrática sem venda a descoberto são implementados. Os resultados são verificados sob os parâmetros de tracking errar, beta, R-quadrado e semelhança de série em relação à média e à variância. A conclusão é de que existem diferentes objetivos ao se replicar um índice e que, para cada um destes objetivos, diferentes abordagens ou ferramentas são adotadas. Por exemplo, o administrador que busca o retorno de um índice de mercado, deve conseguir os melhores resultados utilizando o modelo de replicação plena. Já para aquele que visa arbitragem de índice, através de ativos do mercado à vista, a recomendação é aplicar os modelos que utilizam a otimização quadrática para montar a carteira espelho.
Resumo:
Esta dissertação é apresentada sob a forma de quatro artigos. O artigo I avaliou a concordância e a acurácia no diagnóstico da situação do periápice de molares e prémolares inferiores portadores ou não de patologia periapical. Quarenta radiografias periapicais foram selecionadas, vinte de dentes com vitalidade pulpar e sem radiolucências periapicais e vinte de dentes com necrose pulpar. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas no formato JPEG 12. As imagens digitalizadas foram apresentadas no formato de slides com fundo preto no programa PowerPoint, sendo projetadas em equipamento multimídia para dois grupos de dez observadores, estudantes de pós-graduação de uma mesma instituição de ensino, simultaneamente, com repetição de 20% dos casos. Os observadores apresentaram ampla variação do percentual de concordância entre diagnósticos repetidos, contudo, quando agrupados por especialidade, endodontistas e radiologistas apresentaram percentuais de concordância de 62,50 e 66,25%, respectivamente. Na análise da concordância interobservadores, ambos os grupos apresentaram desempenho semelhante, sendo este superior entre os alunos de radiologia (Kendall´s W= 0,816 e 0,662 respectivamente). Em relação à especificidade, observou-se desempenho idêntico para os dois grupos (70 a 95%), contudo os alunos de radiologia apresentaram sensibilidade ligeiramente superior (70 a 95%). O artigo II verificou, in vitro, se é possível medir com confiabilidade, utilizando a tomografia computadorizada, a distância entre as corticais ósseas e os ápices dentários de molares e pré-molares em mandíbulas humanas secas, além de determinar a relação de proximidade, dos dois grupos, com as corticais. As imagens das peças ósseas foram obtidas por tomografia computadorizada. A partir delas mensurações foram realizadas, por quatro observadores, três não calibrados (A, B e C) e um calibrado (D). A concordância interexaminador, para os observadores A, B e C, assim como a intra para o observador D foram calculadas por meio do Teste de Concordância de Kendall. A partir das médias geradas (observador D) foi calculada a comparação entre os grupos de ápices e as medidas, utilizando os Testes Não-Paramétricos de Kruskal Wallis e Wilcoxon, ambos com a=5%. Uma boa concordância tanto inter quanto intra-examinador foi observada. A tomografia computadorizada mostrou-se reprodutível para a obtenção da distância entre os ápices dentários e as corticais ósseas, tanto na avaliação inter quanto intra-observador. Não foram encontradas diferenças estatisticamente significativas quanto á posição dos ápices de raízes de pré-molares e de molares, contudo os prémolares apresentaram seus ápices significativamente mais próximos da cortical vestibular do que da lingual. O artigo III avaliou o desempenho diagnóstico de radiografias periapicais em diferentes estágios de perda óssea (leve, moderada e severa), digitalmente simulada na região apical. A partir de radiografias trinta ápices dentários de pré-molares e molares inferiores sem radiolucências foram selecionados. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas no formato JPEG 12. Na imagem inicial (original) os sítios apicais selecionados foram demarcados por um quadrado, as mesmas foram digitalmente reproduzidas seis vezes e numeradas em ordem crescente, formando sete conjuntos. A perda óssea foi digitalmente simulada com as ferramentas lápis (modelo mecânico) e spray (modelo químico), com tinta preta, em intensidade de 3%, 5% e 8%. Os pares de imagens (inicial e experimental) e subtrações foram avaliados por três observadores, com repetição de 20% dos casos. O Coeficiente de Correlação de Spearman e o Teste Não Paramétrico de Wilcoxon mostraram uma boa concordância entre a primeira e a segunda medida para os dois modelos, com exceção de um observador. Através da análise das curvas ROC (p> 0,05) observou-se diferença significativa entre os métodos para ambos os modelos nas intensidades de 3% e 5%. Não houve diferença significativa para a intensidade de 8%. A subtração digital qualitativa mostrou desempenho significativamente melhor do que a avaliação de pares de radiografias para ambos os modelos de reabsorção simulada nas intensidades leve e moderada. O artigo IV avaliou, in vitro, os diagnósticos obtidos de pares de radiografias, subtração radiográfica de imagens digitais diretas e digitalizadas em defeitos ósseos periapicais incipientes criados por aplicação de solução ácida. Em quarenta sítios apicais de mandíbulas humanas secas foram criados defeitos ósseos, por meio da aplicação de ácido perclórico 70%, nos tempos 6, 10, 24, 48 e 54 horas. As radiografias convencionais e as imagens digitais diretas foram obtidas duas vezes no tempo zero e, seqüencialmente, antes de cada nova aplicação de ácido. As incidências foram padronizadas fixando os elementos geométricos. As radiografias foram digitalizadas em scanner no modo 8 bits, 300 dpi e armazenadas, assim como as digitais diretas, no formato TIFF. O programa Imagelab foi utilizado para a subtração das imagens digitais indiretas e diretas. A subtração radiográfica das imagens digitalizadas e os pares de imagem digital foram avaliados por um observador experiente, sendo 20% repetidas durante o exame. A análise quantitativa da subtração radiográfica de imagens diretas foi realizada no programa ImageTool. Os resultados das análises qualitativa e quantitativa foram avaliados por meio da ANOVA, sendo a primeira complementada pelo Teste de Comparações Múltiplas Dunnett T3 e a segunda pelo Teste de Tukey, ambos com a=5%. O observador apresentou coeficiente de Kappa = 0,739 para subtração e 0,788 para os pares de imagem. No tempo 0 houve acerto de diagnóstico em 100 e 90% dos casos para subtração e pares de imagem, respectivamente. Nos tempo 6 e 10/24 foram identificadas, para subtração, alterações em 20 e 25% dos casos e para os pares de imagem em 2,5 e 10% dos casos. A proporção de acertos aumentou significativamente nos tempos 48 e 54 horas, tanto para subtração – 80 e 82,5% – quanto para os pares de imagem – 47,5 e 52,5%. A ANOVA evidenciou diferenças estatisticamente significativas entre as áreas controle nos tempos 0/6 e 48/54. Comparando áreas teste e controle, observou-se que aquela apresentou valores médios de densidade óptica significativamente menores nos tempos 24, 48 e 54. Conclui-se que tanto a avaliação qualitativa como a quantitativa de imagens de subtração apresentaram melhor desempenho que a avaliação dos pares de imagem na detecção de defeitos incipientes no periápice.
Resumo:
A identificação antecipada do comportamento da demanda de veículos novos na extremidade da rede de distribuição é imprescindível para implementação de um sistema de produção puxada pela demanda. Previsões confiáveis, obtidas nas concessionárias, conferem aos fabricantes maior sensibilidade diante das peculariedades locais da demanda e reduzem as incertezas da produção em larga escala. A obtenção de previsões consistentes requer, porém, o emprego de métodos formais. Os profissionais responsáveis pela elaboração de previsões nas concessionárias desconhecem, em grande parte, os métodos de forecasting abordados na literatura. Essa dissertação visa o desenvolvimento de um sistema formal para elaboração de previsões de demanda de veículos novos em concessionárias. Em estudo de caso, conduzido em uma concessionária da marca Volkswagen, modelos estatísticos de Box-Jenkins e de suavização exponencial são aplicados para gerar previsões quantitativas das vendas de veículos novos. Previsões qualitativas, correspondentes ao julgamento de especialistas no segmento, são formalizadas através do método Delphi. Finalmente, as previsões quantitativas e qualitativas são combinadas matematicamente e comparadas. Tal comparação demonstra que as vantagens inerentes a cada método podem ser absorvidas para proporcionar previsões mais acuradas.
Resumo:
Apresenta os métodos de avaliação de empresas baseados nos descontos de fluxos de caixa futuros, enfocando dois modelos, o do Fluxo de Caixa Descontado (DCF) e o do Lucro Econômico. Analisa cada um destes modelos em termos de seus componentes e explicita o inter-relacionamento destes últimos. Expõe a importância dos direcionadores de valor, que, entendidos de uma forma mais ampla, incluem, além de ROIC (retorno sobre o capital investido), e (taxa de crescimento) e NOPLAT (lucro operacional líquido já descontado dos efeitos do imposto de renda), o WACC (custo médio ponderado de capital) e o capital investido, entre outros. Apresenta um estudo de caso, tendo uma companhia industrial brasileira de capital fechado como seu objeto. Analisa os resultados deste estudo, principalmente as dificuldades encontradas no processo de cálculo do valor. Relaciona estas dificuldades à natureza do controle de capital fechado da companhia estudada. Extrai conclusões, apresenta algumas limitações e sugere pesquisas e desenvolvimentos futuros