62 resultados para probabilidade de superposição

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese propõe um modelo para descrever o campo de velocidade do vento originado numa tormenta elétrica. O escoamento descendente que ocorre durante uma tormenta elétrica madura é modelado como um campo de fluxo axial simétrico. A evolução da velocidade do vento com o tempo é considerada por meio de uma função de modulação empírica. As flutuações da velocidade ao redor da velocidade média em evolução são representadas por um processo aleatório do tipo ruído branco em faixa. Todos os parâmetros utilizados no modelo estão relacionados a variáveis meteorológicas, tais como a altura e diâmetro da nuvem cumulonimbus causadora do evento, a diferença de pressão e a distância entre o solo e a base da nuvem. Adicionalmente considera-se que a nuvem é transportada numa direção pré escolhida pelo vento de fundo, que pode ser devido à circulação geral na região ou a um ciclone extra-tropical. O campo de velocidades do vento resulta da superposição de ambos campos. O modelo é validado comparando as velocidades do vento determinadas em eventos simulados, com registros de estações meteorológicas. Adicionalmente, perfis verticais previstos pelo modelo são comparados com vários perfis para tormentas elétricas propostos na literatura. Finalmente, séries de velocidade máximas anuais a altura padrão de 10m foram simuladas para três estações meteorológicas no sul do Brasil, para as quais dados experimentais são conhecidos, em termos do número médio de tormentas elétricas por ano e das funções distribuição de probabilidade que caracterizam o vento de fundo. A comparação com séries de registros máximos existentes é satisfatória, dando credibilidade adicional ao modelo proposto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os satélites para sensoriamento remoto atualmente dispoívies à comunidade científica possuem diferenies resoluções espaciais, por exemplo: SPOT 20 e 10 metros, LANDSAT-TM 30 metros e NOA-AVHRR 1100 metros. Essa resolução frequentemente não é grande o suficiente para um grande número de aplicações que necessitam de uma percepção da cena mais detalhada. Muitas vezes, no interior de uma célula de resolução (pixel) mais de uma classe ocorre. Este caso é conhecido como pixel mistura. Na classificação de imagens obtidas por sensoriamento remoto é comum a utilização de metodologias que atribuem somente uma classe a um pixel, como o procedimento clássico da máxima verossimilhança. Esse procedimento resulta frequentemente em uma estimação errônea das áreas ocupadas pelas classes presentes na cena. Em alguns casos, especialmente quando não há uma classe dominante, isto pode ser a fonte de um erro significativo. Desde o início dos anos 70, diferentes metodologias têm sido propostas para o trabalho num nível de subpixel. A grande vantagem do trabalho nesse nível é que um pixel não é necessariamente atribuído a somente uma classe. O pixel tem um grau que o correlaciona a cada classe: de zero(se a classe não ocorre no pixel) até 1 (a classe ocorre no pixel inteiro). Assim, cada pixel tem um vetor associado que estima a proporção de cada classe nele. A metodologia mais comumente utilizada considera a refletância do pixel mistura como uma combinação linear da refletância média de cada classe componente. De acordo com essa visão as refletâncias associadas às classes componentes são consideradas constantes conhecidas i.e., não são variáveis aleatórias. Assim, a proporção de cada classe no pixel é obtida pela resolução de um sistema de equações lineares. Uma outra metodologia é assumir as refletâncias que caracterizam as classes como sendo variáveis aleatórias. Nesta visão, as informações a respeito das distribuições das classes é utilizada. A estimativa das proporções de cada classe é obtida pelo vetor de proporções que maximiza a função de verossimilhança. Mais recentemente, uma visão diferente foi proposta: a utilização da lógica fuzzy. Esta metodologia utiliza o conceito de função de pertinência que é essencial à teoria dos conjuntos fuzzy. Esta função utiliza elementos com natureza estatística ou não para a estimação das proporções. No presente trabalho, duas funções de pertinência foram definidas: a primeira baseada na função densidade probabilidade gaussiana e a segunda baseada diretamente na distância de Mahalanobis. O objetivo deste estudo é avaliar cada uma das metodologias anteriores em termos de acurácia, performance e dados necessários. Para este objetivo, as metodologias foram implementadas computacionalmente e alimentadas com imagens LANDSAT-TM. Para a avaliação da acurácia dos modelos um estudo qualitativo foi executado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um dos modos de avaliar a confiabilidade de um produto é verificando o comportamento das falhas em testes de uso contínuo. Contudo, essa informação não permite saber em que data a falha ocorrerá. Para resolver esse impasse abordamos na presente dissertação a modelagem dos tempos de falha ao longo do calendário. A modelagem desses tempos permite uma melhor administração do sistema de garantia e assistência técnica, além de possibilitar a empresa estimar e monitorar a confiabilidade do produto. Para proceder com a modelagem, é preciso, inicialmente, conhecer a distribuição de três variáveis: o tempo de vida do produto, em horas de uso contínuo; o tempo de uso do produto, em horas por dia; e o intervalo de tempo entre a manufatura e a venda, em dias. Conhecendo o comportamento dessa variáveis duas alternativas de solução são apresentadas: (a) Modelagem via simulação de Monte Carlo e (b) Modelagem através de solução matemática fechada. São discutidos os casos em que há um ou vários grupos de clientes que utilizam o produto.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta o desenvolvimento de uma metodologia para a avaliação de critérios de outorga do uso da água na bacia do rio Santa Maria. A escolha da bacia do rio Santa Maria se deve ao fato da existência de conflitos pelo uso da água, principalmente durante o verão, quando surge a demanda de água para o cultivo do arroz. A carência de dados hidrológicos, a existência de um grande número de pequenos reservatórios e a sazonalidade das demandas fazem da bacia do rio Santa Maria um caso interessante de ser estudado. É comentado o processo de evolução da outorga através das legislações, a situação atual em que se encontra a implementação deste instrumento, quais as tendências e fica estabelecida uma forma de comparação de diferentes critérios. A análise é feita de forma sistêmica (admitindo a bacia hidrográfica como unidade de planejamento) com o uso de modelos matemáticos de avaliação e gestão, particularmente modelos de simulação hidrológica, em conjunto com dados experimentais sobre o efeito de água no rendimento das culturas. A avaliação de diversos valores de outorga levando em consideração bases econômicas como custos de plantio, preços de mercado dos produtos e recorrência das falhas de atendimento associada à probabilidade de ocorrência de rendimentos líquidos não negativos revela um modelo de utilização otimizado dos recursos hídricos superficiais da bacia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os primeiros estudos sobre previsão de falência foram elaborados por volta da década de 30. Entretanto, o assunto só ganhou impulso a partir da utilização de técnicas estatísticas, ao longo dos anos 60. No Brasil, os primeiros trabalhos sobre o assunto datam dos anos 70. A esse respeito, vale destacar que a técnica estatística empregada em grande parte destes estudos foi a análise discriminante linear multivariada. Na tentativa de contribuir para o tema, este trabalho se propõs a testar um modelo de previsão de concordatas de empresas de capital aberto, a partir da modelagem desenvolvida por Cox (1972). Esse modelo se diferencia daqueles estimados a partir de técnicas logit, probit e análise discriminante na medida em que fornece não apenas a probabilidade de que um determinado evento ocorra no futuro, mas também uma estimativa do tempo até sua ocorrência. A análise dos resultados demonstrou que é possível identificar, antecipadamente, o risco de concordata de uma empresa de capital aberto. Nesse sentido, acredita -se que o modelo de Cox possa ser utilizado como auxiliar na previsão de concordatas de companhias abertas operando na Bolsa de Valores de São Paulo – Bovespa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta uma metodologia para a geração automática de ASICs, em VHDL, a partir da linguagem de entrada Java. Como linguagem de especificação adotou-se a Linguagem Java por esta possuir características desejáveis para especificação a nível de sistema, como: orientação a objetos, portabilidade e segurança. O sistema é especificamente projetado para suportar síntese de ASICs a partir dos modelos de computação Máquina de Estados Finita e Pipeline. Neste trabalho, adotou-se estes modelos de computação por serem mais usados em sistemas embarcados As principais características exploradas são a disponibilização da geração de ASICs para a ferramenta SASHIMI, o alto nível de abstração com que o projetista pode contar em seu projeto, as otimizações de escalonamento realizadas automaticamente, e o sistema ser capaz de abstrair diferentes modelos de computação para uma descrição em VHDL. Portanto, o ambiente permite a redução do tempo de projeto e, consequentemente, dos custos agregados, diminuindo a probabilidade de erros na elaboração do projeto, portabilidade e reuso de código – através da orientação a objetos de Java – podendo-se proteger os investimentos prévios em desenvolvimento de software. A validação desses conceitos foi realizada mediante estudos de casos, utilizando-se algumas aplicações e analisando os resultados obtidos com a geração dos ASICs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O estado dos recursos hídricos da bacia do rio Gramame, localizada no litoral sul do Estado da Paraíba, tem se revelado insustentável, principalmente nesses últimos anos. Tanto a escassez quantitativa quanto a qualitativa inserem-se no contexto da bacia, tornando frreqüentes os conflitos entre os principais usuários de água (abastecimento urbano, indústrias e irrigantes). Em virtude disso, surge a necessidade de implementação de um sistema de outorga na bacia, para uma alocação eficiente das disponibidades hídricas. Neste trabalho, foram abordados os principais problemas para essa implementação: (a) a definição da vazão m[axima outorgável; e (iii) a intrtodução dos aspectos qualitativos da água. Par ao primeiro problema, foram estabelecidos e avaliados como passíveis de emprego na bacia os seguintes critérios de outorga: (a) vazão excedente; (b) garantia de suprimento; (c) vazão de referência com probabilidade de superação de 90% (Q90); (d) 2 vazões de referência Q90 para as estações seca e chuviosa e (e) 12 vazões de referência Q90 referentes a cada mês do ano. No tocante à qualidade da água no processo de outorga, foi verificada a sensibilidade do sistema hídrico e suas demandas à consideração dos poluentes lançados nos cursos dágua da bacia como demanda para diluição da concentração de Demanda Bioquímica de Oxigênio (DBO). ALém disso, foi abordado, de forma simplificada, o processo de autodepuração da DBO, através de coeficientes de depuração, visando avaliar a relevância das vazões liberadas para novoo usos nas seções à jusante dos deesejos de efluentes. Através da comparação dos parâmetros de desempenho (garantia volumétrica, garantia temporal, garantia crítica temporal, garantia volumétrica mensal mínima, resiliência e vulnerabilidade) obtidos da simulação de cada cenário da bacia, de ocorrência em curto prazo, foram avaliados os critérios de outorga e a introdução da qualidade da água. Priorizando o atendimento das demandas para abastecimento urbano, em ordem crescente de redução do suprimento das demandas existentes na bacia, os critérios de determinação da vazão máxima outorgável puderam ser ordenados como: vazão excendente, vazões de referência mensais, vazões de referência das estações seca e chuvosa, vazão de referência única e garantia de suprimento. Quanto à consideração das demandas para diluição de despejos, verificou-se que, de modo geral, estas poucos reduziram o suprimento das demandas já instaladas na bacia e também não foram significativas as vazões liberadas pela autodepuração a ponto de melhorar o atendimento das seções por ela afetadas. Entretanto, excetuando a demanda para diluição dos efluentes domésticos do município do Conde, foi verificada a inviabilidade de suprimento dos atuais lançamentos de efluentes na bacia, cujo percentual de atendimento não atingiu 50% do volume requerido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hipotetiza-se que haja sinergismo na associação de herbicidas inibidores do fotossistema II e da síntese de carotenóides, pelos seus mecanismos de ação específicos. Com o objetivo de demonstrar a existência de sinergismo na associação de herbicidas pertencentes a estes dois grupos foram conduzidos trabalhos em laboratório, casa-de-vegetação e a campo. Em laboratório avaliou-se a interação de metribuzin e clomazone através da estimativa do estresse oxidativo gerado pela associação, em plantas de girassol, com a determinação dos níveis de malondialdeído e extravasamento eletrolítico. Em casa-de-vegetação, plantas de girassol foram tratadas com os mesmos herbicidas e foram tomadas amostras para eletromicrografias que produziram visualização dos cloroplastos tratados e não tratados. Também foram aplicados tratamentos a fim de permitir a formação de curvas de resposta às doses dos mesmos herbicidas, com a representação das doses causadoras de 50% de efeito em isobologramas. Avaliou-se também o impacto da associação metribuzin e clomazone sobre as relações de interferência entre soja e girassol, pelo delineamento dialélico A campo foram conduzidos experimentos de controle de Bidens pilosa infestando a cultura da soja com os herbicidas metribuzin e clomazone. Para avaliar a seletividade das associações, conduziu-se experimentos com a cultura da soja, onde testou-se metribuzin e clomazone e com a cultura do milho, testando-se atrazine e isoxaflutole. Nos trabalhos com malondialdeído, extravasamento eletrolítico e eletromicrografias, obteve-se sinergismo valendo-se do método de Colby. No ensaio de curvas de resposta, a variável massa seca apresentou probabilidade de sinergismo de 0,90 em uma combinação. No dialélico, a associação dos produtos reduziu a tolerância da soja ao metribuzin e à sua associação com clomazone. No controle de B. pilosa, as variáveis percentual de cobertura e controle demonstraram sinergismo pelo método de Limpel. Na avaliação de seletividade, não se observou nenhum dano resultante da associação dos herbicidas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A utilização de uma emergência por pacientes com problemas médicos eletivos contribui para a demanda excessiva e impede de acesso a pacientes com emergência verdadeira. O presente estudo se propôs: (1) investigar as características do usuário da emergência em relação a aspectos demográficos, local de moradia e tempo que apresenta os sintomas que o levaram a consultar; (2) identificar as diferenças da demanda entre o final de semana e durante a semana; (3) investigar a prevalência de saúde mental, alcoolismo, doença coronariana e hipertensão; (4) avaliar como é a utilização e o acesso a serviços de saúde para pacientes que referem ter um médico definido em comparação com quem refere não ter; (5) avaliar a satisfação dos pacientes com o atendimento na emergência e (6) verificar se o atendimento através de um médico definido ou em serviço de atenção primária em saúde diminui o afluxo de casos não urgentes aos serviços de emergência. Foi realizado um estudo transversal na Emergência do Hospital N.S. da Conceição de Porto Alegre (RS) no período de 6 de janeiro a 25 de junho de 1996, tendo sido incluídos 20 dias escolhidos entre o meio-dia de sábado e o meio-dia de domingo, para caracterizar a demanda do final de semana, e o meio-dia de segunda-feira e meio-dia de terça-feira, para a dos outros dias. Fizeram parte da amostra 553 pacientes selecionados através de amostragem aleatória sistemática, com uma taxa de resposta de 88%. A coleta de dados consistiu de questionário de 156 questões aplicado aos pacientes. O registro e análise dos dados foram realizados utilizando-se os programas Epi-Info, EGRET e SPSS. As análises incluíram tabulações simples para determinação de prevalência das condições investigadas e regressão logística para avaliar o efeito conjunto das variáveis independentes sobre cada uma das variáveis dependentes. A população que freqüenta a emergência do HNSC é composta de jovens, predominantemente do sexo feminino, mora em Porto Alegre (especialmente, no bairro Sarandi) e na Grande Porto Alegre (especialmente, Alvorada), desloca-se preferencialmente de ônibus até o serviço de emergência, vem acompanhada, na maioria das vezes, de algum familiar, e a maioria decide consultar por iniciativa própria ou por indicação de algum familiar. Os homens internam com maior freqüência. Os serviços de atenção primária representaram 23% do atendimento habitual dos pacientes. As consultas foram definidas pelos emergencistas como de emergência em 15% dos casos, de urgência em 46%, e programáveis em 39% poderiam ser programadas. A prevalência de hipertensão foi 19%; de angina, 13%; de alcoolismo, 16%; de problema psiquiátrico menor, 32% entre os homens e 51% entre as mulheres (p< 0,0001). Como desfecho da consulta, 73% dos pacientes foram encaminhados para o domicílio ou para um serviço especializado, 10% foram para sala de observação e para apenas 5% foi indicada a internação. A maioria dos pacientes referiram estar satisfeitos com o atendimento. Os que consultaram no final de semana apresentaram, em média, um tempo menor de sintomas até decidir consultar, um menor tempo de deslocamento até o serviço de emergência, maior satisfação, média de idade maior, maior proporção de moradores de Porto Alegre e foram levados de carro até a emergência mais do que aqueles que consultaram durante a semana. O modelo de regressão logística identificou as variáveis independentes determinantes de ter um médico definido: consulta habitual em atenção primária em saúde (RC=3,22 IC95%=2,04-5,09), consulta definida como emergência ou urgência (RC=2,46 IC95%=1,55-3,92) e afastamento do trabalho (RC=1,59 IC95%= 1,03-2,45). Este resultado demonstra que o paciente que habitualmente consulta em serviços de atenção primária tem mais probabilidade para ter a continuidade no atendimento. A consulta ser de emergência ou de urgência apresentou associação significativa com as seguintes variáveis independentes, após ser colocada num modelo de regressão logística: pacientes internados ou em observação (RC=5,80 IC95%=3,33-10,17), costume de consultar com o mesmo médico (RC=2,98 IC95%=1,84-4,80) e ida de carro até a emergência (RC=2,67 IC95%=1,75-4,05). A variável hábito de consultar em serviço de atenção primária deixou de ficar estatisticamente significativa ao ser colocada no modelo de regressão logística. Este resultado revela que pacientes com médico definido têm três vezes mais chances de consultar por um problema de emergência no serviço de emergência do que aqueles que não têm um médico definido. Assim, uma estratégia para reduzir a ocorrência de consultas não urgentes em serviços de emergência é o paciente ter tal vínculo. No entanto, aqueles pacientes que referiram o posto de saúde como local onde habitualmente consultam não evitam, necessariamente, a utilização de um serviço de emergência por motivo considerado como programável. É necessário otimizar o atendimento de pacientes com problemas não urgentes que chegam à emergência através de estratégias no nível de atenção primária – especialmente possibilitando o atendimento médico continuado -, onde uma abordagem integral com ênfase na prevenção garanta um atendimento de melhor qualidade e custo menor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Setor Metal-Mecânico da indústria de Caxias do Sul, a exemplo da indústria nacional, apresentou variações positivas de produtividade da mão-de-obra para todos os seus gêneros produtivos, no período 1995/2000. No entanto, as taxas de crescimento oscilaram significativamente entre os gêneros, indicando a existência de diferenças de desempenho entre eles. O desempenho das empresas depende da eficiência do emprego da tecnologia de produção e as diferenças podem estar associadas às mudanças organizacionais, decorrentes da reestruturação produtiva motivada pela abertura comercial, e levadas a cabo pela adoção de medidas que busquem a qualificação dos processos produtivos das empresas para aumentar a competitividade nos mercados interno e externo. Buscou-se, nesse estudo, mensurar a eficiência técnica do setor Metal- Mecânico de Caxias do Sul, analisando a evolução dos seus níveis, no período 1995/2000, e a capacidade das medidas de qualificação adotadas em aumentar a eficiência das empresas. Para tanto, utilizou-se a técnica da estimação da função de produção de fronteira, a partir da qual se estimaram os níveis de eficiência técnica dos gêneros produtivos do Setor. Além disso, avaliou-se a capacidade das medidas de qualificação em aumentar a probabilidade das empresas obterem eficiência, através da estimação de um modelo probit. Constatou-se que a eficiência técnica dos gêneros produtivos do Setor é alta e seus níveis se elevaram, significativamente, no período 1995/2000. Ao mesmo tempo, constatou-se que o treinamento de mão-de-obra, a busca de assessoria/consultoria externa, a exigência de certificação de qualidade para fornecedores e a importação de matérias-primas são medidas que aumentam a probabilidade das empresas do Setor se tornarem mais eficientes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A teoria da utilidade esperada (EU) é a teoria da decisão mais influente já desenvolvida. A EU é o core da teoria econômica sob incerteza, presente na maior parte dos modelos econômicos que modelam situações de incerteza. Porém, nas últimas três décadas, as evidências experimentais têm levantado sérias dúvidas quanto à capacidade preditiva da EU – gerando grandes controvérsias e uma vasta literatura dedicada a analisar e testar suas propriedades e implicações. Além disso, várias teorias alternativas (teorias não-EU, geralmente, generalizações da EU) têm sido propostas. O objetivo deste trabalho é analisar e avaliar a teoria da utilidade esperada (objetiva) através de uma revisão da literatura, incorporando os principais conceitos desenvolvidos ao longo do tempo. Além disso, este trabalho desenvolve algumas análises originais sobre representação gráfica e propriedades da teoria da utilidade esperada. O trabalho adota uma perspectiva histórica como fio condutor e utiliza uma representação da incerteza em termos de loterias (distribuições de probabilidade discretas). Em linhas gerais, o roteiro de análise do trabalho é o seguinte: princípio da expectância matemática; Bernoulli e a origem da EU; teoria da utilidade sem incerteza; axiomatização da EU; representação gráfica e propriedades da EU; comportamento frente ao risco; medidas de aversão ao risco; dominância estocástica; paradoxos da EU e a reação dos especialistas frente aos paradoxos A conclusão é que existem fortes evidências experimentais de que a EU é sistematicamente violada. Porém, a existência de violações não foi ainda suficientemente testada em experimentos que permitam o aprendizado (tal como pode ocorrer em situações de mercado), onde existe a possibilidade de que as preferências evoluam e que haja uma convergência de comportamento para a EU (ainda que esta possibilidade não se aplique a situações singulares ou que ocorram com pouca freqüência). É possível que testes deste tipo venham a confirmar, em maior ou menor grau, as violações da EU. Mas mesmo que isto ocorra, não significa que a EU não seja útil ou que deva ser abandonada. Em primeiro lugar, porque a EU representou um grande avanço em relação ao princípio da expectância matemática, seu antecessor. Em segundo lugar, porque a EU implica em uma série de propriedades analiticamente convenientes, gerando instrumentos de análise bastante simples (de fato, permitiu a explicação de numerosos fenômenos econômicos), contrastando com a maior complexidade envolvida com o uso das teorias não-EU. Neste cenário, faz mais sentido pensar na EU sendo eventualmente complementada por teorias não-EU do que, sendo abandonada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Quantificação de incerteza e risco tem aplicação direta no projeto de limites de cava e na programação de produção. Pequenas variações nas condições de contorno de um projeto podem ter impacto significativo sobre o retorno final do mesmo na ordem de milhões de dólares. Preço de mercado do bem mineral, o custo de capital, taxas de atratividade, etc, são fatores usualmente testados para analisar a viabilidade de um empreendimento, porém, raramente é considerada a incerteza relacionada ao atributo geológico em questão. O propósito de um planejamento de lavra tem sido prover subsidio para o engenheiro de minas decidir sobre a capacidade de minerar determinadas unidades de lavra do depósito a partir de teores estimados. Salienta-se porém que existe, a partir dos dados amostrais, incertezas a respeito do modelo geológico que devem ser consideradas ao se projetar uma cava e desenvolver a lavra. A simulação geoestatistica tem a capacidade de produzir múltiplos modelos equiprováveis, os quais podem ser avaliados independentementecomo possíveis cenários do depósito mineral. Simulação condicional, ao contrário de técnicas de interpolação e estimativa, provê respostas para questões associadas a risco devido à variações nos teores do modelo geológico. Ao gerar múltiplos cenários tem-se acesso à probabilidade e conseqüentemente às variações de retorno financeiro e rotas de extração de minério de um projeto. o presente trabalho tem como objetivo a investigação de novas metodologias que contribuam para a construção de cenários de planejamento de lavra e avaliação do impacto provocado nestes pela incerteza fornecida a partir de modelos simulados. As respostas buscadas dentro da abordagem sugerida por esse trabalho, compreendem a definição de uma metodologia para controle e planejamento de lavra a médio e longo prazo por incorporação da flutuabilidade local associada ao minério, avaliando a sensibilidade do retorno financeiro e o traçado de lavra em relação ao método de geração do modelo geológico de teores. Para solucionar o problema em questão, sugere-se a geração de modelos estocásticos e a alimentação de múltiplos modelos selecionados por critérios considerados relevantes para a delimitação do espaço de incerteza. A aplicação de funções de transferência tais como mudança de suporte e seqüenciamento de produção sobre os modelos simulados é a chave para a obtenção de respostas a respeito do impacto sobre a lucratividade de um projeto. Ao alimentar à essas funções modelos equiprováveis que preservam as características estatísticas e a conectividade espacial dos dados amostrais mas que invariavelmente possuem diferentes distribuições de teores tem-se a dimensão em termos econômicos do risco associado à incerteza geológica. Foi confrontado o retorno financeiro produzido por modelos simulados e verificou-se para o caso especifico que os métodos de simulação geoestatistica empregados não produziram diferenças significativas quando comparados casos selecionados segundo os mesmos critérios. Porém, entre cenários extremos gerados pelo mesmo algoritmo de simulação foram verificadas desigualdades relevantes. Verificou-se também a transferência de minério entre diferentes classes de qualidade ao proceder-se com variações nas dimensões dos blocos de lavra.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho objetivou a realização de um estudo de caso sobre o tema risco de crédito. Avaliou-se o risco de crédito sob dois vetores: o risco esperado e o risco não esperado. Procede-se então a uma revisão dos principais modelos de gestão da carteira de crédito destacando-se suas características, aplicações e limitações. O modelo da autarquia é comparado aos modelos utilizados pelo mercado, os quais são apresentados em grau crescente de complexidade. O modelo de mercado utilizado neste trabalho foi constituído a partir do credit scoring, uma ferramenta estatística de pontuação de créditos derivada da aplicação da técnica estatística denominada Análise Discriminante. Este modelo resultou na boa discriminação dos clientes com necessidades emergenciais de empréstimos (bons clientes) dos clientes com situação financeira precária (maus clientes) possibilitando uma boa prevenção da probabilidade de inadimplência. A partir das classes de risco constituídas foi possível a aplicação da análise de portfolio para o cálculo da perda potencial na carteira. Assim, por meio de um estudo de caso, realizado em uma instituição financeira brasileira foram comparadas as medidas de capital e de risco de crédito estabelecidos pelo Banco Central do Brasil, através das resoluções 2.099/94 e 2.682/99, com as medidas calculadas a partir de um modelo de credit scoring. Essa comparação resultou na avaliação da eficácia da norma quanto à mensuração do risco em carteiras de crédito. Os resultados apontam o conservadorismo da autarquia no cálculo desses saldos, penalizando a instituição financeira analisada ao exigir a constituição de provisão e patrimônio líquido mínimo acima do que seria necessário. O risco calculado a partir do modelo de credit scoring para uma carteira de crédito direto ao consumidor foi cerca de 20% inferior aos montantes calculados pelo Banco Central do Brasil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho é dedicado ao estudo e à aplicação da mineração de regras de associação a fim de descobrir padrões de navegação no ambiente Web. As regras de associação são padrões descritivos que representam a probabilidade de um conjunto de itens aparecer em uma transação visto que outro conjunto está presente. Dentre as possibilidades de aplicação da mineração de dados na Web, a mineração do seu uso consiste na extração de regras e padrões que descrevam o perfil dos visitantes aos sites e o seu comportamento navegacional. Neste contexto, alguns trabalhos já foram propostos, contudo diversos pontos foram deixados em aberto por seus autores. O objetivo principal deste trabalho é a apresentação de um modelo para a extração de regras de associação aplicado ao uso da Web. Este modelo, denominado Access Miner, caracteriza-se por enfocar as etapas do processo de descoberta do conhecimento desde a obtenção dos dados até a apresentação das regras obtidas ao analista. Características específicas do domínio foram consideradas, como a estrutura do site, para o pósprocessamento das regras mineradas a fim de selecionar as potencialmente mais interessantes e reduzir a quantidade de regras a serem apreciadas. O projeto possibilitou a implementação de uma ferramenta para a automação das diversas etapas do processo, sendo consideradas, na sua construção, as características de interatividade e iteratividade, necessárias para a descoberta e consolidação do conhecimento. Finalmente, alguns resultados foram obtidos a partir da aplicação desta ferramenta em dois casos, de forma que o modelo proposto pôde ser validado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A cintilografia com radioisótopos em repouso tem despertado muito interesse nos últimos anos para pesquisa da viabilidade miocárdica na disfunção isquêmica avançada do VE, porque esta pode ser reversível e porque há melhora prognóstica neste contexto. O objetivo desse trabalho é buscar identificar a acurácia da cintilografia tomográfica Tc-99m-Sestamibi, sob a infusão de dobutamina em baixa dose. Foram protocolados trinta pacientes que sofreram um infarto do miocárdio com padrão “Q”, com dissinergia ao ecocardiograma, e submetidos a estudos perfusionais em dias diferentes, com Tc-99m-Sestamibi − dobutamina e Tl-201 em repouso-redistribuição 4 horas, usado como padrão ouro. Não ocorreram complicações com nenhum paciente submetido ao protocolo do estudo. Os resultados revelaram: sensibilidade = 85%, especificidade = 87%, valor preditivo positivo = 96%, valor preditivo negativo = 65 % e acurácia de = 85,2%. A razão de probabilidade positiva foi de 6,68 e a razão de probabilidade negativa de 0,17. Confrontando-se nossos dados com uma metanálise de resultados para o Tc-99m-Sestamibi em repouso, a sensibilidade no presente estudo foi 85% vs. 81% e a especificidade de 87% vs. 60%. Em relação aos dados da literatura para Tl-201: 85% vs. 90% e 87% vs. 54%, sensibilidade e especificidade, respectivamente. Em conclusão, o Tc-99m-Sestamibi sob a infusão de dobutamina parece ser um método promissor para detectar viabilidade superior a esta modalidade de cintilografia em repouso, com valores preditivos comparáveis à literatura disponível para esse mesmo método: 85,2% vs. 87%, 96% vs. 90% e 65% vs. 83%, para acurácia, valor preditivo positivo e valor preditivo negativo, respectivamente.