1000 resultados para Modelagem e simulação
Resumo:
Construção de software com qualidade tem motivado diversas pesquisas na área de Engenharia de Software. Problemas como a grande complexidade requerida pelas aplicações atuais e a necessidade de gerenciamento de um número cada vez maior de pessoas envolvidas em projetos são obstáculos para serem transpostos. Trabalhos relacionados a tecnologia de processos de software aparecem como uma proposta para se obter maior controle das atividades realizadas com o intuito de se obter maior qualidade. A simulação de processos de software, através da representação dos passos definidos em um modelo, tem sido utilizada no auxílio a gerentes de projetos de sistemas para fornecer-lhes informações preciosas sobre o desenvolvimento de um sistema especificado. A representação de conhecimento a respeito das características relacionadas a um ambiente de desenvolvimento ajuda na obtenção de simulações mais realísticas. A partir do modelo, o simulador obtém uma descrição do ambiente em que deve atuar, baseado no conhecimento que se tem a respeito do ambiente. Esse trabalho apresenta um modelo de simulação de processos de software baseado em conhecimento para ser inserido em um ambiente de engenharia de processos de software. A função do modelo é simular um processo de software instanciado, procurando detectar inconsistências no mesmo que possam gerar problemas durante a sua execução, como aumento de custos e comprometimento da qualidade do(s) produto(s) obtido(s). Após a simulação o projetista pode constatar a necessidade de se refazer o modelo, ajustar parâmetros ou executar o processo de software. O objetivo da simulação, nesse trabalho, é auxiliar as pessoas responsáveis por um ambiente de desenvolvimento a obter modelos de processos validados. O modelo de simulação foi definido para ser utilizado no ambiente PROSOFT, que é um ambiente de desenvolvimento que permite a integração de novas ferramentas para desenvolvimento de software. O ambiente PROSOFT vem recebendo propostas de extensão que tem contribuído para o seu aprimoramento, fornecendo para seus usuários uma quantidade cada vez maior de ferramentas de auxílio a construção de artefatos de software. As propostas mais recentes foram um modelo para construção de sistemas especialistas, a definição de um ambiente cooperativo e um gerenciador de processos de software. ATOs algébricos (construções do PROSOFT) são utilizados para especificar formalmente o modelo de simulação definido neste trabalho. A validação é realizada através de um modelo em UML (Unified Method Language) que foi utilizado como base para a construção de um programa implementado usando a linguagem Java. Isso ocorre porque a ferramenta do PROSOFT (implementada em Java) que seria utilizada para validar as especificações algébricas ainda não está finalizada.
Resumo:
Neste estudo investigam-se as possibilidades de Cenários Educacionais Informatizados como alternativas estratégicas de uso de produtos da tecnologia informática para o desenvolvimento de processos cognitivos. São propostos indicadores de aprendizagem na forma de Pegadas Cognitivas. Tais Pegadas são o resultado gráfico de uma distribuição espacial de pontos correspondentes aos indicadores de aprendizagem e suas dimensões nos cenários pesquisados. Em cada caso, a “pegada” resulta da ligação entre tais pontos, formando um diagrama onde a disposição dos indicadores, comparando-se as situações ideal e real, permitiu avaliar o desvio em que se encontra a situação real, comparativamente à situação ideal. Sua construção permitiu simbolizar a provisoriedade de cada situação de aprendizagem e inspirar ações para as correções que se fizerem necessárias. Utilizaram-se: software de modelagem computacional – Modellus; espaços virtuais de comunicação – chat, e-mail, listas de discussão, whiteboard, forms, entre outros; Mapas Conceituais/Mentais; imagens e representações; ações ligadas às atividades endógenas permanentes dos aprendizes em função de seu imaginário e dos espaços virtuais e recursos da telemática em atividades de aprendizagem, na área de físico-química, visando ao estudo de como ocorrem as reações químicas. A partir dos resultados obtidos realizou-se o confronto entre as possibilidades reais do ambiente com o imaginado, sobre o tema, por alunos do ensino médio que integram o grupo denominado Grupo Imagem. O caminho que representa a linha mestra deste referencial teórico encontra-se nas Ciências Cognitivas no que se refere às questões relativas às formas de representação, às estratégias cognitivas utilizadas pelo sistema humano de processamento de informação e às aplicações de modelagem computacional em situações de aprendizagem. Considerou-se uma abordagem que leva em conta arquiteturas cognitivas e influências do meio ambiente sobre a capacidade humana de aprender. Aprender no sentido de assimilar novas informações, armazená-las e, ao acessá-las, desenvolver estratégias cognitivas que promovam a evolução das estruturas do conhecimento, numa dinâmica caracterizada pela inovação, pela capacidade humana de estar constantemente em mudança, através de ações situadas, contextualizadas, na Sociedade da Informação, geradora da Sociedade do Conhecimento. Tal sociedade impõe desafios a ser enfrentados com estratégias que permitam a todos, independente de sua situação na escala social, a acessibilidade e a mobilidade informacional e de tecnologias cada vez mais especializadas em todas as áreas, sejam acadêmicas, econômicas ou de bem-estar pessoal que produzam não apenas a mundialização de recursos materiais e físicos, mas que incluam as diferenças de pensamentos e ações que permitem aos seres humanos serem individuais e únicos em sua essência. A Aprendizagem à Distância – AAD – utilizada neste fazer investigatório evidenciou competência para solucionar as dificuldades relativas à flexibilidade dos programas disponíveis para compor cenários educacionais que privilegiem a aprendizagem significativa, em escolas de ensino médio, por exigirem novos posicionamentos e novas habilidades de educandos e de educadores. Entre as habilidades de aprendizagem individual e coletiva que os aprendizes devem possuir ou desenvolver para cooperar com o grupo em AAD, destacam-se: autonomia, responsabilidade, liderança, capacidade para negociação e decisão, capacidade de inferência, dedução, possibilidade de realização de análise e síntese, regras de conduta que permitam a convivência e as trocas de conhecimentos.
Resumo:
Neste trabalho é apresentado o desenvolvimento de um programa para cálculo de campos eletromagnéticos baseado no método das Diferenças Finitas no Domínio do Tempo (FDTD). Este programa é aplicado no cálculo da Taxa de Absorção Específica (SAR) na cabeça de um usuário de transceptores portáteis como os telefones celulares. Como introdução ao problema é realizada uma revisão dos efeitos biológicos e das recomendações para a exposição humana a radiofreqüências e microondas. Os principais resultados obtidos com simulações realizadas com o programa desenvolvido. São mostrados e comparados com os resultados simulados e medidos por outros autores, assim como com as recomendações nacionais e internacionais. A título de recomendação final e como alternativa visando minimizar os riscos que a absorção do campo pode representar para a saúde dos usuários, é proposta a utilização de antenas que emitem mais no sentido oposto à cabeça. Este conceito é testado com o desenvolvimento de uma antena simples em microstrip.
Resumo:
Novas centrais térmicas utilizam carvão ROM (Run of mine) na sua alimentação. Sem o processamento do minério as flutuações de qualidade do carvão serão transferidas da mina para o consumidor final. Freqüentemente, contratos entre produtor-consumidor estabelecem limites pré-estabelecidos de parâmetros geológicos e tecnológicos como enxofre, cinzas e poder calorífico. Lotes de minério com qualidade fora dos limites estabelecidos podem ser rejeitados ou penalizados. O custo elevado dessas penalizações recomenda a homogeneização do minério ROM. As principais estratégias de homogeneização são as baseadas em técnicas geoestatísticas, as pilhas de homogeneização e as usinas de beneficiamento ou metalúrgicas. A estratégia de homogeneização baseada em técnicas geoestatísticas apresenta os menores custos de implementação, no entanto o conhecimento do depósito deverá ser fundamental. Tradicionalmente, essa estratégia de homogeneização utiliza um modelo de blocos gerado por um estimador tradicional, geralmente krigagem ordinária. A estimativa dos blocos por krigagem não considera a incerteza associada ao modelo geológico, não sendo adequada para prever flutuações locais Diferente da krigagem, os métodos de simulação geoestatística têm como objetivo reproduzir a variabilidade in situ e a continuidade espacial dos dados originais. Uma vez que os teores e sua variabilidade são estimados, flutuações da qualidade do minério podem ser previstas para determinada rota de lavra e certo tamanho de lote entregue ao consumidor. Diferentes tamanhos de lote são testados a fim de obter-se o controle das flutuações da qualidade do minério. Este trabalho apresenta um procedimento para acessar a variabilidade dos teores e predizer a sua flutuabilidade para diferentes tamanhos de lote em um estudo de mineração subterrânea de carvão no sul do Brasil. Simulação geoestatística e planejamento de lavra apropriado proporcionam uma solução para o problema de homogeneização de minérios.
Resumo:
Este trabalho apresenta simulações físicas de correntes de densidade não conservativas em canal bidimensional e tridimensional. Primeiramente, foram desenvolvidas a seleção e caracterização de materiais granulares, bem como a classificação de tamanhos de grãos adequados capazes de simular tais correntes. Foram desenvolvidas também, metodologias de ensaios, abordando os detalhes como a preparação de materiais, equipamentos e instalações. Como resultados foram selecionados cinco materiais para as simulações, a areia (0,125mm a 0,063mm); os calcários B e C (0,125mm a 0,063mm) e os carvões 205 e carvão 207 (0,354mm a 0,063mm). Através de ensaios por fluxo contínuo de material, caracterizado por uma injeção de mistura durante um período de tempo, foram estudados as características geométricas, dinâmicas e os padrões de deposição destas correntes. Nestes ensaios foram variados o material granular e seu tamanho de grão utilizado na mistura e a concentração da mistura. Observou-se que: a velocidade da corrente aumenta à medida que a massa específica/concentração da mistura aumenta; que à medida que o tamanho do grão diminui, para um mesmo material com a mesma massa específica na mistura, a velocidade aumenta; a altura da cabeça da corrente aumenta à medida que a massa específica/concentração da mistura diminui; a distribuição dos volumes de depósitos apresentou uma tendência geral, com acúmulo de material, da ordem de 90%, nas regiões mais proximais do canal (0-75cm) e acúmulo de material, da ordem de 5%, canal nas regiões mais distais do canal (150-250cm). A distribuição dos grãos indica que o tamanho dos grãos vai diminuindo com a distância, estando as frações maiores (correspondentes a areia fina) presentes nas zonas mais proximais do canal (até 50cm) e com os grãos mais finos chegando até as regiões mais distais do canal (250cm). Foi avaliada, também, a influência da vazão inicial e do volume total de material sobre o desenvolvimento e depósitos das correntes de densidade não conservativas. As características medidas foram a evolução e as velocidades da corrente, além da espessura, granulometria e formas de fundo dos depósitos gerados. Como resultados foi verificado que a velocidade de avanço, espessuras, formas de fundo e distribuição granulométricas do material estão intimamente mais ligada à vazão de entrada do que ao volume total. Nota-se que, a vazão condiciona a tendência geral da evolução da corrente (padrão de variação da velocidade e da deposição) e as formas de fundo, enquanto que o volume de material injetado é responsável apenas pela magnitude dessas variações.
Resumo:
Substâncias carcinogênicas são diariamente lançadas no meio ambiente, tanto na atmosfera quanto em corpos hídricos. Estas são capazes de ligar-se a proteínas constituintes de tecidos vivos produzindo um carcinoma, cuja probabilidade de formação depende da afinidade do poluente com os grupos funcionais presentes nos substratos protéicos. Contudo, os mecanismos pelos quais ocorre a formação do carcinoma não estão totalmente esclarecidos. Alguns modelos baseados em propriedades moleculares foram formulados na tentativa de prever quais serão os mecanismos, compostos intermediários e produtos finais de reação. Porém, esses modelos apresentam sérias limitações por não levarem em conta a dinâmica do processo reativo. Para que se possa estimar os mecanismos, é preciso detectar a formação ou ruptura de ligações ao longo do tempo, o que torna necessário utilizar modelos transientes. O presente trabalho apresenta um modelo que resolve a equação de Schrödinger dependente do tempo para verificar qual o mecanismo de reação entre uma substância carcinogênica e um aminoácido. A simulação do cenário transiente proposto requer um baixo tempo de processamento e possibilita uma fácil interpretação dos resultados obtidos.
Resumo:
A produção de soja é uma das principais atividades econômicas na Região Noroeste do Estado do Rio Grande do Sul. As perdas de produto em condições de comercialização ocasionadas nas atividades de secagem e armazenamento são significativas, justificando a pesquisa e aprimoramento destes processos. Nesta tese foram pesquisados dois problemas: 1. Modelamento matemático dos processos de secagem, utilizando parâmetros conhecidos de soja e 2. Modelamento matemático do problema de aeração para o cálculo da distribuição da pressão e da velocidade do ar na massa de grãos em unidades de armazenamento de soja. No problema de secagem foi desenvolvido um sistema composto de quatro equações diferenciais parciais hiperbólicas acopladas não-lineares, que descreve o comportamento da temperatura e do teor de umidade do ar e dos grãos em função do tempo. Para resolver o sistema foram utilizados os métodos das diferenças finitas (p. ex., métodos de MacCormack e Crank- Nicolson.) e o método dos volumes finitos. A análise dos resultados permitiu recomendar o método mais adequado para cada tipo do problema. Para determinação da intensidade do fluxo de massa e de calor foram utilizados os dados experimentais de camada fina obtidos da literatura e complementados com dados experimentais desta tese. Foi desenvolvido um equipamento para obtenção das curvas de secagem de grãos em secador de leito fixo, a fim de identificar o modelo para secagem em camada espessa. A comparação entre os resultados experimentais e das simulações numéricas mostrou que o modelo descreve razoavelmente a dinâmica de secagem No problema de aeração foi desenvolvido um modelo matemático que descreve o escoamento do ar em sistemas de armazenamento de grãos, baseado em relações experimentais entre velocidade e gradiente de pressão. Para resolver o problema de aeração foi utilizado o método dos elementos finitos e desenvolvido um programa computacional. Um teste realizado com o programa mostrou que os resultados da solução numérica convergem para uma solução analítica conhecida. As simulações realizadas mostraram que o programa computacional pode ser usado como instrumento auxiliar para o projeto de silos, possibilitando o cálculo e a visualização gráfica da distribuição das pressões e das linhas de corrente em diferentes seções do armazém.
Resumo:
Uma das tecnologias que mais avançou nas últimas décadas, como uma alternativa para as tradicionais técnicas de extração de produtos naturais, é a técnica de Extração com Fluidos Supercríticos. A extração com fluidos supercríticos destacase entre os processos industriais de extração pela qualidade dos produtos obtidos e por não causar danos ambientais quando usa dióxido de carbono (CO2) no estado supercrítico como solvente. Este trabalho teve como objetivo a realização de experimentos de extração de óleos essenciais com dióxido de carbono no estado supercrítico de folhas de duas variedades da árvore Canforeira (Cinnamomum camphor Ness & Eberm.) conhecidas como Hon-sho e Ho-sho, a fim de determinar as melhores condições operacionais de processo. Os óleos essenciais obtidos destas plantas têm importância econômica devido aos seus principais componentes: linalol e cânfora. Os melhores parâmetros de extração obtidos, quando se consideram os rendimentos de óleo essencial, foram os seguintes: vazão de CO2 = 2 mL/min, temperatura = 50°C, pressão = 90 bar e diâmetro de partícula = 0,1 mm. Outro objetivo foi a obtenção das curvas de extração: Rendimento de óleo essencial versus Tempo de extração, adequando, a partir dos dados experimentais, alguns modelos matemáticos encontrados na literatura para descrever o comportamento destas extrações. Dos modelos estudados o que melhor se adequou à extração de óleos essenciais de folhas foi o modelo proposto por Reverchon (1996), o qual proporcionou uma boa reprodutibilidade dos dados experimentais, mostrandose eficiente na representação de extração com fluidos supercríticos de óleos essenciais de Hon-sho e Ho-sho a partir de suas folhas.
Resumo:
Este trabalho descreve o protocolo de adaptação ATM do tipo 2 (AAL2), e expõe as mudanças que foram realizadas no simulador de rede ATM com a finalidade de estudá-lo. É proposto que se conheça melhor este novo padrão, planejado para baixa taixa de transferência e multiplexação de usuários e pode contribuir nos serviços de tráfego de voz, quando ocorre a integração de diversas aplicações que é o objetivo da B-ISDN. Após algumas explanações sobre o ATM em geral, é descrita de forma detalhada a recomendação I.362 que padroniza o novo AAL. É explicado o comportamento da máquina de estados de transmissão, e como ocorre a temporização para carregar diversos pacotes de voz numa mesma célula. Como foi idealizado para a classe de serviços do tipo VBR em tempo real, comentam-se alguns mecanismos próprios do AAL2 para controle de tráfego e sua influência. Descreve-se a subcamada SSCS proposta para pacotes longos, recentemente padronizada. São apresentados alguns artigos e estudos realizados sobre o AAL2 que descreve quantitativamente o ganho esperado pelo protocolo e levanta algumas questões comparando-o ao AAL1. Por ter sido inicialmente uma necessidade da telefonia celular, realiza-se um breve comentário de estudos dirigidos para a área. Com o intuito de realizar a simulação do protocolo, foi utilizado o simulador de redes ATM, desenvolvido pelo NIST, que possui certas qualidades desejadas para este trabalho, porém, foram necessárias realizar modificações para implementar a camada AAL que não estava prevista na arquitetura original dele. Para se criar um ambiente de testes propício, e com a preocupação de não corromper o funcionamento padrão, foram criadas estruturas semelhantes às existentes e realizadas mudanças sutis, reconhecidas normalmente pelo simulador original. A partir destas simulações, pretende-se deixar uma ferramenta para fazer análises deste protocolo; utilizando modelos de tráfego de voz, a fim de obter informações do seu comportamento. No entanto, este estudo limitou-se somente a demonstrar a verificação e validação do simulador a partir dos resultados gerados. Para verificar a integridade do código fonte original foram utilizados os exemplos do próprio NIST e assim garantir que nada foi alterado. Além disso, o novo módulo foi comparado a norma através de um "debug". Na validação, devido ao fato de não existir uma rede real montada e disponível para testes, foram empregados artigos para comparar os resultados e demonstrar a boa aproximação obtida. Acredita-se que desta forma obteve-se o resultado desejado de um ambiente para estudo e compreensão do AAL2 e que, futuramente, pode ser usado para todos os protocolos da camada AAL.
Resumo:
O desprendimento de vórtices é responsável por vibrações prejudiciais a estruturas e pelo aumento de seus coeficientes de arraste. Portanto o correto entendimento e o controle do desprendimento de vórtices é de grande interesse de modo a diminuir custos de manutenção de estruturas estáticas e custos com combustíveis de estruturas móveis, por exemplo. O caráter tridimensional do desprendimento de vórtices a baixos números de Reynolds, entre 100 e 300, é aqui estudado através de Simulações Numéricas Diretas (DNS) do escoamento ao redor de cilindros circulares em duas e três dimensões. O controle do desprendimento de vórtices foi estudado nesta dissertação, através do uso de placas de separação do escoamento em simulações numéricas bidimensionais para números de Reynolds 100, 160 e 300, mostrando que para estes números de Reynolds é possível reduzir as freqüências de desprendimento, e em alguns casos até suprimi-las. A simulação tridimensional para Re = 300 mostrou um escoamento aparentemente bidimensional que afeta sensivelmente a freqüência de desprendimento quando em comparação o caso 2D. Para a realização das simulação numéricas foi utilizado um esquema compacto de diferenças finitas em associação com um método de representação virtual de obstáculos imersos em escoamentos, que permite a representação de geometrias complexas sobre uma malha cartesiana.
Resumo:
No trabalho proposto é apresentado um método analítico para a obtenção da solução da equação advectivo-difusiva que rege a propagação de poluentes em corpos hídricos. Este método utiliza transformações conformes para efetuar o mapeamento de um corpo hídrico com geometria arbitrária em um semi-plano, fornecendo uma solução em forma fechada expressa em termos da função corrente e do potencial velocidade.
Resumo:
O desenvolvimento de um projeto de obra de edificação é fruto da interação entre profissionais de diversas disciplinas que desenvolvem, simultaneamente, suas opções e decisões com relação ao mesmo. Assim sendo, é necessário considerar que a realização do projeto é dependente da eficiência da comunicação entre os membros da equipe, uma vez que grande parte do trabalho de cada projetista deve ser desenvolvida sob as restrições impostas pelas necessidades dos demais. O cuidado com o fluxo de informações apresenta-se, portanto, como um mecanismo eficiente para garantir a integração, controle e organização das atividades, colaborando para a transparência do processo tanto para o coordenador como para cada um dos profissionais selecionados para a equipe. Assim, este trabalho propõe, com base na realização de uma série de entrevistas com profissionais da área de projeto da cidade de Porto Alegre (RS), um sequenciamento básico de atividades a serem desenvolvidas pelos profissionais ao longo das etapas do processo. O modelo traçado buscou explicitar de forma sistematizada o intercâmbio de informações necessário para o desenvolvimento de cada projeto específico, definindo os principais resultados que devem ser disponibilizados para que outros profissionais possam desenvolver sua parcela do trabalho. O modelo foi gerado caracterizando a dependência entre os resultados disponibilizados individualmente pelos intervenientes para a equipe de profissionais ao longo do processo Desta forma, cada resultado caracterizou uma atividade, para a qual é possível conhecer não só as dependências - atividade(s) precedente(s) e sucessora(s)- mas a quem cabe a responsabilidade de disponibilizar tal informação, permitindo a tomada de decisão sobre o processo como um todo ao observar as ocorrências do dia-a-dia.
Resumo:
O desenvolvimento de protocolos distribuídos é uma tarefa complexa. Em sistemas tolerantes a falhas, a elaboração de mecanismos para detectar e mascarar defeitos representam grande parte do esforço de desenvolvimento. A técnica de simulação pode auxiliar significativamente nessa tarefa. Entretanto, existe uma carência de ferramentas de simulação para investigação de protocolos distribuídos em cenários com defeitos, particularmente com suporte a experimentos em configurações “típicas” da Internet. O objetivo deste trabalho é investigar o uso do simulador de redes NS (Network Simulator) como ambiente para simulação de sistemas distribuídos, particularmente em cenários sujeitos à ocorrência de defeitos. O NS é um simulador de redes multi-protocolos, que tem código aberto e pode ser estendido. Embora seja uma ferramenta destinada ao estudo de redes de computadores, o ajuste adequado de parâmetros e exploração de características permitiu utilizá-lo para simular defeitos em um sistema distribuído. Para isso, desenvolveu-se dois modelos de sistemas distribuídos que podem ser implementados no NS, dependendo do protocolo de transporte utilizado: um baseado em TCP e o outro baseado em UDP. Também, foram estudadas formas de modelar defeitos através do simulador. Para a simulação de defeito de colapso em um nodo, foi proposta a implementação de um método na classe de cada aplicação na qual se deseja simular defeitos. Para ilustrar como os modelos de sistemas distribuídos e de defeitos propostos podem ser utilizados, foram implementados diversos algoritmos distribuídos em sistemas síncronos e assíncronos. Algoritmos de eleição e o protocolo Primário-Backup são exemplos dessas implementações. A partir desses algoritmos, principalmente do Primário-Backup, no qual a simulação de defeitos foi realizada, foi possível constatar que o NS pode ser uma ferramenta de grande auxílio no desenvolvimento de novas técnicas de Tolerância a Falhas. Portanto, o NS pode ser estendido possibilitando que, com a utilização dos modelos apresentados nesse trabalho, simule-se defeitos em um sistema distribuído.
Resumo:
As aplicações da mecânica vibratória vêm crescendo significativamente na análise de sistemas de suspensões e estruturas de veículos, dentre outras. Desta forma, o presente trabalho desenvolve técnicas para a simulação e o controle de uma suspensão de automóvel utilizando modelos dinâmicos com um, dois e três graus de liberdade. Na obtenção das equações do movimento para o sistema massa-mola-amortecedor, o modelo matemático utilizado tem como base a equação de Lagrange e a segunda lei de Newton, com condições iniciais apropriadas. A solução numérica destas equações é obtida através do método de Runge-Kutta de 4ª ordem, utilizando o software MATLAB. Para controlar as vibrações do sistema utilizou-se três métodos diferentes de controle: clássico, LQR e alocação de pólos. O sistema assim obtido satisfaz as condições de estabilidade e de desempenho e é factível para aplicações práticas, pois os resultados obtidos comparam adequadamente com dados analíticos, numéricos ou experimentais encontrados na literatura, indicando que técnicas de controle como o clássico podem ser simples e eficientes.
Resumo:
Em planejamento de lavra, freqüentemente as campanhas de sondagem são complementadas por falta de segurança nas estimativas. Na maioria dos casos, essas sondagens adicionais são locadas sem o uso de qualquer procedimento matemático que indique os locais mais carentes de informação. Essa dissertação propõe uma metodologia fundamentada em simulação estocástica para tratar esse problema. Com a utilização desse método, é possível que seja considerada a variabilidade entre as informações, além da configuração espacial apresentada. Essa metodologia permite gerar várias estimativas equiprováveis do atributo em questão, reproduzindo o histograma e o variograma das informações originais. A variabilidade apresentada pelos conjuntos de n valores equiprováveis, em cada bloco discretizado da jazida, é medida por meio do cálculo de índices de incerteza. Esses índices são calculados após o processo de simulação estocástica por meio da compilação das n estimativas realizadas para cada bloco. Os índices de incerteza considerados nessa dissertação são: (i) variância condicional; (ii) coeficiente de variação condicional e (iii) intervalo entre quartis. A partir da classificação desses índices de incerteza, são identificados os setores que apresentam as maiores variabilidades em suas estimativas. Com essa classificação é possível a confecção de mapas de incerteza que auxiliam na visualização dos setores/blocos mais variáveis da jazida Nesses setores, são adicionadas informações oriundas da escolha aleatória de um dos n valores equiprováveis disponíveis para cada bloco simulado. Por meio dos índices de incerteza e de acordo com a metodologia, são propostas informações adicionais na área considerada, que contribuem na diminuição das incertezas globais e locais. Essa metodologia usa técnicas extremamente robustas, com embasamento teórico muito consistente, atacando diretamente os setores/blocos que apresentam as maiores flutuabilidades nas estimativas. Um estudo de caso em uma jazida de carvão verifica a aplicabilidade do método. Esse estudo, considera a variabilidade nas estimativas de espessura de uma camada carvão.