872 resultados para Milho - Grãos - Modelos matemáticos
Resumo:
O desenvolvimento de software livre de Jacobiana para a resolução de problemas formulados por equações diferenciais parciais não-lineares é de interesse crescente para simular processos práticos de engenharia. Este trabalho utiliza o chamado algoritmo espectral livre de derivada para equações não-lineares na simulação de fluxos em meios porosos. O modelo aqui considerado é aquele empregado para descrever o deslocamento do fluido compressível miscível em meios porosos com fontes e sumidouros, onde a densidade da mistura de fluidos varia exponencialmente com a pressão. O algoritmo espectral utilizado é um método moderno para a solução de sistemas não-lineares de grande porte, o que não resolve sistemas lineares, nem usa qualquer informação explícita associados com a matriz Jacobiana, sendo uma abordagem livre de Jacobiana. Problemas bidimensionais são apresentados, juntamente com os resultados numéricos comparando o algoritmo espectral com um método de Newton inexato livre de Jacobiana. Os resultados deste trabalho mostram que este algoritmo espectral moderno é um método confiável e eficiente para a simulação de escoamentos compressíveis em meios porosos.
Resumo:
Azeotropia é um fenômeno termodinâmico onde um líquido em ebulição produz um vapor com composição idêntica. Esta situação é um desafio para a Engenharia de Separação, já que os processos de destilação exploram as diferenças entre as volatilidades relativas e, portanto, um azeótropo pode ser uma barreira para a separação. Em misturas binárias, o cálculo da azeotropia é caracterizado por um sistema não-linear do tipo 2 × 2. Um interessante e raro caso é o denominado azeotropia dupla, que pode ser verificado quando este sistema não-linear tem duas soluções, correspondendo a dois azeótropos distintos. Diferentes métodos tem sido utilizados na resolução de problemas desta natureza, como métodos estocásticos de otimização e as técnicas intervalares (do tipo Newton intervalar/bisseção generalizada). Nesta tese apresentamos a formulação do problema de azeotropia dupla e uma nova e robusta abordagem para a resolução dos sistemas não-lineares do tipo 2 × 2, que é a inversão de funções do plano no plano (MALTA; SALDANHA; TOMEI, 1996). No método proposto, as soluções são obtidas através de um conjunto de ações: obtenção de curvas críticas e de pré-imagens de pontos arbritários, inversão da função e por fim, as soluções esperadas para o problema de azeotropia. Esta metodologia foi desenvolvida para resolver sistemas não-lineares do tipo 2 × 2, tendo como objetivo dar uma visão global da função que modela o fenômeno em questão, além, é claro, de gerar as soluções esperadas. Serão apresentados resultados numéricos para o cálculo dos azeótropos no sistema benzeno + hexafluorobenzeno a baixas pressões por este método de inversão. Como ferramentas auxiliares, serão também apresentados aspectos numéricos usando aproximações clássicas, tais como métodos de Newton com técnicas de globalização e o algorítmo de otimização não-linear C-GRASP, para efeito de comparação.
Resumo:
Nesta dissertação consideramos duas abordagens para o tráfego de veículos: a macroscópica e a microscópica. O tráfego é descrito macroscopicamente por três grandezas físicas interligadas entre si, a saber, a velocidade, a densidade e o fluxo, descrevendo leis de conservação do número de veículos. Há vários modelos para o tráfego macroscópico de veículos. A maioria deles trata o tráfego de veículos como um fluido compressível, traduzindo a lei de conservação de massa para os veículos e requer uma lei de estado para o par velocidade-densidade, estabelecendo uma relação entre eles. Já o modelo descrito pela abordagem microscópica considera os veículos como partículas individuais. Consideramos os modelos da classe "car - following". Estes modelos baseiam-se no princípio de que o (n - 1)-ésimo veículo (denominado de "following-car") acelera em função do estímulo que recebe do n-ésimo veículo. Analisamos a equação de conservação do número de veículos em modelos macroscópicos para fluxo de tráfego. Posteriormente resolvemos esta equação através da linearização do modelo, estudando suas retas características e apresentamos a resolução do problema não linear em domínios limitados utilizando o método das características
Resumo:
Um dos problemas mais relevantes em organizações de grande porte é a escolha de locais para instalação de plantas industriais, centros de distribuição ou mesmo pontos comerciais. Esse problema logístico é uma decisão estratégica que pode causar um impacto significativo no custo total do produto comercializado. Existem na literatura diversos trabalhos que abordam esse problema. Assim, o objetivo desse trabalho é analisar o problema da localização de instalações proposto por diferentes autores e definir um modelo que seja o mais adequado possível ao mercado de distribuição de combustíveis no Brasil. Para isso, foi realizada uma análise do fluxo de refino e distribuição praticado neste segmento e da formação do respectivo custo de transporte. Foram consideradas restrições como capacidade de estoque, gama de produtos ofertados e níveis da hierarquia de distribuição. A partir dessa análise, foi definido um modelo matemático aplicado à redução dos custos de frete considerando-se a carga tributária. O modelo matemático foi implementado, em linguagem C, e permite simular o problema. Foram aplicadas técnicas de computação paralela visando reduzir o tempo de execução do algoritmo. Os resultados obtidos com o modelo Single Uncapacited Facility Location Problem (SUFLP) simulado nas duas versões do programa, sequencial e paralela, demonstram ganhos de até 5% em economia de custos e redução do tempo de execução em mais de 50%.
Resumo:
Neste trabalho foi utilizado um método matemático para classificar registros de potencial e corrente de ensaios de corrosão na técnica de amperimetria de resistência nula (ZRA). Foi aplicado o método estatístico de múltiplas variáveis simples chamado Análise dos Componentes Principais (PCA), cujo objetivo principal foi identificar padrões nestes dados de ruído eletroquímico. Foram testados o aço carbono UNS G10200, os aços inoxidáveis austenítico UNS S31600 e o superduplex UNS S32750 em meios de ácido sulfúrico (5% H2SO4), cloreto férrico (0,1 mol/L FeCl3) e hidróxido de sódio (0,1% NaOH). Os ensaios foram replicados com oito repetições para se ter reprodutibilidade e conhecimento dos aspectos estatísticos envolvidos. Os resultados mostraram que a análise de componentes principais pode ser utilizada como uma ferramenta para analisar sinais de ruído eletroquímico, identificando os clusters dos comportamentos potencial-tempo, corrente-tempo e acessoriamente identificar os outliersdos registros temporais.
Resumo:
Este trabalho objetiva a construção de estruturas robustas e computacionalmente eficientes para a solução do problema de deposição de parafinas do ponto de vista do equilíbrio sólido-líquido. São avaliados diversos modelos termodinâmicos para a fase líquida: equação de estado de Peng-Robinson e os modelos de coeficiente de atividade de Solução Ideal, Wilson, UNIQUAC e UNIFAC. A fase sólida é caracterizada pelo modelo Multisólido. A previsão de formação de fase sólida é inicialmente prevista por um teste de estabilidade termodinâmica. Posteriormente, o sistema de equações não lineares que caracteriza o equilíbrio termodinâmico e as equações de balanço material é resolvido por três abordagens numéricas: método de Newton multivariável, método de Broyden e método Newton-Armijo. Diversos experimentos numéricos foram conduzidos de modo a avaliar os tempos de computação e a robustez frente a diversos cenários de estimativas iniciais dos métodos numéricos para os diferentes modelos e diferentes misturas. Os resultados indicam para a possibilidade de construção de arcabouços computacionais eficientes e robustos, que podem ser empregados acoplados a simuladores de escoamento em dutos, por exemplo.
Resumo:
Esta tese apresentada uma proposta de desenvolvimento de uma ferramenta computacional para metrologia com microtomografia computadorizada que possa ser implantada em sistemas de microtomógrafos convencionais. O estudo concentra-se nas diferentes técnicas de detecção de borda utilizadas em processamento de imagens digitais.Para compreender a viabilidade do desenvolvimento da ferramenta optou-se por utilizar o Matlab 2010a. A ferramenta computacional proposta é capaz de medir objetos circulares e retangulares. As medidas podem ser horizontais ou circulares, podendo ser realizada várias medidas de uma mesma imagem, uma medida de várias imagens ou várias medidas de várias imagens. As técnicas processamento de imagens digitais implementadas são a limiarização global com escolha do threshold manualmente baseado no histograma da imagem ou automaticamente pelo método de Otsu, os filtros de passa-alta no domínio do espaço Sobel, Prewitt, Roberts, LoG e Canny e medida entre os picos mais externos da 1 e 2 derivada da imagem. Os resultados foram validados através de comparação com os resultados de teste realizados pelo Laboratório de Ensaios Mecânicos e Metrologia (LEMec) do Intstituto Politécnico do Rio de Janeiro (IPRJ), Universidade do Estado do Rio de Janeiro (UERJ), Nova Friburdo- RJ e pelo Serviço Nacional da Indústria Nova Friburgo (SENAI/NF). Os resultados obtidos pela ferramenta computacional foram equivalentes aos obtidos com os instrumentos de medição utilizados, demonstrando à viabilidade de utilização da ferramenta computacional a metrologia.
Resumo:
No presente trabalho foram desenvolvidos modelos de classificação aplicados à mineração de dados climáticos para a previsão de eventos extremos de precipitação com uma hora de antecedência. Mais especificamente, foram utilizados dados observacionais registrados pela estação meteorológica de superfície localizada no Instituto Politécnico da Universidade do Estado do Rio de Janeiro em Nova Friburgo RJ, durante o período de 2008 a 2012. A partir desses dados foi aplicado o processo de Descoberta de Conhecimento em Banco de Dados (KDD Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós processamento dos dados. Com base no uso de algoritmos de Redes Neurais Artificiais e Árvores de Decisão para a extração de padrões que indicassem um acúmulo de precipitação maior que 10 mm na hora posterior à medição das variáveis climáticas, pôde-se notar que a utilização da observação meteorológica de micro escala para previsões de curto prazo é suscetível a altas taxas de alarmes falsos (falsos positivos). Para contornar este problema, foram utilizados dados históricos de previsões realizadas pelo Modelo Eta com resolução de 15 km, disponibilizados pelo Centro de Previsão de Tempo e Estudos Climáticos do Instituto Nacional de Pesquisas Espaciais CPTEC/INPE. De posse desses dados, foi possível calcular os índices de instabilidade relacionados à formação de situação convectiva severa na região de Nova Friburgo e então armazená-los de maneira estruturada em um banco de dados, realizando a união entre os registros de micro e meso escala. Os resultados demonstraram que a união entre as bases de dados foi de extrema importância para a redução dos índices de falsos positivos, sendo essa uma importante contribuição aos estudos meteorológicos realizados em estações meteorológicas de superfície. Por fim, o modelo com maior precisão foi utilizado para o desenvolvimento de um sistema de alertas em tempo real, que verifica, para a região estudada, a possibilidade de chuva maior que 10 mm na próxima hora.
Resumo:
Modelos de evolução populacional são há muito tempo assunto de grande relevância, principalmente quando a população de estudo é composta por vetores de doenças. Tal importância se deve ao fato de existirem milhares de doenças que são propagadas por espécies específicas e conhecer como tais populações se comportam é vital quando pretende-se criar políticas públicas para controlar a sua proliferação. Este trabalho descreve um problema de evolução populacional difusivo com armadilhas locais e tempo de reprodução atrasado, o problema direto descreve a densidade de uma população uma vez conhecidos os parâmetros do modelo onde sua solução é obtida por meio da técnica de transformada integral generalizada, uma técnica numérico-analítica. Porém a solução do problema direto, por si só, não permite a simulação computacional de uma população em uma aplicação prática, uma vez que os parâmetros do modelo variam de população para população e precisam, portanto, ter seus valores conhecidos. Com o objetivo de possibilitar esta caracterização, o presente trabalho propõe a formulação e solução do problema inverso, estimando os parâmetros do modelo a partir de dados da população utilizando para tal tarefa dois métodos Bayesianos.
Resumo:
Vários processos, como sorção, fotólise, hidrólise, oxidação-redução, degradação biológica, deriva, volatilização, lixiviação, carreamento superficial, determinam o comportamento e destino de um agrotóxico no ambiente. Como resultado da modelagem, modelos matemáticos são representações desses processos e podem ser apresentados como ferramentas computacionais (simuladores). Modelos de simulação do comportamento e destino ambiental de agrotóxicos podem ser mais efetivos quando acompanhados da visualização e da análise espacial proporcionada pela tecnologia de um sistema de informação geográfica ? SIG. As bases científicas e os avanços tecnológicos na modelagem ambiental de agrotóxicos são aqui sucintamente apresentados.
Resumo:
São apresentados dois modelos de regressão linear múltipla. O primeiro foi obtido para estimar a superfície específica (SE) de solos brasileiros tendo como variáveis independentes os conteúdos volumétricos de argila, areia, silte e carbono orgânico. Tomou-se o cuidado para que o modelo proposto respeitasse restrições físicas de positividade dos valores da superfície específica, impondo-se restrições na determinação dos coeficientes dos atributos do modelo. Posteriormente, determinou-se uma relação linear múltipla para estimar o logaritmo decimal do coeficiente de sorção de pesticidas (LogKd) por meio da superfície específica do solo, do coeficiente de partição entre o octanol e a água, da solubilidade aquosa do pesticida e do pH do solo. Os modelos ajustados explicam 82% e 78% da variabilidade das variáveis dependentes SE e LogKd, respectivamente. Foram utilizados dados de 307 perfis de solos para a determinação da relação entre a superfície específica e os atributos do solo e 118 valores de coeficientes de sorção medidos experimentalmente para 20 pesticidas em 46 dados de solos representativos do ambiente agrícola brasileiro. Todos os dados deste estudo foram coletados em trabalhos científicos publicados. Os modelos apresentados podem facilitar o trabalho da previsão da superfície específica de solos (SE) e do coeficiente de sorção de pesticidas (Kd), contribuindo na estimativa da concentração ambiental de pesticidas por modelos matemáticos ou por índices que usem esses parâmetros em seus cálculos.
Resumo:
O programa AGROSCRE foi elaborado para conferir agilidade da avaliação de modelos matemáticos screening, que auxiliam a análise do potencial de contaminação de agrotóxicos em água. Este trabalho apresenta o manual do usuário deste programa, possibilitando uma maior divulgação do uso dos modelos ?screening? e fomentando avaliações, cada vez mais fidedignas, da realidade local do ambiente de produção agrícola nacional, na medida em que os dados de entrada forem refinados. Foi desenvolvido em linguagem Quick Basic 4.5 e necessita de 11K de memória para ser utilizado em modo executável.
Resumo:
O manejo de ocmposto de lixo (CL) oferece um fertilizante alternativo na cana-de-açúcar (possui alto teor de matéria orgânica e nutrientes) e traz ainda uma solução social e ambiental. O objetivo deste estudo é o acompanhamento dos processos de crescimento, maturação e transferência de metais na cana-de-açúcar, afetados pela adição de CL, através de modelos matemáticos como ferramenta de apoio à decisão. Este estudo busca uma alternativa masi econômica ao produtor e uma solução governamental para disposição final sustentável do lixo urbano. O Modelo de Crescimento adaptado a esse estudo foi descrito por Teruel (1996), o qual demonstrou maior vigor vegetativo em cana adubada com CL suplementada com PK e nas dosagens 0 e 60 t.ha-1, e o Índice de área foliar (IAF) máximo atingido foi mais tardio na cana que recebeu tratamento com CL sem suplementação mineral. Para estudo da curva de maturação da cana-de-açúcar foi ajustado o modelo de Mitscherlich (Udo, 1983). Concluiu-se que houve uma influência da dose de CL no tempo em que a cana atinge o ter mínimo para industrialização (correlação negativa) e a resposta ótima da cultura em acumulação de açúcar ocorreu na combinação do CL com fertilizante P ou K. O modelo de transferência de metais pesados no sistema solo-cana, foi construído com base nos modelos compartimentais (solo, raiz e parte aérea). A translocação de metais foi grande para o cádmio, e a passagem de metais pesados para o caldo da cana foi baixa, não trazendo problemas à sua industrialização ou mesmo seu consumo in natura, quando adubada com as dosagens de CL testadas. Os três modelos utilizados nesse estudo mostraram ótimo ajuste e podem servir como base à formulação de normas de uso do CL, podendo estimar quantidades de cada metal em cada parte da planta nos diversos cenários estudados e predizer a resposta em crescimento e desenvolvimento da cana-de-açúcar.
Resumo:
Para muitos usuários, a programação visual é uma alternativa atrativa às linguagens de programação textuais. Uma das razões para esta atração é que a representação visual de um problema está muito mais próxima com a forma pela qual a solução é obtida ou entendida se comparada à representação textual. Este trabalho apresenta um modelo para a programação visual de matrizes baseado nos paradigmas de fluxo de dados e planilhas eletrônicas. O fluxo de dados e a planilha forma a base semântica da linguagem, enquanto as representações gráficas do grafo direcionado e de uma planilha fundamentam sua base sintática. Este modelo consiste em um conjunto de diagramas bidimensionais e de regras de transformação. Os processos são implementados como redes de fluxo de dados e os dados são representados por planilhas. As planilhas podem ser vistas como variáveis do tipo matriz que armazenam dados bidimensionais, ou como funções, que recebem e produzem valores utilizados por outros processos. Neste caso, as planilhas são programadas seguindo o paradigma de programação por demonstrações que incorporam um poderoso construtor de interação, reduzindo significativamente a utilização de recursos e repetições. O modelo proposto pode ser utilizado em diversos domínios de aplicação, principalmente para simplificar a construção de modelos matemáticos de simulação e análise estatística.
Resumo:
La matemática en el contexto de las ciencias es una línea de investigación que reflexiona acerca de la vinculación que debe existir entre la matemática y las ciencias que la requieren, está constituida por cuatro fases: la curricular, la didáctica, la epistemológica y la cognitiva. En este artículo se presenta la fase didáctica. Esta fase incluye una estrategia didáctica (denominada matemática en contexto)que presenta conocimientos integrados a los alumnos a partir de una situación problémica de otras disciplinas, que al tratar de resolverla el estudiante se encuentra con la necesidad de tener nuevos conocimientos, lo cual da apertura a que el estudiante esté interesado en otros tópicos matemáticos. Para lograr la vinculación de la matemática con otras ciencias se describe un proceso metodológico a través de seis de las etapas de la matemática en contexto. Con esta estrategia el modelar matemáticamente está presente todo el tiempo, por lo que se presentan los resultados de una investigación que caracteriza y clasifica a los modelos matemáticos. Asimismo, los modelos son un elemento común a la matemática en contexto y a la resolución de problemas, por lo que se muestran las diferencias sustancias entre ambas estrategias.