903 resultados para Modeling and simulation
Resumo:
Nesta tese procurou-se demonstrar a valoração do efluente do processamento de pescado por incorporação dos nutrientes em Aphanothece microscopica Nägeli a diferentes temperaturas. Para tanto o trabalho é composto de cinco artigos que objetivaram avaliar sob o ponto de vista do tratamento do efluente pela cianobactéria Aphanothece e a separação e avaliação da biomassa gerada. O primeiro artigo intitula-se “Influência da temperatura na remoção de nutrientes do efluente da indústria de pescado por Aphanothece microscopica Nägeli”, e teve por objetivo avaliar a influência da temperatura (10, 20 e 30ºC) em um sistema de tratamento pela cianobactéria Aphanothece na remoção de matéria orgânica, nitrogênio e fósforo do efluente oriundo do processamento de pescado. A análise dos resultados mostrou que a temperatura influenciou significativamente na remoção de DQO, NTK, N-NH4 + e P-PO4 -3 . Para os experimentos a 20 e 30ºC todos os limites estabelecidos para os parâmetros avaliados foram atingidos. O segundo artigo intitulado “Efeito de coagulantes no efluente da indústria da pesca visando à separação de biomassa quando tratado por cianobactéria” avaliou o efeito da concentração e pH de dois tipos de coagulantes, cloreto férrico (FeCl3) e sulfato de alumínio (Al2(SO4)3), na separação da biomassa da cianobactéria Aphanothece microscopica Nägeli cultivada em efluente da indústria da pesca, assim como a remoção de matéria orgânica e nutrientes do efluente. Os resultados indicaram que o coagulante FeCl3 foi mais eficaz na remoção de todos os parâmetros testados. No que concerne à separação da biomassa, com um número de seis lavagens foi removido cerca de 97,6% da concentração de FeCl3 adicionado inicialmente. O terceiro artigo com o título “Caracterização da biomassa de Aphanothece microscopica Nägeli gerada no efluente da indústria da pesca em diferentes temperaturas de cultivo” avaliou a composição química da biomassa da cianobactéria Aphanothece microscopica Nägeli quando desenvolvida em meio de cultivo padrão BG11 e no efluente do processamento de pescado. O quarto artigo teve como título “Influência do meio de cultivo e temperatura em compostos nitrogenados na cianobactéria Aphanothece microscopica Nägeli” objetivou avaliar o teor de compostos nitrogenados presentes na biomassa da cianobactéria Aphanothece microscopica Nägeli quando cultivada em meio padrão e no efluente da indústria da pesca nas diferentes fases de crescimento. Para o estudo da composição química e nitrogenados no efluente foram realizados experimentos nas temperaturas de 10, 20 e 30ºC. As concentrações de proteína, cinzas e pigmentos aumentaram com o aumento da temperatura. Por outro lado, foi observada uma redução do teor de lipídios e carboidratos com o aumento da temperatura. O íon amônio juntamente com os ácidos nucléicos representa uma importante fração do nitrogênio não protéico presente na biomassa da cianobactéria Aphanothece. Ficou demonstrada a influência do meio de cultivo na concentração de nitrogênio, bem como a determinação de proteína pelo método de Kjeldahl superestima a concentração protéica em cianobactérias. O quinto artigo intitulado “Produção de proteína unicelular a partir do efluente do processamento do pescado: modelagem preditiva e simulação” avaliou a produção de proteína unicelular através do cultivo da cianobactéria Aphanothece microscopica Nägeli no efluente da indústria da pesca. Os dados cinéticos de crescimento celular foram ajustados a quatro modelos matemáticos (Logístico, Gompertz, Gompertz Modificado e Baranyi). Os resultados demonstraram que o modelo Logístico foi considerado o mais adequado para descrever a formação de biomassa. A análise preditiva mostrou a possibilidade da obtenção de 1,66, 18,96 e 57,36 kg.m-3.d-1 de biomassa por volume do reator em 1000 h de processo contínuo, para as temperaturas de 10, 20 e 30ºC, respectivamente.
Resumo:
A produção de proteínas através de microrganismos tornou-se uma técnica muito importante na obtenção de compostos de interesse da indústria farmacêutica e alimentícia. Extratos brutos nos quais as proteínas são obtidas são geralmente complexos, contendo sólidos e células em suspensão. Usualmente, para uso industrial destes compostos, é necessário obtê-los puros, para garantir a sua atuação sem interferência. Um método que vem recebendo destaque especialmente nos últimos 10 anos é o uso da cromatografia de troca iônica em leito expandido, que combina em uma única etapa os passos de clarificação, concentração e purificação da molécula alvo, reduzindo assim o tempo de operação e também os custos com equipamentos para realização de cada etapa em separado. Combinado a este fato, a última década também é marcada por trabalhos que tratam da modelagem matemática do processo de adsorção de proteínas em resinas. Está técnica, além de fornecer informações importantes sobre o processo de adsorção, também é de grande valia na otimização da etapa de adsorção, uma vez que permite que simulações sejam feitas, sem a necessidade de gasto de tempo e material com experimentos em bancada, especialmente se é desejado uma ampliação de escala. Dessa forma, o objetivo desta tese foi realizar a modelagem e simulação do processo de adsorção de bioprodutos em um caldo bruto na presença de células, usando inulinase e C-ficocianina como objeto de estudo e purificar C-ficocianina utilizando resina de troca iônica em leito expandido. A presente tese foi então dividida em quatro artigos. O primeiro artigo teve como objeto de estudo a enzima inulinase, e a otimização da etapa de adsorção desta enzima em resina de troca iônica Streamline SP, em leito expandido, foi feita através da modelagem matemática e simulação das curvas de ruptura em três diferentes graus de expansão (GE). As máximas eficiências foram observadas quando utilizadas maiores concentrações de inulinase (120 a 170 U/mL), e altura de leito entre 20 e 30 cm. O grau de expansão de 3,0 vezes foi considerado o melhor, uma vez que a produtividade foi consideravelmente superior. O segundo artigo apresenta o estudo das condições de adsorção de C-ficocianina em resina de troca iônica, onde foi verificado o efeito do pH e temperatura na adsorção e após construída a isoterma de adsorção. A isoterma de adsorção da C-ficocianina em resina Streamline Q XL feita em pH 7,5 e a 25°C (ambiente), apresentou um bom ajuste ao modelo de Langmuir (R=0,98) e os valores qm (capacidade máxima de adsorção) e Kd (constante de equilíbrio) estimados pela equação linearizada da isoterma, foram de 26,7 mg/mL e 0,067mg/mL. O terceiro artigo aborda a modelagem do processo de adsorção de extrato não clarificado de C-ficocianina em resina de troca iônica Streamline Q XL em coluna de leito expandido. Três curvas de ruptura foram feitas em diferentes graus de expansão (2,0, 2,5 e 3,0). A condição de adsorção de extrato bruto não clarificado de C-ficocianina que se mostrou mais vantajosa, por apresentar maior capacidade de adsorção, é quando se alimenta o extrato até atingir 10% de saturação da resina, em grau de expansão 2,0, com uma altura inicial de leito de 30 cm. O último artigo originado nesta tese foi sobre a purificação de C-ficocianina através da cromatografia de troca iônica em leito expandido. Uma vez que a adsorção já havia sido estudada no artigo 2, o artigo 4 enfoca na otimização das condições de eluição, visando obter um produto com máxima pureza e recuperação. A pureza é dada pela razão entre a absorbância a 620 nm pela absorbância a 280 nm, e dizse que quando C-ficocianina apresenta pureza superior a 0,7 ela pode ser usada em como corante em alimentos. A avaliação das curvas de contorno indicou que a faixa de trabalho deve ser em pH ao redor de 6,5 e volumes de eluição próximos a 150 mL. Tais condições combinadas a uma etapa de pré-eluição com 0,1M de NaCl, permitiu obter C-ficocianina com pureza de 2,9, concentração 3 mg/mL, e recuperação ao redor de 70%.
Resumo:
International audience
Resumo:
Intelligent agents offer a new and exciting way of understanding the world of work. In this paper we apply agent-based modeling and simulation to investigate a set of problems in a retail context. Specifically, we are working to understand the relationship between human resource management practices and retail productivity. Despite the fact we are working within a relatively novel and complex domain, it is clear that intelligent agents could offer potential for fostering sustainable organizational capabilities in the future. Our research so far has led us to conduct case study work with a top ten UK retailer, collecting data in four departments in two stores. Based on our case study data we have built and tested a first version of a department store simulator. In this paper we will report on the current development of our simulator which includes new features concerning more realistic data on the pattern of footfall during the day and the week, a more differentiated view of customers, and the evolution of customers over time. This allows us to investigate more complex scenarios and to analyze the impact of various management practices.
Resumo:
A modelação matemática de Estações de Tratamento de Águas Residuais (ETAR) tem sido uma ferramenta de enorme utilidade nas fases de projeto e de exploração destas estruturas de tratamento. O presente estudo teve por objetivo principal construir um modelo matemático da ETAR de Bragança, em particular do seu tratamento biológico de lamas ativadas, com vista a avaliar, compreender e otimizar o seu desempenho. A construção do modelo foi efetuada com recurso ao ambiente de simulação WRc STOAT 5.0. O processo de lamas ativadas foi descrito pelo modelo de referência ASAL3. O modelo construído foi calibrado e validado com base em dados experimentais de 2015, obtidos no âmbito do programa de controlo analítico da ETAR. O modelo foi ainda utilizado para avaliar a qualidade do efluente em resposta a alterações do caudal e composição do afluente, a alterações de condições operacionais e a outras alternativas de tratamento. O modelo mostrou-se bastante adequado na descrição da evolução mensal da qualidade do efluente final da ETAR relativamente aos parâmetros Sólidos Suspensos Totais (SST) e Carência Bioquímica de Oxigénio (CBO5), embora apresente uma tendência para os subestimar em 1,5 e 3,5 mg/L, respetivamente. Em relação ao azoto total, os valores simulados aproximaram-se dos valores reais, quando se aumentaram as taxas de recirculação interna para 400%, um fator de cerca de 4 vezes superior. Os resultados do modelo e dos cenários mostram e reforçam o bom desempenho e a operação otimizada da ETAR em relação a remoção de SST e CBO5. Em relação ao azoto total, a ETAR não assegura de forma sistemática uma eficiência elevada, mas apresenta um bom desempenho, face ao que o modelo consegue explicar para as mesmas condições operacionais. Através do estudo de cenários procurou-se encontrar alternativas de tratamento eficientes e viáveis de remoção de azoto total, mas não se identificaram soluções que assegurassem decargas de azoto abaixo dos limites legais. Os melhores resultados que se alcançaram para a remoção deste contaminante estão associados ao aumento das taxas de recirculação interna do sistema pré-anóxico existente e a uma configuração do tipo Bardenpho de quatro estágios com alimentação distribuída, em proporções iguais, pelos dois estágios anóxicos. Outras soluções que envolvam tecnologias distintas podem e devem ser equacionadas em projetos futuros que visem a melhoria de eficiência de remoção de azoto da ETAR.
Resumo:
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2016.
Resumo:
Como os recursos de hidrocarbonetos convencionais estão se esgotando, a crescente demanda mundial por energia impulsiona a indústria do petróleo para desenvolver mais reservatórios não convencionais. Os recursos mundiais de betume e óleo pesado são estimados em 5,6 trilhões de barris, dos quais 80% estão localizados na Venezuela, Canadá e EUA. Um dos métodos para explorar estes hidrocarbonetos é o processo de drenagem gravitacional assistido com injeção de vapor e solvente (ES-SAGD Expanding Solvent Steam Assisted Gravity Drainage). Neste processo são utilizados dois poços horizontais paralelos e situados verticalmente um acima do outro, um produtor na base do reservatório e um injetor de vapor e solvente no topo do reservatório. Este processo é composto por um método térmico (injeção de vapor) e um método miscível (injeção de solvente) com a finalidade de causar a redução das tensões interfaciais e da viscosidade do óleo ou betume. O objetivo deste estudo é analisar a sensibilidade de alguns parâmetros operacionais, tais como: tipo de solvente injetado, qualidade do vapor, distância vertical entre os poços, porcentagem de solvente injetado e vazão de injeção de vapor sobre o fator de recuperação para 5, 10 e 15 anos. Os estudos foram realizados através de simulações concretizadas no módulo STARS (Steam Thermal, and Advanced Processes Reservoir Simulator) do programa da CMG (Computer Modelling Group), versão 2010.10, onde as interações entre os parâmetros operacionais, estudados em um modelo homogêneo com características de reservatórios semelhantes aos encontrados no Nordeste Brasileiro, foram observadas. Os resultados obtidos neste estudo mostraram que os melhores fatores de recuperação ocorreram para níveis máximos do percentual de solvente injetado e da distância vertical entre os poços. Observou-se também que o processo será rentável dependendo do tipo e do valor do solvente injetado
Resumo:
Nowadays, most of the hydrocarbon reserves in the world are in the form of heavy oil, ultra - heavy or bitumen. For the extraction and production of this resource is required to implement new technologies. One of the promising processes for the recovery of this oil is the Expanding Solvent Steam Assisted Gravity Drainage (ES-SAGD) which uses two parallel horizontal wells, where the injection well is situated vertically above the production well. The completion of the process occurs upon injection of a hydrocarbon additive at low concentration in conjunction with steam. The steam adds heat to reduce the viscosity of the oil and solvent aids in reducing the interfacial tension between oil/ solvent. The main force acting in this process is the gravitational and the heat transfer takes place by conduction, convection and latent heat of steam. In this study was used the discretized wellbore model, where the well is discretized in the same way that the reservoir and each section of the well treated as a block of grid, with interblock connection with the reservoir. This study aims to analyze the influence of the pressure drop and heat along the injection well in the ES-SAGD process. The model used for the study is a homogeneous reservoir, semi synthetic with characteristics of the Brazilian Northeast and numerical simulations were performed using the STARS thermal simulator from CMG (Computer Modelling Group). The operational parameters analyzed were: percentage of solvent injected, the flow of steam injection, vertical distance between the wells and steam quality. All of them were significant in oil recovery factor positively influencing this. The results showed that, for all cases analyzed, the model considers the pressure drop has cumulative production of oil below its respective model that disregards such loss. This difference is more pronounced the lower the value of the flow of steam injection
Resumo:
Developing Cyber-Physical Systems requires methods and tools to support simulation and verification of hybrid (both continuous and discrete) models. The Acumen modeling and simulation language is an open source testbed for exploring the design space of what rigorousbut- practical next-generation tools can deliver to developers of Cyber- Physical Systems. Like verification tools, a design goal for Acumen is to provide rigorous results. Like simulation tools, it aims to be intuitive, practical, and scalable. However, it is far from evident whether these two goals can be achieved simultaneously. This paper explains the primary design goals for Acumen, the core challenges that must be addressed in order to achieve these goals, the “agile research method” taken by the project, the steps taken to realize these goals, the key lessons learned, and the emerging language design.
Resumo:
We propose a novel finite element formulation that significantly reduces the number of degrees of freedom necessary to obtain reasonably accurate approximations of the low-frequency component of the deformation in boundary-value problems. In contrast to the standard Ritz–Galerkin approach, the shape functions are defined on a Lie algebra—the logarithmic space—of the deformation function. We construct a deformation function based on an interpolation of transformations at the nodes of the finite element. In the case of the geometrically exact planar Bernoulli beam element presented in this work, these transformation functions at the nodes are given as rotations. However, due to an intrinsic coupling between rotational and translational components of the deformation function, the formulation provides for a good approximation of the deflection of the beam, as well as of the resultant forces and moments. As both the translational and the rotational components of the deformation function are defined on the logarithmic space, we propose to refer to the novel approach as the “Logarithmic finite element method”, or “LogFE” method.
Resumo:
Com os objetivos de avaliar a distribuição, persistência e degradação dos herbicidas no solo, na água e seu escape para outros corpos de água e avaliar os mecanismos de absorção/dessorção no solo, foi instalado um experimento de campo no Município de Pelotas no Rio Grande do Sul, utilizando-se os herbicidas propanil e clomazone na cultura de arroz alagado. O processo adotado para amostrar os produtos no solo foi aperfeiçoado, com a introdução de tubos de PVC perfurados que permitiam a ocorrência dos processos de troca no solo. Foram feitas as isotermas de adsorção para o propanil e clomazone, ajustadas por quatro modelos distintos. Fez-se também analise química dos grãos para os elementos N, P, K, Ca, Mg, S, Cu, Mn, Zn, determinando-se o teor de proteína bruta.Os resultados obtidos para o clomazone mostram que não houve contaminação ambiental pelo produto uma vez que nao foi detectada sua presença nas amostras de solo e agua do experimento. A ocorrência do propanil somente foi detectada nas amostras de solo coletadas com os tubos perfurados aos 30 e 120 dias após a emergência das plantas. Dos modelos de curvas de adsorção testados e comparados pelo método dos resíduos padronizados, o modelo de Freundlich foi o que melhor descreveu o comportamento dos dois produtos.
Resumo:
Este trabalho apresenta o procedimento adotado para a geração de um mapa descrevendo o potencial de infiltração e escoamento superficial da água a partir de informações de solo e declividade do terreno, utilizando um Sistema de Informação Geográfica - SIG. Este mapa e um passo intermediário de um método que vem sendo desenvolvido para a definição de áreas de risco de contaminação por agroquímicos, levando em consideração as propriedades dos produtos, características físicas locais e climáticas.
Resumo:
Polycondensation of 2,6-dihydroxynaphthalene with 4,4'-bis(4"-fluorobenzoyl)biphenyl affords a novel, semicrystalline poly(ether ketone) with a melting point of 406 degreesC and glass transition temperature (onset) of 168 degreesC. Molecular modeling and diffraction-simulation studies of this polymer, coupled with data from the single-crystal structure of an oligomer model, have enabled the crystal and molecular structure of the polymer to be determined from X-ray powder data. This structure-the first for any naphthalene-containing poly(ether ketone)-is fully ordered, in monoclinic space group P2(1)/b, with two chains per unit cell. Rietveld refinement against the experimental powder data gave a final agreement factor (R-wp) of 6.7%.
Resumo:
This paper presents a free software tool that supports the next-generation Mobile Communications, through the automatic generation of models of components and electronic devices based on neural networks. This tool enables the creation, training, validation and simulation of the model directly from measurements made on devices of interest, using an interface totally oriented to non-experts in neural models. The resulting model can be exported automatically to a traditional circuit simulator to test different scenarios.
Resumo:
The electricity market restructuring, and its worldwide evolution into regional and even continental scales, along with the increasing necessity for an adequate integration of renewable energy sources, is resulting in a rising complexity in power systems operation. Several power system simulators have been developed in recent years with the purpose of helping operators, regulators, and involved players to understand and deal with this complex and constantly changing environment. The main contribution of this paper is given by the integration of several electricity market and power system models, respecting to the reality of different countries. This integration is done through the development of an upper ontology which integrates the essential concepts necessary to interpret all the available information. The continuous development of Multi-Agent System for Competitive Electricity Markets platform provides the means for the exemplification of the usefulness of this ontology. A case study using the proposed multi-agent platform is presented, considering a scenario based on real data that simulates the European Electricity Market environment, and comparing its performance using different market mechanisms. The main goal is to demonstrate the advantages that the integration of various market models and simulation platforms have for the study of the electricity markets’ evolution.