944 resultados para ES-SAGD. pressure drop. heavy oil. reservoir modeling and simulation


Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis presents the formal definition of a novel Mobile Cloud Computing (MCC) extension of the Networked Autonomic Machine (NAM) framework, a general-purpose conceptual tool which describes large-scale distributed autonomic systems. The introduction of autonomic policies in the MCC paradigm has proved to be an effective technique to increase the robustness and flexibility of MCC systems. In particular, autonomic policies based on continuous resource and connectivity monitoring help automate context-aware decisions for computation offloading. We have also provided NAM with a formalization in terms of a transformational operational semantics in order to fill the gap between its existing Java implementation NAM4J and its conceptual definition. Moreover, we have extended NAM4J by adding several components with the purpose of managing large scale autonomic distributed environments. In particular, the middleware allows for the implementation of peer-to-peer (P2P) networks of NAM nodes. Moreover, NAM mobility actions have been implemented to enable the migration of code, execution state and data. Within NAM4J, we have designed and developed a component, denoted as context bus, which is particularly useful in collaborative applications in that, if replicated on each peer, it instantiates a virtual shared channel allowing nodes to notify and get notified about context events. Regarding the autonomic policies management, we have provided NAM4J with a rule engine, whose purpose is to allow a system to autonomously determine when offloading is convenient. We have also provided NAM4J with trust and reputation management mechanisms to make the middleware suitable for applications in which such aspects are of great interest. To this purpose, we have designed and implemented a distributed framework, denoted as DARTSense, where no central server is required, as reputation values are stored and updated by participants in a subjective fashion. We have also investigated the literature regarding MCC systems. The analysis pointed out that all MCC models focus on mobile devices, and consider the Cloud as a system with unlimited resources. To contribute in filling this gap, we defined a modeling and simulation framework for the design and analysis of MCC systems, encompassing both their sides. We have also implemented a modular and reusable simulator of the model. We have applied the NAM principles to two different application scenarios. First, we have defined a hybrid P2P/cloud approach where components and protocols are autonomically configured according to specific target goals, such as cost-effectiveness, reliability and availability. Merging P2P and cloud paradigms brings together the advantages of both: high availability, provided by the Cloud presence, and low cost, by exploiting inexpensive peers resources. As an example, we have shown how the proposed approach can be used to design NAM-based collaborative storage systems based on an autonomic policy to decide how to distribute data chunks among peers and Cloud, according to cost minimization and data availability goals. As a second application, we have defined an autonomic architecture for decentralized urban participatory sensing (UPS) which bridges sensor networks and mobile systems to improve effectiveness and efficiency. The developed application allows users to retrieve and publish different types of sensed information by using the features provided by NAM4J's context bus. Trust and reputation is managed through the application of DARTSense mechanisms. Also, the application includes an autonomic policy that detects areas characterized by few contributors, and tries to recruit new providers by migrating code necessary to sensing, through NAM mobility actions.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Since wireless network optimisations can be typically designed and evaluated independently of one another under the assumption that they can be applied jointly or independently. In this paper, we have analysis some rate algorithms in wireless networks. Since wireless networks have different standards in IEEE with peculiar features, data rate is one of those important parameters that wireless networks depend on for performances. The optimisation of this network is dependent on the behaviour of a particular rate algorithm in a network scenario. We have considered some first and second generation's rate algorithm, and it is all about selecting an appropriate data rate that any available wireless network can utilise for transmission in order to achieve a good performance. We have designed and analysis a wireless network and results obtained for some rate algorithms, like ONOE and AARF.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Finite element simulations have been performed along side Galerkin-type calculations that examined the development of volumetrically heated flow patterns in a horizontal layer controlled by the Prandtl number, Pr, and the Grashof number, Gr. The fluid was bounded by an isothermal plane above an adiabatic plane. In the simulations performed here, a number of convective polygonal planforms occurred, as Gr increased above the critical Grashof number, Grc at Pr = 7, while roll structures were observed for Pr < 1 at 2Grc.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Existing approaches to quality estimation of e-learning systems are analyzed. The “layered” approach for quality estimation of e-learning systems enhanced with learning process modeling and simulation is presented. The method of quality estimation using learning process modeling and quality criteria are suggested. The learning process model based on extended colored stochastic Petri net is described. The method has been implemented in the automated system of quality estimation of e-learning systems named “QuAdS”. Results of approbation of the developed method and quality criteria are shown. We argue that using learning process modeling for quality estimation simplifies identifying lacks of an e-learning system for an expert.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Primary processing of natural gas platforms as Mexilhão Field (PMXL-1 ) in the Santos Basin, where monoethylene glycol (MEG) has been used to inhibit the formation of hydrates, present operational problems caused by salt scale in the recovery unit of MEG. Bibliographic search and data analysis of salt solubility in mixed solvents, namely water and MEG, indicate that experimental reports are available to a relatively restricted number of ionic species present in the produced water, such as NaCl and KCl. The aim of this study was to develop a method for calculating of salt solubilities in mixed solvent mixtures, in explantion, NaCl or KCl in aqueous mixtures of MEG. The method of calculating extend the Pitzer model, with the approach Lorimer, for aqueous systems containing a salt and another solvent (MEG). Python language in the Integrated Development Environment (IDE) Eclipse was used in the creation of the computational applications. The results indicate the feasibility of the proposed calculation method for a systematic series of salt (NaCl or KCl) solubility data in aqueous mixtures of MEG at various temperatures. Moreover, the application of the developed tool in Python has proven to be suitable for parameter estimation and simulation purposes

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This work aims at modeling power consumption at the nodes of a Wireless Sensor Network (WSN). For doing so, a finite state machine was implemented by means of SystemC-AMS and Stateflow modeling and simulation tools. In order to achieve this goal, communication data in a WSN were collected. Based on the collected data, a simulation environment for power consumption characterization, which aimed at describing the network operation, was developed. Other than performing power consumption simulation, this environment also takes into account a discharging model as to analyze the battery charge level at any given moment. Such analysis result in a graph illustrating the battery voltage variations as well as its state of charge (SOC). Finally, a case study of the WSN power consumption aims to analyze the acquisition mode and network data communication. With this analysis, it is possible make adjustments in node-sensors to reduce the total power consumption of the network.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Different types of serious games have been used in elucidating computer science areas such as computer games, mobile games, Lego-based games, virtual worlds and webbased games. Different evaluation techniques have been conducted like questionnaires, interviews, discussions and tests. Simulation have been widely used in computer science as a motivational and interactive learning tool. This paper aims to evaluate the possibility of successful implementation of simulation in computer programming modules. A framework is proposed to measure the impact of serious games on enhancing students understanding of key computer science concepts. Experiments will be held on the EEECS of Queen’s University Belfast students to test the framework and attain results.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nesta tese procurou-se demonstrar a valoração do efluente do processamento de pescado por incorporação dos nutrientes em Aphanothece microscopica Nägeli a diferentes temperaturas. Para tanto o trabalho é composto de cinco artigos que objetivaram avaliar sob o ponto de vista do tratamento do efluente pela cianobactéria Aphanothece e a separação e avaliação da biomassa gerada. O primeiro artigo intitula-se “Influência da temperatura na remoção de nutrientes do efluente da indústria de pescado por Aphanothece microscopica Nägeli”, e teve por objetivo avaliar a influência da temperatura (10, 20 e 30ºC) em um sistema de tratamento pela cianobactéria Aphanothece na remoção de matéria orgânica, nitrogênio e fósforo do efluente oriundo do processamento de pescado. A análise dos resultados mostrou que a temperatura influenciou significativamente na remoção de DQO, NTK, N-NH4 + e P-PO4 -3 . Para os experimentos a 20 e 30ºC todos os limites estabelecidos para os parâmetros avaliados foram atingidos. O segundo artigo intitulado “Efeito de coagulantes no efluente da indústria da pesca visando à separação de biomassa quando tratado por cianobactéria” avaliou o efeito da concentração e pH de dois tipos de coagulantes, cloreto férrico (FeCl3) e sulfato de alumínio (Al2(SO4)3), na separação da biomassa da cianobactéria Aphanothece microscopica Nägeli cultivada em efluente da indústria da pesca, assim como a remoção de matéria orgânica e nutrientes do efluente. Os resultados indicaram que o coagulante FeCl3 foi mais eficaz na remoção de todos os parâmetros testados. No que concerne à separação da biomassa, com um número de seis lavagens foi removido cerca de 97,6% da concentração de FeCl3 adicionado inicialmente. O terceiro artigo com o título “Caracterização da biomassa de Aphanothece microscopica Nägeli gerada no efluente da indústria da pesca em diferentes temperaturas de cultivo” avaliou a composição química da biomassa da cianobactéria Aphanothece microscopica Nägeli quando desenvolvida em meio de cultivo padrão BG11 e no efluente do processamento de pescado. O quarto artigo teve como título “Influência do meio de cultivo e temperatura em compostos nitrogenados na cianobactéria Aphanothece microscopica Nägeli” objetivou avaliar o teor de compostos nitrogenados presentes na biomassa da cianobactéria Aphanothece microscopica Nägeli quando cultivada em meio padrão e no efluente da indústria da pesca nas diferentes fases de crescimento. Para o estudo da composição química e nitrogenados no efluente foram realizados experimentos nas temperaturas de 10, 20 e 30ºC. As concentrações de proteína, cinzas e pigmentos aumentaram com o aumento da temperatura. Por outro lado, foi observada uma redução do teor de lipídios e carboidratos com o aumento da temperatura. O íon amônio juntamente com os ácidos nucléicos representa uma importante fração do nitrogênio não protéico presente na biomassa da cianobactéria Aphanothece. Ficou demonstrada a influência do meio de cultivo na concentração de nitrogênio, bem como a determinação de proteína pelo método de Kjeldahl superestima a concentração protéica em cianobactérias. O quinto artigo intitulado “Produção de proteína unicelular a partir do efluente do processamento do pescado: modelagem preditiva e simulação” avaliou a produção de proteína unicelular através do cultivo da cianobactéria Aphanothece microscopica Nägeli no efluente da indústria da pesca. Os dados cinéticos de crescimento celular foram ajustados a quatro modelos matemáticos (Logístico, Gompertz, Gompertz Modificado e Baranyi). Os resultados demonstraram que o modelo Logístico foi considerado o mais adequado para descrever a formação de biomassa. A análise preditiva mostrou a possibilidade da obtenção de 1,66, 18,96 e 57,36 kg.m-3.d-1 de biomassa por volume do reator em 1000 h de processo contínuo, para as temperaturas de 10, 20 e 30ºC, respectivamente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A produção de proteínas através de microrganismos tornou-se uma técnica muito importante na obtenção de compostos de interesse da indústria farmacêutica e alimentícia. Extratos brutos nos quais as proteínas são obtidas são geralmente complexos, contendo sólidos e células em suspensão. Usualmente, para uso industrial destes compostos, é necessário obtê-los puros, para garantir a sua atuação sem interferência. Um método que vem recebendo destaque especialmente nos últimos 10 anos é o uso da cromatografia de troca iônica em leito expandido, que combina em uma única etapa os passos de clarificação, concentração e purificação da molécula alvo, reduzindo assim o tempo de operação e também os custos com equipamentos para realização de cada etapa em separado. Combinado a este fato, a última década também é marcada por trabalhos que tratam da modelagem matemática do processo de adsorção de proteínas em resinas. Está técnica, além de fornecer informações importantes sobre o processo de adsorção, também é de grande valia na otimização da etapa de adsorção, uma vez que permite que simulações sejam feitas, sem a necessidade de gasto de tempo e material com experimentos em bancada, especialmente se é desejado uma ampliação de escala. Dessa forma, o objetivo desta tese foi realizar a modelagem e simulação do processo de adsorção de bioprodutos em um caldo bruto na presença de células, usando inulinase e C-ficocianina como objeto de estudo e purificar C-ficocianina utilizando resina de troca iônica em leito expandido. A presente tese foi então dividida em quatro artigos. O primeiro artigo teve como objeto de estudo a enzima inulinase, e a otimização da etapa de adsorção desta enzima em resina de troca iônica Streamline SP, em leito expandido, foi feita através da modelagem matemática e simulação das curvas de ruptura em três diferentes graus de expansão (GE). As máximas eficiências foram observadas quando utilizadas maiores concentrações de inulinase (120 a 170 U/mL), e altura de leito entre 20 e 30 cm. O grau de expansão de 3,0 vezes foi considerado o melhor, uma vez que a produtividade foi consideravelmente superior. O segundo artigo apresenta o estudo das condições de adsorção de C-ficocianina em resina de troca iônica, onde foi verificado o efeito do pH e temperatura na adsorção e após construída a isoterma de adsorção. A isoterma de adsorção da C-ficocianina em resina Streamline Q XL feita em pH 7,5 e a 25°C (ambiente), apresentou um bom ajuste ao modelo de Langmuir (R=0,98) e os valores qm (capacidade máxima de adsorção) e Kd (constante de equilíbrio) estimados pela equação linearizada da isoterma, foram de 26,7 mg/mL e 0,067mg/mL. O terceiro artigo aborda a modelagem do processo de adsorção de extrato não clarificado de C-ficocianina em resina de troca iônica Streamline Q XL em coluna de leito expandido. Três curvas de ruptura foram feitas em diferentes graus de expansão (2,0, 2,5 e 3,0). A condição de adsorção de extrato bruto não clarificado de C-ficocianina que se mostrou mais vantajosa, por apresentar maior capacidade de adsorção, é quando se alimenta o extrato até atingir 10% de saturação da resina, em grau de expansão 2,0, com uma altura inicial de leito de 30 cm. O último artigo originado nesta tese foi sobre a purificação de C-ficocianina através da cromatografia de troca iônica em leito expandido. Uma vez que a adsorção já havia sido estudada no artigo 2, o artigo 4 enfoca na otimização das condições de eluição, visando obter um produto com máxima pureza e recuperação. A pureza é dada pela razão entre a absorbância a 620 nm pela absorbância a 280 nm, e dizse que quando C-ficocianina apresenta pureza superior a 0,7 ela pode ser usada em como corante em alimentos. A avaliação das curvas de contorno indicou que a faixa de trabalho deve ser em pH ao redor de 6,5 e volumes de eluição próximos a 150 mL. Tais condições combinadas a uma etapa de pré-eluição com 0,1M de NaCl, permitiu obter C-ficocianina com pureza de 2,9, concentração 3 mg/mL, e recuperação ao redor de 70%.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

International audience

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Intelligent agents offer a new and exciting way of understanding the world of work. In this paper we apply agent-based modeling and simulation to investigate a set of problems in a retail context. Specifically, we are working to understand the relationship between human resource management practices and retail productivity. Despite the fact we are working within a relatively novel and complex domain, it is clear that intelligent agents could offer potential for fostering sustainable organizational capabilities in the future. The project is still at an early stage. So far we have conducted a case study in a UK department store to collect data and capture impressions about operations and actors within departments. Furthermore, based on our case study we have built and tested our first version of a retail branch simulator which we will present in this paper.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Intelligent agents offer a new and exciting way of understanding the world of work. In this paper we apply agent-based modeling and simulation to investigate a set of problems in a retail context. Specifically, we are working to understand the relationship between human resource management practices and retail productivity. Despite the fact we are working within a relatively novel and complex domain, it is clear that intelligent agents could offer potential for fostering sustainable organizational capabilities in the future. Our research so far has led us to conduct case study work with a top ten UK retailer, collecting data in four departments in two stores. Based on our case study data we have built and tested a first version of a department store simulator. In this paper we will report on the current development of our simulator which includes new features concerning more realistic data on the pattern of footfall during the day and the week, a more differentiated view of customers, and the evolution of customers over time. This allows us to investigate more complex scenarios and to analyze the impact of various management practices.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We apply Agent-Based Modeling and Simulation (ABMS) to investigate a set of problems in a retail context. Specifically, we are working to understand the relationship between human resource management practices and retail productivity. Despite the fact we are working within a relatively novel and complex domain, it is clear that intelligent agents do offer potential for developing organizational capabilities in the future. Our multi-disciplinary research team has worked with a UK department store to collect data and capture perceptions about operations from actors within departments. Based on this case study work, we have built a simulator that we present in this paper. We then use the simulator to gather empirical evidence regarding two specific management practices: empowerment and employee development.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A modelação matemática de Estações de Tratamento de Águas Residuais (ETAR) tem sido uma ferramenta de enorme utilidade nas fases de projeto e de exploração destas estruturas de tratamento. O presente estudo teve por objetivo principal construir um modelo matemático da ETAR de Bragança, em particular do seu tratamento biológico de lamas ativadas, com vista a avaliar, compreender e otimizar o seu desempenho. A construção do modelo foi efetuada com recurso ao ambiente de simulação WRc STOAT 5.0. O processo de lamas ativadas foi descrito pelo modelo de referência ASAL3. O modelo construído foi calibrado e validado com base em dados experimentais de 2015, obtidos no âmbito do programa de controlo analítico da ETAR. O modelo foi ainda utilizado para avaliar a qualidade do efluente em resposta a alterações do caudal e composição do afluente, a alterações de condições operacionais e a outras alternativas de tratamento. O modelo mostrou-se bastante adequado na descrição da evolução mensal da qualidade do efluente final da ETAR relativamente aos parâmetros Sólidos Suspensos Totais (SST) e Carência Bioquímica de Oxigénio (CBO5), embora apresente uma tendência para os subestimar em 1,5 e 3,5 mg/L, respetivamente. Em relação ao azoto total, os valores simulados aproximaram-se dos valores reais, quando se aumentaram as taxas de recirculação interna para 400%, um fator de cerca de 4 vezes superior. Os resultados do modelo e dos cenários mostram e reforçam o bom desempenho e a operação otimizada da ETAR em relação a remoção de SST e CBO5. Em relação ao azoto total, a ETAR não assegura de forma sistemática uma eficiência elevada, mas apresenta um bom desempenho, face ao que o modelo consegue explicar para as mesmas condições operacionais. Através do estudo de cenários procurou-se encontrar alternativas de tratamento eficientes e viáveis de remoção de azoto total, mas não se identificaram soluções que assegurassem decargas de azoto abaixo dos limites legais. Os melhores resultados que se alcançaram para a remoção deste contaminante estão associados ao aumento das taxas de recirculação interna do sistema pré-anóxico existente e a uma configuração do tipo Bardenpho de quatro estágios com alimentação distribuída, em proporções iguais, pelos dois estágios anóxicos. Outras soluções que envolvam tecnologias distintas podem e devem ser equacionadas em projetos futuros que visem a melhoria de eficiência de remoção de azoto da ETAR.