882 resultados para Análise por injeção em fluxo (Aplicações)
Resumo:
INTRODUÇÃO: Os enxertos de gordura tem se mostrado como uma poderosa técnica cirúrgica em reconstrução mamaria secundária e os enxertos enriquecidos com células-tronco, além de suas ações parácrinas, vem apresentando resultados encorajadores no que tange a persistência volumétrica. OBJETIVO: Este estudo clínico teve como objetivo analisar comparativamente quantitativa e qualitativamente enxertos de gordura enriquecidos com células da fração vásculoestromal em reconstrução mamária secundária e a incidência de complicações. MÉTODO: Nós desenvolvemos um método que produz enxertos de gordura, na sala de cirurgia, em uma taxa de enriquecimento maior que os já publicados (2:1). Este estudo clínico prospectivo e controlado analisou qualitativa e quantitativamente enxertos de gordura com (GT - grupo tronco) e sem (GC - grupo controle) adição das células da fração vásculo-estromal fresca em reconstrução mamária secundária; através de volumetria mamária por RNM de mamas, imunofenotipagem e contagem celular. Também foram estudados os resultados estéticos, a satisfação das pacientes e as complicações. RESULTADOS: A persistência volumétrica no GT foi 78,9% e 51,4% no GC, entretanto não houve diferença estatisticamente significativa entre os grupos. CD90 foi o marcador mais expresso e que alcançou diferença significante e ao mesmo tempo apresentou correlação positiva entre a sua expressão e a persistência volumétrica (r=0.651, p=0.03). Necrose gordurosa ocorreu, isoladamente em 4 pacientes do GT submetidas à radioterapia e nenhuma paciente do GC apresentou este evento. Desta forma, pacientes do GC mostraram tendência de estar mais satisfeitas com o enxerto de gordura. Nos dois grupos, os resultados estéticos foram iguais e não foram observadas recidivas loco-regionais. CONCLUSÃO: Os resultados do enriquecimento em uma taxa maior que as já publicadas são encorajadores, apesar de a persistência volumétrica não ter alcançado diferença estatisticamente significante entre os grupos. Enxertos de gordura enriquecidos na proporção 2:1 podem não ser indicados para pacientes submetidas à radioterapia apesar de terem se mostrados seguros num tempo de seguimento de 3 anos
Resumo:
A Internet das Coisas é um novo paradigma de comunicação que estende o mundo virtual (Internet) para o mundo real com a interface e interação entre objetos. Ela possuirá um grande número de dispositivos heteregôneos interconectados, que deverá gerar um grande volume de dados. Um dos importantes desafios para seu desenvolvimento é se guardar e processar esse grande volume de dados em aceitáveis intervalos de tempo. Esta pesquisa endereça esse desafio, com a introdução de serviços de análise e reconhecimento de padrões nas camadas inferiores do modelo de para Internet das Coisas, que procura reduzir o processamento nas camadas superiores. Na pesquisa foram analisados os modelos de referência para Internet das Coisas e plataformas para desenvolvimento de aplicações nesse contexto. A nova arquitetura de implementada estende o LinkSmart Middeware pela introdução de um módulo para reconhecimento de padrões, implementa algoritmos para estimação de valores, detecção de outliers e descoberta de grupos nos dados brutos, oriundos de origens de dados. O novo módulo foi integrado à plataforma para Big Data Hadoop e usa as implementações algorítmicas do framework Mahout. Este trabalho destaca a importância da comunicação cross layer integrada à essa nova arquitetura. Nos experimentos desenvolvidos na pesquisa foram utilizadas bases de dados reais, provenientes do projeto Smart Santander, de modo a validar da nova arquitetura de IoT integrada aos serviços de análise e reconhecimento de padrões e a comunicação cross-layer.
Resumo:
Com o atual desenvolvimento industrial e tecnológico da sociedade, a presença de substâncias inflamáveis e/ou tóxicas aumentou significativamente em um grande número de atividades. A possível dispersão de gases perigosos em instalações de armazenamento ou em operações de transporte representam uma grande ameaça à saúde e ao meio ambiente. Portanto, a caracterização de uma nuvem inflamável e/ou tóxica é um ponto crítico na análise quantitativa de riscos. O objetivo principal desta tese foi fornecer novas perspectivas que pudessem auxiliar analistas de risco envolvidos na análise de dispersões em cenários complexos, por exemplo, cenários com barreiras ou semi-confinados. A revisão bibliográfica mostrou que, tradicionalmente, modelos empíricos e integrais são usados na análise de dispersão de substâncias tóxicas / inflamáveis, fornecendo estimativas rápidas e geralmente confiáveis ao descrever cenários simples (por exemplo, dispersão em ambientes sem obstruções sobre terreno plano). No entanto, recentemente, o uso de ferramentas de CFD para simular dispersões aumentou de forma significativa. Estas ferramentas permitem modelar cenários mais complexos, como os que ocorrem em espaços semi-confinados ou com a presença de barreiras físicas. Entre todas as ferramentas CFD disponíveis, consta na bibliografia que o software FLACS® tem bom desempenho na simulação destes cenários. Porém, como outras ferramentas similares, ainda precisa ser totalmente validado. Após a revisão bibliográfica sobre testes de campo já executados ao longo dos anos, alguns testes foram selecionados para realização de um exame preliminar de desempenho da ferramenta CFD utilizado neste estudo. Foram investigadas as possíveis fontes de incertezas em termos de capacidade de reprodutibilidade, de dependência de malha e análise de sensibilidade das variáveis de entrada e parâmetros de simulação. Os principais resultados desta fase foram moldados como princípios práticos a serem utilizados por analistas de risco ao realizar análise de dispersão com a presença de barreiras utilizando ferramentas CFD. Embora a revisão bibliográfica tenha mostrado alguns dados experimentais disponíveis na literatura, nenhuma das fontes encontradas incluem estudos detalhados sobre como realizar simulações de CFD precisas nem fornecem indicadores precisos de desempenho. Portanto, novos testes de campo foram realizados a fim de oferecer novos dados para estudos de validação mais abrangentes. Testes de campo de dispersão de nuvem de propano (com e sem a presença de barreiras obstruindo o fluxo) foram realizados no campo de treinamento da empresa Can Padró Segurança e Proteção (em Barcelona). Quatro testes foram realizados, consistindo em liberações de propano com vazões de até 0,5 kg/s, com duração de 40 segundos em uma área de descarga de 700 m2. Os testes de campo contribuíram para a reavaliação dos pontos críticos mapeados durante as primeiras fases deste estudo e forneceram dados experimentais para serem utilizados pela comunidade internacional no estudo de dispersão e validação de modelos. Simulações feitas utilizando-se a ferramenta CFD foram comparadas com os dados experimentais obtidos nos testes de campo. Em termos gerais, o simulador mostrou bom desempenho em relação às taxas de concentração da nuvem. O simulador reproduziu com sucesso a geometria complexa e seus efeitos sobre a dispersão da nuvem, mostrando claramente o efeito da barreira na distribuição das concentrações. No entanto, as simulações não foram capazes de representar toda a dinâmica da dispersão no que concerne aos efeitos da variação do vento, uma vez que as nuvens simuladas diluíram mais rapidamente do que nuvens experimentais.
Resumo:
A estrutura populacional e o desequilíbrio de ligação são dois processos fundamentais para estudos evolutivos e de mapeamento associativo. Tradicionalmente, ambos têm sido investigados por meio de métodos clássicos comumente utilizados. Tais métodos certamente forneceram grandes avanços no entendimento dos processos evolutivos das espécies. No entanto, em geral, nenhum deles utiliza uma visão genealógica de forma a considerar eventos genéticos ocorridos no passado, dificultando a compreensão dos padrões de variação observados no presente. Uma abordagem que possibilita a investigação retrospectiva com base no atual polimorfismo observado é a teoria da coalescência. Assim, o objetivo deste trabalho foi analisar, com base na teoria da coalescência, a estrutura populacional e o desequilíbrio de ligação de um painel mundial de acessos de sorgo (Sorghum bicolor). Para tanto, análises de mutação, migração com fluxo gênico e recombinação foram realizadas para cinco regiões genômicas relacionadas à altura de plantas e maturidade (Dw1, Dw2, Dw4, Ma1 e Ma3) e sete populações previamente selecionadas. Em geral, elevado fluxo gênico médio (Μ = m/μ = 41,78 − 52,07) foi observado entre as populações considerando cada região genômica e todas elas simultaneamente. Os padrões sugeriram intenso intercâmbio de acessos e história evolutiva específica para cada região genômica, mostrando a importância da análise individual dos locos. A quantidade média de migrantes por geração (Μ) não foi simétrica entre pares recíprocos de populações, de acordo com a análise individual e simultânea das regiões. Isso sugere que a forma pela qual as populações se relacionaram e continuam interagindo evolutivamente não é igual, mostrando que os métodos clássicos utilizados para investigar estrutura populacional podem ser insatisfatórios. Baixas taxas médias de recombinação (ρL = 2Ner = 0,030 − 0,246) foram observadas utilizando o modelo de recombinação constante ao longo da região. Baixas e altas taxas médias de recombinação (ρr = 2Ner = 0,060 − 3,395) foram estimadas utilizando o modelo de recombinação variável ao longo da região. Os métodos tradicional (r2) e via coalescência (E[r2 rhomap]) utilizados para a estimação do desequilíbrio de ligação mostraram resultados próximos para algumas regiões genômicas e populações. No entanto, o r2 sugeriu padrões descontínuos de desequilíbrio em várias ocasiões, dificultando o entendimento e a caracterização de possíveis blocos de associação. O método via coalescência (E[r2 rhomap]) forneceu resultados que pareceram ter sido mais consistentes, podendo ser uma estratégia eventualmente importante para um refinamento dos padrões não-aleatórios de associação. Os resultados aqui encontrados sugerem que o mapeamento genético a partir de um único pool gênico pode ser insuficiente para detectar associações causais importantes para características quantitativas em sorgo.
Resumo:
O número de acidentes de trânsito é crescente nas últimas décadas no Brasil. Uma das principais causas de acidentes em rodovias brasileiras é o excesso de velocidade, que contribui para a possibilidade de ocorrência de acidentes. As velocidades praticadas pelos motoristas são também função dos elementos geométricos que compõem a via (raio, rampa, largura da faixa, etc). A consistência de traçado não afeta a expectativa dos motoristas e garante uma operação segura. A maioria dos motoristas consegue perceber as falhas de coordenação, mas tecnicamente, por exemplo, desconhecem a origem das mesmas. Esta pesquisa apresenta como objetivo a análise de consistência de um trecho de uma determinada rodovia do país de múltiplas faixas, com elevado índice de acidentes e alto fluxo de veículos comerciais. Os pontos com maior ocorrência de acidentes foram identificados e realizaram-se medições de velocidade para elaboração de um modelo de previsão de velocidade operacional (V85) do trecho de estudo. De posse deste modelo, procedeu-se à análise de consistência através do método dos critérios de segurança, que identificou 2 seções com problemas de consistência. Por fim, verificou-se se estas seções correspondiam aos locais de maior número de acidentes: a tangente T5 precede uma curva com alto índice de acidentes (km 511+000); o local com maior concentração de acidentes (km 514) foi classificado como RAZOÁVEL.
Resumo:
A Biologia Computacional tem desenvolvido algoritmos aplicados a problemas relevantes da Biologia. Um desses problemas é a Protein Structure Prediction (PSP). Vários métodos têm sido desenvolvidos na literatura para lidar com esse problema. Porém a reprodução de resultados e a comparação dos mesmos não têm sido uma tarefa fácil. Nesse sentido, o Critical Assessment of protein Structure Prediction (CASP), busca entre seus objetivos, realizar tais comparações. Além disso, os sistemas desenvolvidos para esse problema em geral não possuem interface amigável, não favorecendo o uso por não especialistas da computação. Buscando reduzir essas dificuldades, este trabalho propões o Koala, um sistema baseado em uma plataforma web, que integra vários métodos de predição e análises de estruturas de proteínas, possibilitando a execução de experimentos complexos com o uso de fluxos de trabalhos. Os métodos de predição disponíveis podem ser integrados para a realização de análises dos resultados, usando as métricas RMSD, GDT-TS ou TM-Score. Além disso, o método Sort by front dominance (baseado no critério de optimalidade de Pareto), proposto nesse trabalho, consegue avaliar predições sem uma estrutura de referência. Os resultados obtidos, usando proteínas alvo de artigos recentes e do CASP11, indicam que o Koala tem capacidade de realizar um conjunto relativamente grande de experimentos estruturados, beneficiando a determinação de melhores estruturas de proteínas, bem como o desenvolvimento de novas abordagens para predição e análise por meio de fluxos de trabalho.
Resumo:
Entre as muitas aplicações das tecnologias de identificação biológica humana, estão as finalidades forenses. O objetivo desta pesquisa foi verificar frequências alélicas de Short Tandem Repeat (STR) e os parâmetros estatísticos de interesse em genética de populações e forense para desenvolver o primeiro banco de dados populacional de DNA na Faculdade de Odontologia de Bauru, Universidade de São Paulo, (FOB/USP) para futuros usos forenses. Frequências alélicas de 15 locos autossômicos e do marcador de gênero amelogenina foram determinadas utilizando amostras de 200 μL de saliva doados por 296 alunos de graduação da FOB/USP, com idade ≥ 18 anos, após aprovação ética. Os testes laboratoriais foram feitos com kits comerciais. Resultados e parâmetros estatísticos foram obtidos por meio de programas clássicos: GeneMapper-ID-X, MS Excel 2002 versão 10.6871.6870, GenAlEx 6.5 e Arlequin 3.5, comparando quatro populações (brasileira, portuguesa, norte-americana e a população deste estudo). Os locos mais polimórficos foram D18S51 (17 alelos) e FGA (15 alelos), seguidos pelo D21S11 (13 alelos) e os menos polimórficos foram D16S539 e TH01 (7 alelos cada). A análise comparativa com amostra da população brasileira proveniente de estudos anteriores (n > 100.000) pelo teste goodness of fit X2 index não mostrou diferenças significativas entre estes grupos (p = 0,9999). Outros parâmetros estatísticos foram calculados comparando as populações: local (deste estudo), portuguesa e norte-americana. A análise de variância molecular (AMOVA) entre as três populações, entre as pessoas da mesma população e para cada pessoa de cada população mostrou que existe uma elevada variância individual (99%), que esta variância é mantida uniformemente entre as pessoas da mesma amostra/região (1%) e entre as três populações estudadas (0%). O estudo confirmou o elevado grau de polimorfismo e a alta heterozigosidade (96,5%) da população. Houve diferença significativa quanto ao gênero (79,7% mulheres) quando comparado à população brasileira em geral (50,4%), explicada pelas características do corpo discente da FOB/USP composto por 80,6% de pessoas do gênero feminino. Interessante foi a observação de uma microvariante alélica no loco D18S51, fora da escada padrão e da escala de abrangência do kit, correspondente ao alelo 29, ainda não definida na base de dados internacional (STRBase, atualizada em 07/08/2015). Esta microvariante deverá ser confirmada por testes familiares e sequenciamento de DNA para verificar a possibilidade de outra ocorrência familiar ou duplicação de nucleotídeos. No futuro, os dados obtidos neste estudo devem ser incorporados ao banco de dados da população brasileira e podem ser considerados como referência genética da população regional, ajudando a elucidar casos forenses. Após a confirmação, a potencial nova microvariante alélica contribuirá para a base de dados internacional STRBase.
Resumo:
Um das principais características da tecnologia de virtualização é a Live Migration, que permite que máquinas virtuais sejam movimentadas entre máquinas físicas sem a interrupção da execução. Esta característica habilita a implementação de políticas mais sofisticadas dentro de um ambiente de computação na nuvem, como a otimização de uso de energia elétrica e recursos computacionais. Entretanto, a Live Migration pode impor severa degradação de desempenho nas aplicações das máquinas virtuais e causar diversos impactos na infraestrutura dos provedores de serviço, como congestionamento de rede e máquinas virtuais co-existentes nas máquinas físicas. Diferente de diversos estudos, este estudo considera a carga de trabalho da máquina virtual um importante fator e argumenta que escolhendo o momento adequado para a migração da máquina virtual pode-se reduzir as penalidades impostas pela Live Migration. Este trabalho introduz a Application-aware Live Migration (ALMA), que intercepta as submissões de Live Migration e, baseado na carga de trabalho da aplicação, adia a migração para um momento mais favorável. Os experimentos conduzidos neste trabalho mostraram que a arquitetura reduziu em até 74% o tempo das migrações para os experimentos com benchmarks e em até 67% os experimentos com carga de trabalho real. A transferência de dados causada pela Live Migration foi reduzida em até 62%. Além disso, o presente introduz um modelo que faz a predição do custo da Live Migration para a carga de trabalho e também um algoritmo de migração que não é sensível à utilização de memória da máquina virtual.
Resumo:
Para que a sustentabilidade seja gerenciada e praticada de maneira efetiva, ela deve ser mensurada, utilizando-se de métodos de avaliação da sustentabilidade. Estão disponíveis diferentes métodos de avaliação, que geralmente reduzem o resultado desse levantamento à indicadores de desempenho ambiental, econômico e social (POPEA; ANNANDALE; MORISON-SAUNDERSB, 2004). Uma das denominações mais bem aceitas e difundidas para a conjunção da dimensão ambiental e econômica é conhecida por avaliação de eco eficiência (AEE). Eco eficiência é o \"aspecto da sustentabilidade que relaciona o desempenho ambiental de um sistema de produto ao valor do sistema de produto\" (ISO, 2012). Estão disponíveis diferentes métodos de AEE, porém sem evidência das suas semelhanças e particularidades e como essas características influenciam na escolha do método mais adequado de AEE em relação às potenciais aplicações O objetivo desta pesquisa é, portanto, analisar e indicar os tipos de métodos de avaliação de eco eficiência (AEE) mais adequados para ações gerenciais nas quais caibam tais abordagens. Foram selecionados onze métodos de AEE, a partir do estabelecimento de critérios de caracterização desses métodos, a saber: BASF, Bayer, EcoWater, Hahn et al., Kuosmanen e Kortelainen, MIPS, NRTEE, UN ESCAP, UN, TU Delft, e WBCSD. Identificaram-se, ainda, quatro potenciais aplicações: (i) Monitoramento de processo com vistas à melhoria contínua; (ii) Selecção e classificação de produtos; (iii) Atendimento a requisitos legais e outros requisitos; e, (iv) Marketing, rotulagem de produtos e comunicação ambiental. A partir dos elementos metodológicos estabelecidos pela norma ISSO 14045 (2012) e do conhecimento obtido dos métodos de AEE, determinaram-se quatro requisitos pelos quais os métodos e os potenciais aplicações foram avaliados: (i) Tipo de indicador de desempenho ambiental; (ii) Tipo de indicador de valor de sistema de produto; (iii) Abrangência de aplicação; e, (iv) Tipo de indicador de eco eficiência. Aplicando-se estes requisitos nos métodos de AEE e nos potenciais usos, concluiu-se que quanto à aplicações em termos de monitoramento de processos com vistas à melhoria continua os métodos de AEE recomendados foram Bayer, NRTEE, WBCSD e UN. Para situações de seleção e classificação de produtos os métodos BASF, EcoWater, Kuosmanen e Kortelainen, MIPS, Hahn et al., TU Delft, UN ESCAP e UN demonstraram ter boa aderência. No que se refere a usos voltados ao atendimento de requisitos legais e/ou de outras naturezas, os métodos NRTEE, WBCSD e UN são os mais indicados. Em aplicações de marketing, rotulagem e comunicação foram indicados os métodos BASF, EcoWater e MIPS. Finalmente, concluiu-se que, para a escolha adequada da metodologia para uma AEE, conhecimento prévio das características de cada abordagem é necessário.
Resumo:
Mediante a crescente necessidade de aumento na oferta de energia elétrica devido à constante elevação na demanda mundial, esta dissertação avalia o desempenho de um sistema conversor de energia de ondas marítimas em energia elétrica. O sistema em análise é o de coluna de água oscilante com turbina de dupla ação instalado na costa. Utiliza-se um modelo regular de ondas como perturbação à dinâmica de uma câmara semi-submersa gerando fluxo de ar através de uma turbina à ar de dupla ação. O sistema final é não linear e com parâmetros variantes no tempo. A dissertação investiga possibilidades para o aumento do rendimento da turbina em diferentes condições de mar através do método de simulação numérica. Após a modelagem física e matemática do sistema escolhido, inicia-se a síntese de um controlador proporcional derivativo para controle da pressão de ar na turbina em torno da pressão ideal de trabalho da mesma. A análise inclui o comparativo entre os resultados do sistema com e sem controlador e a avaliação de robustez utilizando ondas com amplitude variável. O trabalho apresenta ainda propostas de otimização do sistema para trabalhar em condições similares a região de Pecém no Brasil. Pelos resultados obtidos nas simulações, conclui-se que o rendimento e a robustez do sistema podem melhorar utilizando um sistema controlado. O rendimento do sistema poderá ainda ser otimizado para a região de instalação.
Resumo:
Este trabalho consiste na apresentação de técnicas de reabilitação e reforço e a sua adaptação ao GFRP (Glass Fiber Reinforced Polymer). O foco incidiu sobre as estruturas degradadas pela corrosão das armaduras, e apresenta-se uma vasta gama de técnicas de intervenção. Encamisamento, proteção eletroquímica, adição de armaduras são as técnicas mais desenvolvidas ao longo do trabalho. São ainda abordados os tipos de produtos de recobrimento, as técnicas de aplicação do recobrimento, bem como as ferramentas com maior utilidade para a reabilitação e reforço. De seguida faz-se um breve resumo das características e potencialidades do material GFRP, aborda-se alguns dos principais fornecedores, fazendo uma descrição dos produtos comercializados por estes, e ainda uma análise de preços por metro linear de varão GFRP. Por fim apresenta-se um levantamento fotográfico realizado na Região Autónoma da Madeira, de estruturas que apresentem sinais claros de corrosão das armaduras, com o objetivo de perceber a aplicabilidade dos varões de GFRP na reabilitação das mesmas. Apresenta-se ainda, uma possível técnica de reabilitação/reforço para todos os casos apresentados, utilizando os varões de GFRP. O levantamento fotográfico tem ainda o objetivo de perceber as principais causas de deterioração de estruturas na região, e de criar uma base de estruturas a necessitar de intervenção urgente.
Resumo:
Surfactants are versatile organic compounds that have, in a single molecule, double chemical affinity. The surfactant molecule is composed by a hy drophobic tail group, a hydrocarbon chain (linear, branched, or mixed), and by a hydrophilic head group, which contains polar groups that makes it able to be applied in the organophilization process of natural clays. Microemulsions are microheterogeneous b lends composed by: a surfactant, an oily phase (non - polar solvent), an aqueous phase, and, sometimes, a co - surfactant (short - chain alcohol). They are systems with thermodynamic stability, transparent, and have high solubility power. Vermiculite is a clay m ineral with an expandable crystalline structure that has high cation exchange capacity. In this work vermiculite was used to obtain organoclays. The ionic surfactants dodecyl ammonium chlori de (DDAC) and cetyltrimethylammonium bromide (C 16 TAB) were used in the organophilization process. They were used as surfactant aqueous solutions and, for DDAC, as a microemulsion system. The organoclays were used to promote the separation of binary mixtures of xylene isomers (ortho - and meta - xylene). Dif ferent analytical techniques were used to characterize microemulsion systems and also the nanoclays. It was produced a water - rich microemulsion system with 0.92 nm droplet average diameter. The vermiculite used in this work has a cationic exchange capacity of 172 meq/100g and magnesium as main cation (24.25%). The basal spacing of natural vermiculite and organo - vermiculites were obtained by X - ray Diffraction technique. The basal spacing was 1.48nm for natural vermiculite, 4.01nm for CTAB - vermiculite (CTAB 4 ) , and 3.03nm for DDAC - vermiculite (DDAC M1A), that proves the intercalation process. Separation tests were carried out in glass columns using three binary mixtures of xylene (ortho - xylene and meta - xylene). The results showed that the organovermiculite pre sented an enhanced chemical affinity by the mixture of hydrocarbons, when compared with the natural vermiculite, and also its preference by ortho - xylene. A factorial experimental design 2 2 with triplicate at the central point was used to optimize the xylen e separation process. The experimental design revealed that the initial concentration of isomers in the mixture and the mass of organovermiculite were the significant factors for an improved separation of isomers. In the experiments carried out using a bin ary mixture of ortho - xylene and meta - xylene (2:1), after its percolating through the organovermiculite bed (DDAC M1), it was observed the preference of the organoclay by the ortho - xylene isomer, which was retained in greater quantity than the meta - xylene o ne. At the end of the treatment, it was obtained a final concentration in meta - xylene of 47.52%.
Resumo:
The main hypothesis of this thesis is that the deve lopment of industrial automation applications efficiently, you need a good structuri ng of data to be handled. Then, with the aim of structuring knowledge involved in the contex t of industrial processes, this thesis proposes an ontology called OntoAuto that conceptua lly models the elements involved in the description of industrial processes. To validat e the proposed ontology, several applica- tions are presented. In the first, two typical indu strial processes are modeled conceptually: treatment unit DEA (Diethanolamine) and kiln. In th e second application, the ontology is used to perform a semantic filtering alarms, which together with the analysis of correla- tions, provides temporal relationships between alar ms from an industrial process. In the third application, the ontology was used for modeli ng and analysis of construction cost and operation processes. In the fourth application, the ontology is adopted to analyze the reliability and availability of an industrial plant . Both for the application as it involves costs for the area of reliability, it was necessary to create new ontologies, and OntoE- con OntoConf, respectivamentem, importing the knowl edge represented in OntoAuto but adding specific information. The main conclusions of the thesis has been that on tology approaches are well suited for structuring the knowledge of industrial process es and based on them, you can develop various advanced applications in industrial automat ion.
Resumo:
Developing an efficient methodology for oil recovery is extremely important . Within the range of enh anced oil recovery, known as EOR, the injection of polymer solutions becomes effective in controlling the mobility of displacing fluid . This method consists of adding polymers to the injection water to increase its viscosity, so that more water diffuses in to the porous medium and increasing the sweep efficiency in the reservoir. This work is studied by numerical simulation , application of the injection polymer solution in a homogeneous reservoir , semisynthetic with similar characteristics to the reservoirs of the Brazilian Northeast , numerical simulations were performed using thermal simulator STARS from CMG (Computer Modelling Group ). The study aimed to analyze the influence of some parameters on the behavior of reservoir oil production, with the response to cumulative production. Simulations were performed to analyze the influence of water injection, polymer solution and alternating injection of water banks and polymer solution, comparing the results for each simulated condition. The primary outcomes were: oil viscosity, percentage of injected polymer, polymer viscosity and flow rate of water injection. The evaluation of the influence of variables consisted of a complete experimental design followed a Pareto analysis for the purpose of pointing out which va riables would be most influential on the response represented b y the cumulative oil production . It was found that all variables significantly influenced the recovery of oil and the injection of polymer solution on an ongoing basis is more efficient for the cumulative production compared to oil recovery by continuous water injection. The primary recovery show ed low levels of oil production , water injection significantly improves the pro duction of oil in the reservoir , but the injection of polymer solution em erges as a new methodology to increase the production of oil, increasing the life of the well and possible reduction of water produced.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES