903 resultados para detecção de estrutura de modelo
Resumo:
A modelagem de processos industriais tem auxiliado na produção e minimização de custos, permitindo a previsão dos comportamentos futuros do sistema, supervisão de processos e projeto de controladores. Ao observar os benefícios proporcionados pela modelagem, objetiva-se primeiramente, nesta dissertação, apresentar uma metodologia de identificação de modelos não-lineares com estrutura NARX, a partir da implementação de algoritmos combinados de detecção de estrutura e estimação de parâmetros. Inicialmente, será ressaltada a importância da identificação de sistemas na otimização de processos industriais, especificamente a escolha do modelo para representar adequadamente as dinâmicas do sistema. Em seguida, será apresentada uma breve revisão das etapas que compõem a identificação de sistemas. Na sequência, serão apresentados os métodos fundamentais para detecção de estrutura (Modificado Gram- Schmidt) e estimação de parâmetros (Método dos Mínimos Quadrados e Método dos Mínimos Quadrados Estendido) de modelos. No trabalho será também realizada, através dos algoritmos implementados, a identificação de dois processos industriais distintos representados por uma planta de nível didática, que possibilita o controle de nível e vazão, e uma planta de processamento primário de petróleo simulada, que tem como objetivo representar um tratamento primário do petróleo que ocorre em plataformas petrolíferas. A dissertação é finalizada com uma avaliação dos desempenhos dos modelos obtidos, quando comparados com o sistema. A partir desta avaliação, será possível observar se os modelos identificados são capazes de representar as características estáticas e dinâmicas dos sistemas apresentados nesta dissertação
Resumo:
The separation methods are reduced applications as a result of the operational costs, the low output and the long time to separate the uids. But, these treatment methods are important because of the need for extraction of unwanted contaminants in the oil production. The water and the concentration of oil in water should be minimal (around 40 to 20 ppm) in order to take it to the sea. Because of the need of primary treatment, the objective of this project is to study and implement algorithms for identification of polynomial NARX (Nonlinear Auto-Regressive with Exogenous Input) models in closed loop, implement a structural identification, and compare strategies using PI control and updated on-line NARX predictive models on a combination of three-phase separator in series with three hydro cyclones batteries. The main goal of this project is to: obtain an optimized process of phase separation that will regulate the system, even in the presence of oil gushes; Show that it is possible to get optimized tunings for controllers analyzing the mesh as a whole, and evaluate and compare the strategies of PI and predictive control applied to the process. To accomplish these goals a simulator was used to represent the three phase separator and hydro cyclones. Algorithms were developed for system identification (NARX) using RLS(Recursive Least Square), along with methods for structure models detection. Predictive Control Algorithms were also implemented with NARX model updated on-line, and optimization algorithms using PSO (Particle Swarm Optimization). This project ends with a comparison of results obtained from the use of PI and predictive controllers (both with optimal state through the algorithm of cloud particles) in the simulated system. Thus, concluding that the performed optimizations make the system less sensitive to external perturbations and when optimized, the two controllers show similar results with the assessment of predictive control somewhat less sensitive to disturbances
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Uma definição confiável dos requisitos de um software depende diretamente da completa e correta compreensão sobre as necessidades do sistema e sua conseqüente representação de forma adequada ao processo de desenvolvimento. Uma proposta de modelagem de requisitos deve apresentar qualidades que colaborem para a compreensão mútua das necessidades entre os envolvidos no processo e que organizem os requisitos de forma a permitir o acompanhamento no desenvolvimento do software. O presente trabalho apresenta um modelo de estruturação de requisitos fundamentado em metodologias orientadas a objetivos com utilização de cenários e preceitos da Teoria da Atividade. O modelo tem sua argumentação nas premissas que cliente e usuários normalmente expressam suas necessidades através de objetivos almejados e que a ação humana deve ser analisada dentro de um contexto para que possa fazer sentido e ser compreendida. Inserido no contexto do Projeto FILM1, cujo objetivo é expandir o Método Fusion, agregando uma etapa de modelagem de requisitos, o trabalho estabeleceu a qualidade de usabilidade como motivadora da definição de um modelo de estruturação de requisitos. A usabilidade é uma qualidade que visa facilitar a utilização do modelo como uma ferramenta de representação dos requisitos de forma inteligível, atuando tanto na especificação dos requisitos como na validação dos mesmos entre os envolvidos. Os requisitos são estruturados segundo uma abordagem voltada aos clientes e usuários do sistema. O modelo definido tem por objetivo prover a construção gradual e incremental do entendimento compartilhado entre os envolvidos sobre os domínios do problema e da solução, na concepção e no desenvolvimento do software. Metodologias orientadas a objetivos, operacionalizadas através de cenários, conjugadas a princípios da atividade oferecem um suporte adequado a estruturação de requisitos provendo usabilidade ao modelo. A avaliação da aplicabilidade do modelo é realizada com a modelagem de requisitos em três estudos de casos. Em cada caso são aplicadas técnicas de elicitação no sentido da afinar a sintonia com a estrutura do modelo de requisitos. A concepção do modelo, embasada em conceitos da Teoria da Atividade, é bastante adequado às atividades de elicitação em uma abordagem voltada aos clientes e usuários.
Resumo:
O objetivo geral da tese foi desenvolver um modelo sistêmico de segurança do trabalho (também denominado 5C) com base nos fatores causais e contributivos aos acidentes do trabalho abordados na literatura, na análise macroergonômica do trabalho e no ponto de vista de quem os percebe (fator subjetivo). A revisão de literatura sobre Teorias e Modelos da Causa do Acidente e uma Modelagem para o Gerenciamento de Risco foi a base para a definição dos cinco fatores (5C) da primeira versão do Modelo Sistêmico de Segurança do Trabalho: carga de trabalho, confiabilidade, capacitação, custos e cultura de segurança. O referencial teórico sobre cada fator C, para a definição dos respectivos subfatores e para a concepção da estrutura do modelo que pressupõe hierarquia e permeabilidade entre os fatores 5C e fatores hipotéticos de distância e proximidade. A representação gráfica do modelo seguiu o tipo diagramático e configuração espiral. Os estudos de caso, cuja abordagem e procedimentos metodológicos tiveram como base o método de Análise Macroergonômica Trabalho (AMT) de Guimarães (1998; 2005), viabilizaram a submissão dos (sub)fatores 5C à realidade. Os estudos foram realizados no contexto de trabalho de operadores trens urbanos (Cenário I) e de eletricistas de redes aéreas desenergizadas do sistema de distribuição de energia elétrica (Cenário II), os quais possuem grau de risco três e periculosidade caracterizada por risco de contato ou de exposição a sistema elétrico de potência, permanente ou intermitente A avaliação do modelo seguiu aborgadem híbrida. A avaliação qualitativa consistiu na confrontação dos (sub)fatores 5C prescritos do modelo com os fatores descritos obtidos nos estudos de caso (Cenários I e II). Os resultados promoveram o estabelecimento dos parâmetros qualitativos dos subfatores 5C e, em decorrência, a confirmação dos (sub)fatores 5C do modelo. De outra parte, revelaram demandas de segurança não idênticas, o que era esperado, tendo em vista as características e peculiaridades de cada tarefa/sistema. A avaliação quantitativa foi realizada por meio de questionário elaborado a partir das informações geradas ao longo da pesquisa e testes estatísticos, aplicados sobre uma amostra da população do Cenário I. Os resultados indicaram que todos os (sub)fatores 5C impactam na segurança do trabalho em diferentes níveis (graus de importância) e que a intensidade de cada fator 5C para a ocorrência de acidentes varia em função do tipo de acidente. Verificou-se, também, a existência de correlações entre os fatores 5C, o que confirma a natureza sistêmica do modelo e, em decorrência, a estrutura hieráquica, o pressuposto de permeabilidade e os fatores hipotéticos de distância e proximidade. A versão final do Modelo Sistêmico de Segurançado Trabalho seguiu a primeira versão, acrescida pelos subfatores 5C, relações de constrangimento-resposta, quatro níveis (conceitual, estratégico, tático e operacional) e uma proposta de usabilidade segundo as perspectivas bottom-up e top-down. A validação do modelo implicará na sua aplicação em diferentes contextos de trabalho.
Resumo:
Este item é parte de um conjunto de modelos produzido pela equipe do Laboratório de Objetos de Apredizagem (LOA)/UFSCar para o jogo LabTecA
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Este documento descreve o modelo molecular da proteína XF2234 e a análise preliminar da sua estrutura. O modelo foi construído por modelagem por homologia (ou modelagem comparativa) com a estrutura cristalográfica de uma proteína small heat shock de Triticum aestivum (trigo). A análise da estrutura tridimensional da proteína XF2234 tem o objetivo de contribuir para aumentar o conhecimento sobre o papel biológico das smHSPs, necessário para o combate à CVC.
Resumo:
All systems found in nature exhibit, with different degrees, a nonlinear behavior. To emulate this behavior, classical systems identification techniques use, typically, linear models, for mathematical simplicity. Models inspired by biological principles (artificial neural networks) and linguistically motivated (fuzzy systems), due to their universal approximation property, are becoming alternatives to classical mathematical models. In systems identification, the design of this type of models is an iterative process, requiring, among other steps, the need to identify the model structure, as well as the estimation of the model parameters. This thesis addresses the applicability of gradient-basis algorithms for the parameter estimation phase, and the use of evolutionary algorithms for model structure selection, for the design of neuro-fuzzy systems, i.e., models that offer the transparency property found in fuzzy systems, but use, for their design, algorithms introduced in the context of neural networks. A new methodology, based on the minimization of the integral of the error, and exploiting the parameter separability property typically found in neuro-fuzzy systems, is proposed for parameter estimation. A recent evolutionary technique (bacterial algorithms), based on the natural phenomenon of microbial evolution, is combined with genetic programming, and the resulting algorithm, bacterial programming, advocated for structure determination. Different versions of this evolutionary technique are combined with gradient-based algorithms, solving problems found in fuzzy and neuro-fuzzy design, namely incorporation of a-priori knowledge, gradient algorithms initialization and model complexity reduction.
Resumo:
Nas últimas décadas tem-se verificado um aumento bastante acentuado da utilização de modelos in vitro e in silico para a obtenção de dados que permitem aumentar a eficácia de programas de desenvolvimento de novos fármacos. Actualmente são utilizados dois tipos de modelos para descrever a farmacocinética de compostos químicos em função do tempo: modelos empíricos farmacocinéticos e modelos farmacocinéticos baseados na fisiologia (PBPK). Modelos PBPK assumem que o corpo humano interage com os compostos químicos como um sistema integrado, pelo que um evento que ocorre numa zona do corpo poderá influenciar um evento a ocorrer noutra zona, aparentemente distinta. Estes modelos assumem que o organismo humano é constituído por “compartimentos” que representam fisiologicamente os órgãos, tecidos e outros espaços fisiológicos. Para a correcta utilização destes modelos é necessário determinar a estrutura do modelo e as suas características, escrever equações que o caracterizem, bem como definir e estimar os parâmetros deste. Estes modelos têm vindo a ser usados no campo toxicológico e farmacêutico cada vez com maior frequência. No futuro poder-se-ão transformar numa ferramenta universal.
Resumo:
Este estudo pretendia identificar o entendimento do cliente da área de business-to-business sobre a qualidade, o sacrifício e o valor percebidos, no processo para a tomada de decisão pela compra de produtos que estão passando pela transição de tecnologia analógica para a tecnologia digital. A pesquisa foi realizada por meio de um censo com as lojas de fotografia localizadas na cidade de São Paulo, consumidoras do produto Minilab Digital. Foi constatado que esse consumidor, por meio da utilização da tecnologia digital, reconhece o valor como vantagem (ganho), e que a estrutura do modelo de Zeithaml (1988) é adequada para esse mercado. Foram observados ainda a qualidade, o sacrifício e o risco percebidos por esse consumidor.
Resumo:
A incerteza é o principal elemento do futuro. Desde os primórdios, o homem busca métodos para estruturar essas incertezas futuras e assim poder guiar suas ações. Apenas a partir da segunda metade do século XX, porém, quando os métodos projetivos e preditivos já não eram mais capazes de explicar o futuro em um ambiente mundial cada vez mais interligado e turbulento, é que nasceram os primeiros métodos estruturados de construção de cenários. Esses métodos prospectivos visam lançar a luz sobre o futuro não para projetar um futuro único e certo, mas para visualizar uma gama de futuros possíveis e coerentes. Esse trabalho tem como objetivo propor uma nova abordagem à construção de cenários, integrando o Método de Impactos Cruzados à Análise Morfológica, utilizando o conceito de Rede Bayesianas, de fonna a reduzir a complexidade da análise sem perda de robustez. Este trabalho fará uma breve introdução histórica dos estudos do futuro, abordará os conceitos e definições de cenários e apresentará os métodos mais utilizados. Como a abordagem proposta pretende-se racionalista, será dado foco no Método de Cenários de Michel Godet e suas ferramentas mais utilizadas. Em seguida, serão apresentados os conceitos de Teoria dos Grafos, Causalidade e Redes Bayesianas. A proposta é apresentada em três etapas: 1) construção da estrutura do modelo através da Análise Estrutural, propondo a redução de um modelo inicialmente cíclico para um modelo acíclico direto; 2) utilização da Matriz de Impactos Cruzados como ferramenta de alimentação, preparação e organização dos dados de probabilidades; 3) utilização da Rede Bayesiana resultante da primeira etapa como subespaço de análise de uma Matriz Morfológica. Por último, um teste empírico é realizado para comprovar a proposta de redução do modelo cíclico em um modelo acíclico.
Resumo:
Incluye Bibliografía
Resumo:
Pós-graduação em Ciência da Informação - FFC
Resumo:
A fragilidade brasileira quanto à competitividade turística é um fato observável nos dados da Organização Mundial do Turismo. O Brasil caiu em 2011, da 45ª para a 52ª posição, apesar de liderar no atributo recursos naturais e estar colocado na 23° em recursos culturais. Assim, grandes interesses e esforços têm sido direcionados para o estudo da competitividade dos produtos e destinos turísticos. O destino turístico é caracterizado por um conjunto complexo e articulado de fatores tangíveis e intangíveis, apresentando alta complexidade, dados de elevada dimensionalidade, não linearidade e comportamento dinâmico, tornando-se difícil a modelagem desses processos por meio de abordagens baseadas em técnicas estatísticas clássicas. Esta tese investigou modelos de equações estruturais e seus algoritmos, aplicados nesta área, analisando o ciclo completo de análise de dados, em um processo confirmatório no desenvolvimento e avaliação de um modelo holístico da satisfação do turista; na validação da estrutura do modelo de medida e do modelo estrutural, por meio de testes de invariância de múltiplos grupos; na análise comparativa dos métodos de estimação MLE, GLS e ULS para a modelagem da satisfação e na realização de segmentação de mercado no setor de destino turístico utilizando mapas auto-organizáveis de Kohonen e sua validação com modelagem de equações estruturais. Aplicações foram feitas em análises de dados no setor de turismo, principal indústria de serviços do Estado do Rio Grande do Norte, tendo sido, teoricamente desenvolvidos e testados empiricamente, modelos de equações estruturais em padrões comportamentais de destino turístico. Os resultados do estudo empírico se basearam em pesquisas com a técnica de amostragem aleatória sistemática, efetuadas em Natal-RN, entre Janeiro e Março de 2013 e forneceram evidências sustentáveis de que o modelo teórico proposto é satisfatório, com elevada capacidade explicativa e preditiva, sendo a satisfação o antecedente mais importante da lealdade no destino. Além disso, a satisfação é mediadora entre a geração da motivação da viagem e a lealdade do destino e que os turistas buscam primeiro à satisfação com a qualidade dos serviços de turismo e, posteriormente, com os aspectos que influenciam a lealdade. Contribuições acadêmicas e gerenciais são mostradas e sugestões de estudo são dadas para trabalhos futuros.