57 resultados para Desenvolvimento Orientado a Modelos
Resumo:
Este trabalho teve como objetivo o desenvolvimento de uma nova técnica para determinação do tamanho médio e da distribuição de tamanho de bolhas de ar em meio aquoso. A nova técnica, denominada de LTM-BSizer, uma vez otimizada, foi aplicada na caracterização das bolhas geradas por diversos métodos utilizados tanto na flotação para tratamento de efluentes líquidos quanto na flotação de partículas minerais e, principalmente, na investigação de parâmetros operacionais e do efeito do tamanho de bolhas na flotação de partículas minerais (quartzo como modelo) finas (40-10 µm) e ultrafinas (<10 µm). A técnica LTM-BSizer é baseada no conceito da captura, ou seja, ao contrário das técnicas fotográficas até agora propostas, onde as imagens (fotos ou vídeos) das bolhas em movimento foram obtidas com visores verticais, este método obteve as imagens das bolhas estabilizadas em um visor disposto na horizontal. Entre as vantagens em relação aos métodos fotográficos existentes destacam-se a melhor qualidade das imagens e a capacidade de medir distribuições de tamanho de bolha com grande amplitude, desde microbolhas (<100 µm) até bolhas maiores (~ 1 a 3 mm). Os métodos de geração de bolhas pesquisados foram: microbolhas geradas por despressurização de água saturada com ar em um vaso saturador (processo de flotação por ar dissolvido-FAD) ou por uma bomba centrífuga multifase (novo equipamento para geração de microbolhas), injeção de mistura ar-líquido através de um constritor tipo venturi (destaque na flotação não convencional), injeção de ar em cilindro inox poroso (comumente aplicado para dispersão de gás) e bolhas geradas em uma célula de flotação por ar induzido (FAI), convencional de bancada Para todos os métodos citados, exceto o último, a distribuição de tamanho de bolha foi avaliada numa coluna em acrílico com 200 cm de altura e 72 mm de diâmetro, onde através de um ponto de amostragem parte do fluxo foi conduzida até o visor. Os resultados obtidos com esta técnica foram, para os diâmetros médios de bolha: 30 a 70 µm para FAD, 65 a 130 µm para bomba multifase, 200 a 1400 µm para venturi, 500 a 1300 µm para FAI e 500 a 1000 µm para o cilindro poroso. A influência de alguns parâmetros operacionais na formação das bolhas foi estudada em detalhe e os resultados obtidos mostraram uma boa correspondência com os valores encontrados na literatura e em outros casos, elucidaram efeitos considerados contraditórios na literatura técnica. Este trabalho demonstrou que, o tamanho médio e a distribuição de tamanho das microbolhas, não são influenciados pela pressão de saturação no intervalo de 294 a 588 kPa, mas sim pela quantidade de bolhas e pelo tempo de retenção Também foi constatado que a diminuição da tensão superficial da água (adição de 30 mg/L de oleato de sódio) aumenta consideravelmente (3 a 8 vezes) o número de microbolhas na FAD a baixas pressões de saturação (196 e 294 kPa). O tamanho e a distribuição de tamanho de bolhas geradas em constrições de fluxo tipo venturi variam em função dos parâmetros concentração de tensoativo, velocidade superficial de líquido (UL) e razão gás/líquido (Qr). Uma pequena diminuição da tensão superficial, de 73 para 68 mN/m, provocada pela adição de 20 mg/L do tensoativo DF 250, foi suficiente para diminuir consideravelmente o tamanho das bolhas geradas, permanecendo constante para concentrações maiores, sugerindo que esta seja a concentração crítica de coalescência (CCC) para este sistema. Um aumento de UL (mantendo Qr constante) e diminuição de Qr (com UL constante) levaram a distribuições com menor amplitude e diâmetro médio. No caso das microbolhas geradas através da bomba multifase, o tamanho de bolhas diminuiu com a pressão até atingir o limite de solubilidade teórico ar/líquido. O tamanho das bolhas gerados através de placa porosa e FAI apresentaram boa correspondência com os reportados na literatura e em ambas as técnicas foi, de novo, encontrada, para DF 250, a mesma CCC igual a 20 mg/L. O sistema de flotação de partículas finas e ultrafinas, foi estudado via recuperação de finos de quartzo (50% < 10µm) em coluna de laboratório. As variáveis estudadas foram; a distribuição de tamanho de bolhas e a concentração de coletor (amina). Os resultados obtidos mostraram que a recuperação das frações mais finas aumenta com a diminuição do tamanho de bolhas de acordo com os modelos existentes de flotação. Entretanto, foi encontrado, na captura de partículas ultrafinas pelas bolhas, um valor ótimo de tamanho de partícula. Assim, a captura diminui com o tamanho de partícula até 5-7 µm e aumenta, de novo, nas frações menores. Esses resultados são discutidos em termos de um mecanismo de difusão como fenômeno predominante nos mecanismos de adesão bolha-partícula.
Resumo:
o monitoramento da expansão das áreas urbanas e a análise da sua interação com o meio físico têm sido um grande desafio para os técnicos de planejamento urbano. No Brasil, em especial, dada a velocidade com que o fenômeno se processa e graças a um crescimento desordenado das cidades nas últimas décadas, esses estudos, que envolvem um elevado número de informações, tem exigido decisões e diagnósticos urbanos cada vez mais rápidos. Esta dissertação propõe uma metodologia para o planejamento racional do uso do solo urbano através do emprego integrado de tecnologias recentes como Sistema de Informações Geográficas (SIG), Modelagem Numérica do Terreno (MNT) e Sensoriamento Remoto através de imagens orbitais. Para isso, são implementados no SIG desenvolvido pelo INPE dados provenientes de cartas topográficas, de mapas temáticos do meio físico e de imagens orbitais LANSAT/TM da região estudada. A partir desses dados iniciais são geradas, também num SIG, outras informações com objetivo de estudar a evolução da área urbana, identificar áreas com suscetibilidade preliminar à erosão laminar, áreas com restrição ao uso urbano e áreas de eventos perigosos e riscos. o trabalho apresenta inicialmente uma revisão bibliográfica sobre a aplicação de Sensoriamento Remoto, Modelagem Numérica do Terreno (MNT) e Sistema de Informações Geográficas (SIG) em estudos urbanos. Segue-se a conceituação e aspectos teóricos dessas três ferramentas básicas utilizadas. A metodologia propriamente dita traz os planos de informações originais e as suas respectivas fontes de informações, os processos de classificação de imagens digitais empregados e os modelos de cruzamentos desenvolvidos para um SIG. A área teste escolhida é a sub-bacia do Arroio Feijó, localizada na região metropolitana de Porto Alegre, na porção centro-leste do Estado do Rio Grande do Sul. A região é caracterizada por uma elevada densidade populacional, pela presença de áreas inundáveis e pela ocorrência de processos eroslVOS. Os resultados mostram que a metodologia proposta é adequada e eficiente para agilizar as atividades de planejamento urbano, subsidiando a elaboração de Planos Diretores de Desenvolvimento Integrado e orientando o crescimento das cidades para regiões mais favoráveis. Além disso, contribui para a prevenção de parcela dos riscos e problemas geotécnicos relacionados ao meio físico nas áreas urbanas.
Resumo:
Esta dissertação aborda o discurso do desenvolvimento do governo Leonel Brizola (1959-1963) no Rio Grande do Sul. A partir de uma perspectiva que associa as preocupações da Ciência Política com a abordagem da Análise do Discurso, este trabalho examina alguns dos principais aspectos da construção do referido discurso. Neste sentido, a pesquisa apresenta uma reflexão teórica sobre a noção de discurso e sobre destacadas matrizes de pensamento acerca dos modelos de desenvolvimento. Isto oferece subsídios para um exame das políticas no campo econômico por parte deste governo estadual. Dentre as medidas adotadas por esta administração, a dissertação enfatiza os processos de desapropriação de empresas estrangeiras nos setores de energia elétrica e de telecomunicações. Baseado no estudo específico destes eventos de intervenção estatal, a pesquisa analisa a constituição heterogênea do discurso do desenvolvimento do governo Brizola. Estes aspectos permitem averiguar: os distintos sentidos atribuídos ao desenvolvimento, o significado político destas encampações, a dinâmica dos elementos discursivos envolvidos e a importância de tais iniciativas governamentais na configuração de um projeto econômico para o Rio Grande do Sul.
Resumo:
The work described in this thesis aims to support the distributed design of integrated systems and considers specifically the need for collaborative interaction among designers. Particular emphasis was given to issues which were only marginally considered in previous approaches, such as the abstraction of the distribution of design automation resources over the network, the possibility of both synchronous and asynchronous interaction among designers and the support for extensible design data models. Such issues demand a rather complex software infrastructure, as possible solutions must encompass a wide range of software modules: from user interfaces to middleware to databases. To build such structure, several engineering techniques were employed and some original solutions were devised. The core of the proposed solution is based in the joint application of two homonymic technologies: CAD Frameworks and object-oriented frameworks. The former concept was coined in the late 80's within the electronic design automation community and comprehends a layered software environment which aims to support CAD tool developers, CAD administrators/integrators and designers. The latter, developed during the last decade by the software engineering community, is a software architecture model to build extensible and reusable object-oriented software subsystems. In this work, we proposed to create an object-oriented framework which includes extensible sets of design data primitives and design tool building blocks. Such object-oriented framework is included within a CAD Framework, where it plays important roles on typical CAD Framework services such as design data representation and management, versioning, user interfaces, design management and tool integration. The implemented CAD Framework - named Cave2 - followed the classical layered architecture presented by Barnes, Harrison, Newton and Spickelmier, but the possibilities granted by the use of the object-oriented framework foundations allowed a series of improvements which were not available in previous approaches: - object-oriented frameworks are extensible by design, thus this should be also true regarding the implemented sets of design data primitives and design tool building blocks. This means that both the design representation model and the software modules dealing with it can be upgraded or adapted to a particular design methodology, and that such extensions and adaptations will still inherit the architectural and functional aspects implemented in the object-oriented framework foundation; - the design semantics and the design visualization are both part of the object-oriented framework, but in clearly separated models. This allows for different visualization strategies for a given design data set, which gives collaborating parties the flexibility to choose individual visualization settings; - the control of the consistency between semantics and visualization - a particularly important issue in a design environment with multiple views of a single design - is also included in the foundations of the object-oriented framework. Such mechanism is generic enough to be also used by further extensions of the design data model, as it is based on the inversion of control between view and semantics. The view receives the user input and propagates such event to the semantic model, which evaluates if a state change is possible. If positive, it triggers the change of state of both semantics and view. Our approach took advantage of such inversion of control and included an layer between semantics and view to take into account the possibility of multi-view consistency; - to optimize the consistency control mechanism between views and semantics, we propose an event-based approach that captures each discrete interaction of a designer with his/her respective design views. The information about each interaction is encapsulated inside an event object, which may be propagated to the design semantics - and thus to other possible views - according to the consistency policy which is being used. Furthermore, the use of event pools allows for a late synchronization between view and semantics in case of unavailability of a network connection between them; - the use of proxy objects raised significantly the abstraction of the integration of design automation resources, as either remote or local tools and services are accessed through method calls in a local object. The connection to remote tools and services using a look-up protocol also abstracted completely the network location of such resources, allowing for resource addition and removal during runtime; - the implemented CAD Framework is completely based on Java technology, so it relies on the Java Virtual Machine as the layer which grants the independence between the CAD Framework and the operating system. All such improvements contributed to a higher abstraction on the distribution of design automation resources and also introduced a new paradigm for the remote interaction between designers. The resulting CAD Framework is able to support fine-grained collaboration based on events, so every single design update performed by a designer can be propagated to the rest of the design team regardless of their location in the distributed environment. This can increase the group awareness and allow a richer transfer of experiences among them, improving significantly the collaboration potential when compared to previously proposed file-based or record-based approaches. Three different case studies were conducted to validate the proposed approach, each one focusing one a subset of the contributions of this thesis. The first one uses the proxy-based resource distribution architecture to implement a prototyping platform using reconfigurable hardware modules. The second one extends the foundations of the implemented object-oriented framework to support interface-based design. Such extensions - design representation primitives and tool blocks - are used to implement a design entry tool named IBlaDe, which allows the collaborative creation of functional and structural models of integrated systems. The third case study regards the possibility of integration of multimedia metadata to the design data model. Such possibility is explored in the frame of an online educational and training platform.
Resumo:
Os modelos identificados envolveram desde a utilização de noções animistas e substancialistas, nos modelos mais simples, até a articulação dos esquemas corpusculares e de seu componente cinético, no modelo mais avançado. Esses modelos apresentam coerência lógica interna e um mesmo sujeito pôde ter usado diferentes modelos durante a entrevista, oscilando entre um e outro. A multiplicidade dos modelos mobilizados pode sugerir que alguns domínios da experiência física necessitariam outros tipos de conservação, como: (i) a da natureza da matéria na mudança de estado do iodo e (ii) a da massa global nas reações químicas. Essas conservações podem ser consideradas mais abstratas que as conservações de substância, peso e volume, pois as subsume. Isso, portanto, poderia justificar as dificuldades apresentadas pelos sujeitos na interpretação dos fenômenos estudados.
Resumo:
Este trabalho de conclusão apresenta um método e uma ferramenta para avaliação da maturidade e da capacitação de ambientes de desenvolvimento de software baseado no uso da abordagem Goal/Question/Metric-GQM combinada aos métodos tradicionais de avaliação já existentes para o modelo Capability Maturity Model-CMM. A aplicação deste método através da ferramenta proposta permitirá a organização avaliada estabelecer o grau de conformidade preliminar dos seus processos em relação às exigências do modelo CMM. Esta avaliação poderá ser utilizada como ponto de partida para o estabelecimento de um processo de melhoria. O modelo CMM descreve uma série de estágios de maturidade que são atingidos através da satisfação de metas estabelecidas para áreas-chave do processo de desenvolvimento de software da organização. A evolução deste modelo, chamada de CMMI, Capability Maturity Model Integrated, possibilita que as organizações optem pela forma de implementação do modelo. Esta opção pode se dar através do uso do CMMI em estágios, vertical utilizando os níveis tradicionais do modelo, ou contínua; horizontal baseada nas áreas-chave de processo. Da mesma forma, a avaliação pode ser realizada sobre qualquer modelo escolhido. O modelo GQM descreve uma estrutura hierárquica baseada na existência de metas de melhoria preestabelecidas das quais são extraídas métricas e questões que as satisfazem. O nível de satisfação dessas metas é obtido através da análise das métricas relativas às questões aplicadas ao foco da avaliação Algumas ferramentas para avaliação dos processos relativos ao modelo CMM são apresentadas, tais como o questionário da maturidade e os modelos existentes para a criação de métodos de avaliação, CMM Apraisal Framework-CAF e Apraisal Requirements for CMMI-ARC. O diferencial apresentado é o estabelecimento de métricas objetivas e regras de interpretação dessas para a definição da satisfação de uma determinada área-chave de processo, ACP, do nível 2 do modelo CMMI. Além dessas contribuições vale destacar o estabelecimento de questões adicionais ao questionário da maturidade com o objetivo de capturar essas métricas e a criação de grafos GQM para cada ACP do nível 2 do CMMI. Esses grafos permitem a visualização do relacionamento existente entre cada ACP do nível 2 do CMMI com suas metas, questões e métricas. A aplicação do método e da ferramenta será demonstrada através da utilização de um estudo de caso aplicado na empresa DWA Informática Ltda.
Resumo:
Os transtornos globais do desenvolvimento (TGD) caracterizam-se pelo comprometimento severo em três áreas do desenvolvimento: habilidade de interação social recíproca, habilidade de comunicação, e presença de comportamentos, interesses e atividades estereotipadas (DSM – IV –TR, 2002). As características próprias do comportamento, somadas á severidade do transtorno podem constituir estressores em potencial para familiares e/ou cuidadores. A análise da literatura revelou que esse tema tem sido abordado com base, principalmente, em modelos de déficit, os quais focalizam, predominantemente, a psicopatologia familiar. O modelo biopsicossocial da adaptação à doença crônica de Bradford (1997) pode ser útil na compreensão dos transtornos do desenvolvimento, pois chama a atenção para a interação entre alguns fatores: crenças sobre saúde, apoio social, padrões de interação e comunicação familiar e estratégias de coping. Este estudo investiga as possíveis relações entre auto-eficácia materna e estresse em mães e indivíduos portadores de TGD, tendo como hipótese a correlação negativa entre as variáveis. Participaram deste estudo 30 mães com filhos portadores de TGD, com idades variando entre 30 a 56 anos, cujos filhos tinham diagnóstico de TGD e idades que variam de 12 a 30 anos. Também foram examinadas a visão materna acerca do suporte social recebido, preocupações e dificuldades para lidar com o filho, estratégias de coping, crenças e relacionamento entre os membros da família. Os resultados revelam altos níveis de estresse materno e altos níveis de auto-eficácia materna, porém não foi encontrada correlação entre estes. A análise qualitativa das entrevistas revelou, entre outros aspectos, que a qualidade do relacionamento familiar, rede de apoio social e estratégias de coping são mediadores do efeito TGD sobre o estresse materno. Os dados corroboram as premissas do metamodelo de adaptação familiar à doença crônica ao demonstrar que a presença de um membro com TGD na família não representa necessariamente um evento adverso para as mães, desde que exista uma mediação por parte do suporte social, percepção e identificação dos recursos intra e extrafamiliares, estratégias afetivas de coping e qualidade oferecida pelos sistemas de saúde, sendo particularmente importante, a qualidade das relações familiares.
Resumo:
Estudo sobre o planejamento urbano no Brasil, com objetivo de construir um modelo analítico capaz de identificar as questões inerentes ao processo de formação do discurso sobre o urbano no país; identificar diferentes vertentes historicamente formuladas pelo planejamento urbano brasileiro; estabelecer relações com a natureza, características, sobrevivências e transformações presentes no que a literatura pertinente ao tema tem considerado como “novos” modelos de planejamento e gestão urbanos. Esses “novos” modelos de planejamento têm se organizado, em alguns pólos, dentro de uma presente tensão intelectual e ideológica, onde se destacam, três principais correntes: a da Reforma Urbana Democrático-Redistributivista, a do Plano Estratégico Liberal Competitivo e a do Desenvolvimento Urbano Sustentável. Identificam-se algumas práticas tidas como inovadoras nestas três correntes, tais como: o desenvolvimento econômico local, a descentralização das políticas urbanas, a inserção da temática ambiental nas discussões sobre o urbano, uma maior politização do planejamento e o reconhecimento dos assentamentos informais como parte integrante da cidade real. Com este “pano de fundo” o estudo examina a experiência de planejamento urbano na cidade de Vitória, compreendida entre os anos de 1997 a 2004. Procura analisar o discurso e a prática relacionados ao Plano Estratégico da Cidade – Vitória do Futuro, 1996-2010 (Plano) e ao Programa Integrado de Desenvolvimento Social, Urbano e Preservação Ambiental em Áreas Ocupadas por População de Baixa Renda - Projeto Terra (programas e ações), inserindo tal caracterização aos seus respectivos contextos sócio-político-econômicos, a fim de responder ao questionamento central: se estes “novos” modelos compõem realmente novas formas de intervir sobre a questão urbana ou seriam reformulações de antigas abordagens, reafirmando a tradicional prática do planejamento brasileiro de reprodução de modelos, todavia, feitas com adaptações ao “pensamento social” vigente no momento. De modo específico, visa verificar até que ponto há um rebatimento dos “novos” modelos de planejamento abordados, nas experiências de Vitória, bem como verificar as possíveis contradições existentes nessas relações.
Resumo:
As vacinas de DNA têm sido utilizadas para a indução de imunidade contra antígenos virais e bacterianos. A aplicação de modelos experimentais tem sido explorada visando a indução de tolerância imunológica através da expressão de genes cujos produtos podem modular o sistema imune para um estado de não responsividade. A terapia gênica oferece a possibilidade de manipulação do sistema imune do receptor, através de um sistema de administração de genes específicos sob condições pré-definidas. Sua eficácia depende dos níveis de expressão e da natureza do antígeno, da via de administração assim como de sua distribuição nos tecidos (a qual às vezes depende do promotor utilizado). Porém, sua aplicação clínica é limitada em parte devido aos baixos níveis de expressão obtidos in vivo. A VP22 é uma proteína do tegumento do vírus Herpes simples tipo 1, que tem a propriedade de fazer tráfego intercelular. Estudos recentes têm demonstrado a alta eficiência desta molécula no transporte de proteínas heterólogas como VP22-p53, VP22-β galactosidase e VP22-proteína verde fluorescente. Para a indução de tolerância imunológica, tem sido demonstrado que a persistência do antígeno, pelo menos por algum período, é muito importante. Moléculas do complexo de histocompatibilidade principal (MHC) têm sido utilizadas para induzir tolerância a nível central ou periférico, em diferentes protocolos. Dentre estas, as moléculas da classe I do camundongo, Kb, têm sido utilizadas com sucesso. O objetivo desse trabalho foi de construir duas vacinas recombinantes: pVP22::Kb e pCIneo::Kb. A primeira contém dois genes clonados na mesma pauta de leitura: a cadeia pesada de classe I Kb e VP22. O cDNA que codifica para o Kb foi obtido pela extração de RNA total de baço de um camundongo C57BL/6 (haplótipo H-2b) seguido de transcrição reversa. Este produto foi amplificado pela reação em cadeia da polimerase. Esta molécula também foi obtida pela amplificação direta do gene Kb previamente clonado no sítio EcoR I do plasmídeo pBluescriptIISK (Stratagene®). Ambos os produtos de PCR foram subclonados com extremidades cegas no plasmídeo pCRBluntII (Invitrogen®). Foram obtidos dezenove plasmídeos recombinantes, denominados pCRBluntII::Kb, e um deles foi escolhido e digerido com as enzimas de restrição Spe I e Xba I e defosforilado com a enzima fosfatase alcalina (CIAP). O fragmento digerido foi clonado nos plasmídeos pVP22-myc/His (Invitrogen®) e pCIneo (Promega®) previamente digeridos com a enzima Xba I. Os novos plasmídeos pVP22::Kb e pCIneo::Kb foram utilizados para transfectar a linhagem celular eucariótica CHO. A expressão do mRNA para o Kb foi confirmada pela transcrição reversa e PCR e a expressão da proteína por imunofluorescência e citometria de fluxo.
Resumo:
Esse trabalho tem por objetivo geral o desenvolvimento de uma metodologia de modelagem numérica que represente o escoamento e o fenômeno de mistura em um modelo físico de panela de aciaria de base elíptica. Os objetivos específicos do trabalho são: o estudo dos coeficientes das forças de interação líquido-bolha, dos modelos de turbulência e da mudança do formato da base da panela de circular para elíptica. O escoamento e o fenômeno de mistura foram calculados através do método de Volume Finitos baseado em Elementos por meio do software CFX5.7 da Ansys. Dados da literatura e ensaios em modelo físico, realizados em laboratório, auxiliaram na validação dos modelos numéricos. O estudo dos coeficientes das forças de não-arrasto mostrou que os resultados da distribuição de ar ao longo da altura do banho mudam com a variação dos coeficientes. No final, coeficientes para 3 configurações de panelas em diferentes vazões de ar foram encontrados. Com relação ao estudo dos modelos de turbulência, observou-se que para a solução do escoamento e do fenômeno de mistura em uma panela de base circular, o k-ε é o modelo de turbulência mais indicado. Por outro lado, para uma panela de base elíptica, o modelo RSM mostrou-se o mais adequado. Finalmente, com relação ao estudo da mudança do formato da base da panela, observou-se que os tempos de mistura de uma panela de base elíptica são maiores que uma de base circular e aumentam à medida que a vazão de ar diminui.
Resumo:
A crescente complexidade dos sistemas tempo-real embarcados demanda novas metodologias e ferramentas para gerenciar os problemas de projeto, análise, integração e validação de sistemas complexos. Este trabalho aborda o tema co-projeto de sistemas tempo-real embarcados, propondo estratégias para a integração das fases iniciais de modelagem de um sistema tempo-real embarcado com as fases subseqüentes do projeto, como a implementação do software e do hardware. É proposto um framework orientado a objetos que permite a criação de modelos orientados a objetos de sistemas tempo-real embarcados, utilizando conceitos temporais similares aos propostos em UML-RT (ou mais especificamente no UML Profile for Schedulability, Performance and Time). É proposta uma estratégia de mapeamento dos requisitos temporais dos diagramas UMLRT para uma interface de programação (API) baseada na “Especificação Tempo-Real para Java” (Real-Time Specification for Java ou RTSJ), a qual pode ser executada tanto em software – em programas RTSJ executando em máquinas virtuais Java (JVM) tempo-real – ou em hardware – em processadores Java Tempo-Real. Para permitir o mapeamento para hardware são propostas extensões tempo-real ao processador Java FemtoJava, desenvolvido no âmbito de dissertações de mestrado e projetos de pesquisa no PPGC, criando-se um novo processador tempo-real denominado de RT-FemtoJava. Dentre as extensões propostas ao processador FemtoJava destaca-se a inclusão de um relógio de tempo-real e o suporte a instruções para alocação e manipulação de objetos. Os conceitos propostos foram validados no âmbito de estudos de caso, sendo os resultados obtidos descritos na presente dissertação.
Resumo:
Em plantas de polimerização, uma das principais propriedades relacionadas à qualidade do produto é o índice de fluidez, ou MI. Esta propriedade é geralmente medida em laboratório, em intervalos de algumas horas. Por outro lado, as variáveis de processo estão disponíveis continuamente e são controladas com o objetivo de atingir as propriedades desejadas do produto. O desenvolvimento de um analisador virtual, que permita a estimação do MI de forma contínua, com base nestas variáveis medidas, pode levar a um melhor controle da qualidade do produto final. Este trabalho desenvolve um analisador virtual de MI para uma planta de polietileno de alta densidade (PEAD). Existem vários tipos de modelos que podem ser utilizados na implementação de um analisador virtual, assim como várias formas de correção on-line das suas estimativas. Este trabalho direciona especial atenção aos modelos semi-empíricos, e ao uso de um filtro de Kalman estendido (EKF) na correção das estimativas e dos parâmetros do modelo. O objeto de estudo desse trabalho foi um conjunto de produtos, cuja produção é realizada em dois reatores em série. Foram usados 21 conjuntos de dados representando diferentes períodos de operação da planta. Estes conjuntos de dados continham as principais variáveis de planta e os resultados de MI medidos em laboratório. A partir destes dados, foram estimados os parâmetros do modelo para cada reator. Também foi proposta e testada uma metodologia para a sintonia dos parâmetros do EKF. De posse dos modelos, do filtro e de seus respectivos parâmetros, foram gerados os resultados do analisador.