999 resultados para Reatores eletrônicos


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contribuição do programa Game Studies do Centro de Tecnologia e Sociedade da FGV Direito Rio ao debate público sobre classificação indicativa, iniciado pelo Ministério da Justiça em 18 de novembro de 2010.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

nRPN, nRPNSTAT e nRPNDYN são novos índices, propostos nesta dissertação, que quantificam o grau de não-linearidade total, estática e dinâmica, respectivamente, de sistemas dinâmicos não- lineares. Estes novos índices permitem responder se é necessária a utilização de controladores não-lineares ou se simples controladores lineares apresentarão desempenho satisfatório. Além disso, se um controlador não- linear se fizer necessário, quais características este deve apresentar. Nesta dissertação é realizado um estudo acerca das metodologias para determinação do grau de não- linearidade de plant as industriais. Entre as encontradas, a que apresenta as melhores potencialidades é estudada em detalhes, tendo seus atributos e deficiências explorados. As deficiências foram sanadas e um novo conjunto de índices é proposto (nRPN, nRPNSTAT e nRPNDYN), o qual, além de apresentar resultados conclusivos em termos quantitativos, também traz novas informações valiosas para a escolha do controlador adequado, como a parcela estática e dinâmica da não- linearidade. A metodologia proposta é aplicada e testada em um conjunto bastante amplo e complementar de possíveis sistemas dinâmicos não-lineares (tais como: pH, reatores químicos e coluna de destilação de alta pureza) onde o comportamento nãolinear já foi explorado na literatura O desenvolvimento e o estudo do comportamento dinâmico de uma planta laboratorial de cinco tanques acoplados são apresentados. Este sistema possui dinâmica e ganhos variáveis, descontinuidades, inversão no sinal do ganho multivariável e diferentes graus de acoplamento, ilustrando de forma simples vários possíveis comportamentos dinâmicos encontrados em plantas industriais. Devido a esta grande versatilidade a planta foi construída e testada, confirmando os comportamentos previstos nos estudos teóricos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

With the ever increasing demands for high complexity consumer electronic products, market pressures demand faster product development and lower cost. SoCbased design can provide the required design flexibility and speed by allowing the use of IP cores. However, testing costs in the SoC environment can reach a substantial percent of the total production cost. Analog testing costs may dominate the total test cost, as testing of analog circuits usually require functional verification of the circuit and special testing procedures. For RF analog circuits commonly used in wireless applications, testing is further complicated because of the high frequencies involved. In summary, reducing analog test cost is of major importance in the electronic industry today. BIST techniques for analog circuits, though potentially able to solve the analog test cost problem, have some limitations. Some techniques are circuit dependent, requiring reconfiguration of the circuit being tested, and are generally not usable in RF circuits. In the SoC environment, as processing and memory resources are available, they could be used in the test. However, the overhead for adding additional AD and DA converters may be too costly for most systems, and analog routing of signals may not be feasible and may introduce signal distortion. In this work a simple and low cost digitizer is used instead of an ADC in order to enable analog testing strategies to be implemented in a SoC environment. Thanks to the low analog area overhead of the converter, multiple analog test points can be observed and specific analog test strategies can be enabled. As the digitizer is always connected to the analog test point, it is not necessary to include muxes and switches that would degrade the signal path. For RF analog circuits, this is specially useful, as the circuit impedance is fixed and the influence of the digitizer can be accounted for in the design phase. Thanks to the simplicity of the converter, it is able to reach higher frequencies, and enables the implementation of low cost RF test strategies. The digitizer has been applied successfully in the testing of both low frequency and RF analog circuits. Also, as testing is based on frequency-domain characteristics, nonlinear characteristics like intermodulation products can also be evaluated. Specifically, practical results were obtained for prototyped base band filters and a 100MHz mixer. The application of the converter for noise figure evaluation was also addressed, and experimental results for low frequency amplifiers using conventional opamps were obtained. The proposed method is able to enhance the testability of current mixed-signal designs, being suitable for the SoC environment used in many industrial products nowadays.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A validação de projetos de sistemas eletrônicos pode ser feita de diversas maneiras, como tem sido mostrado pelas pesquisas em síntese automática e verificação formal. Porém, a simulação ainda é o método mais utilizado. O projeto de um sistema digital típico pode ser desenvolvido em diversos níveis de abstração, como os níveis algorítmico, lógico ou analógico. Assim, a simulação também deve ser executada em todos esses níveis. A simulação apresenta, contudo, o inconveniente de não conseguir conciliar uma alta acuracidade de resultados com um baixo tempo de simulação. Quanto mais detalhada é a descrição do circuito, maior é o tempo necessário para simulá-lo. O inverso também é verdadeiro, ou seja, quanto menor for a acuracidade exigida, menor será o tempo dispendido. A simulação multinível tenta conciliar eficiêencia e acuracidade na simulação de circuitos digitais, propondo que partes do circuito sejam descritas em diferentes níveis de abstração. Com isso, somente as partes mais críticas do sistema são descritas em detalhes e a velocidade da simulação aumenta. Contudo, essa abordagem não é suficiente para oferecer um grande aumento na velocidade de simulação de grandes circuitos. Assim, surge como alternativa a aplicação de técnicas de processamento distribuído à simulação multinível. Os aspectos que envolvem a combinação dessas duas técnicas são abordados nesse trabalho. Como plataforma para os estudos realizados, optou-se por usar duas ferramentas desenvolvidas nessa Universidade: os simuladores do Sistema AMPLO e o Sistema Operacional HetNOS. São estudadas técnicas de sincronização em sistemas distribuídos, fundamentais para o desenvolvimento dos simuladores e, finalmente, são propostas alternativas para a distribuição dos simuladores. É realizada, ainda, uma análise comparativa entre as versões propostas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A internet é considerada a mais completa manifestação da nova mídia e tem causado um impacto relevante no campo da comunicação. Os veículos de comunicação tradicionais enfrentam hoje um cenário de incerteza em relação ao futuro. As mudanças provocadas pela nova mídia criam inúmeras possibilidades, que podem ser ameaças ou novas oportunidades, mas que, em ambos os casos, exigem reações dos participantes deste mercado. Este estudo tem por objetivo identificar como os jornais diários brasileiros estão atuando no meio online em reação a estas mudanças. O processo para se atingir este objetivo ocorreu, primeiramente por meio da identificação das características e da classificação dos principais jornais brasileiros nos meios impresso e online. Em seguida, houve um aprofundamento desta pesquisa em entrevistas com profissionais deste mercado. Com base nos conceitos teóricos da economia da informação, foi construída a estrutura de uma taxonomia que permitisse uma análise mais objetiva dos veículos estudados. A avaliação dos dados coletados, tendo o apoio das informações capturadas nas entrevistas, resultou em uma análise bastante rica, da qual algumas conclusões importantes foram extraídas. Identificou-se, por exemplo, uma possível relação entre o nível de adaptação do jornal ao meio online a categoria de seu conteúdo. Outra constatação é a grande importância que o meio impresso ainda tem em termos de resultados financeiros dos jornais. Em relação ao futuro, existem muitas expectativas para o mercado de notícias, mas seu rumo ainda é muito incerto. Apesar disso, uma coisa parece clara: é importante a construção de uma marca forte baseada em credibilidade. No futuro, independentemente dos modelos de negócios que vigorarem, este será um diferencial importante para a sobrevivência dos jornais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Incrementar o conhecimento sobre o que contribui efetivamente para que ocorram interações bem sucedidas entre websites e os consumidores online, mais especificamente no mercado crescente dos mundos virtuais, é um assunto relevante para os pesquisadores e profissionais de administração de empresas. Vivemos em uma nova etapa da cultura do consumo, onde a experiência de consumo ganha relevância. Os jogos online, ambientados em mundos virtuais, são ilustrações muito apropriadas para representar a emergência do Marketing de Experiência, característico desta etapa. Os mundos virtuais, como o Second Life, podem ser classificados como “mundos de experiência”, e uma das suas principais características é a existência de comunidades virtuais. A interação entre usuários e o relacionamento social é fundamental para o enriquecimento da experiência de consumo nos mundos virtuais. A teoria da fluidez é um dos constructos mais utilizados para entender o comportamento do consumidor na internet e uma das formas de definir a natureza de experiências de consumo na internet. A utilização deste modelo (que vem sendo utilizado e aprimorado nos últimos 14 anos) é aconselhada para definir e medir a experiência de consumo na internet. A participação em comunidades virtuais pode ser um dos fatores que enriquecem a experiência de consumo nos mundos virtuais, percebida pela fluidez. O objetivo desta dissertação é entender se a participação em comunidades virtuais potencializa a experiência de consumo em mundos virtuais sociais, em especial no Second Life, tomando como base o conceito da fluidez. O objeto de estudo foram as comunidades virtuais do Second Life, durante o período da pesquisa que ocorreu entre o final de julho e o início de novembro de 2010. Para fazer a pesquisa de campo, empírica e exploratória, foi utilizada a metodologia da netnografia (etnografia virtual), descritiva por definição, como forma de atingir o objetivo proposto. Netnografia é a rigorosa e sistemática adaptação da etnografia especificamente alterada para as contingências do comportamento e interação online, isto é, ao estudo das comunidades virtuais. As atividades de pesquisa foram realizadas com observação participativa, isto é, com a participação, pelo pesquisador, no cotidiano do mundo virtual Second Life, que vivenciou, como um novato, a experiência de consumo em si. A dissertação aqui apresentada é o resultado do engajamento do pesquisador em uma imersão nas comunidades virtuais do Second Life. Foi concluído que experiência de consumo nos mundos virtuais é enriquecida pela participação em comunidades virtuais. A fluidez – percebida pela telepresença (imersão), perda de noção de tempo, envolvimento, prazer e diversão – é uma sensação que pode ser considerada típica e freqüente dos mundos virtuais e potencializada pela participação em comunidades virtuais. A participação em comunidades virtuais permite que os usuários vivenciem uma experiência rica, que seja ativa, responsiva, interativa e participativa, o que potencializa a experiência de consumo nos mundos virtuais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Historicamente, devido à incompreensibilidade dos fenômenos físicos envolvidos, diversas técnicas de análise experimental de escoamentos foram desenvolvidas. Inicialmente, estas técnicas consistiam em uma simples visualização do escoamento em questão. Visava-se com isto produzir a intuição física a respeito do sistema físico para que futuras teorias pudessem ser formuladas. No entanto, nos anos posteriores, tornou-se necessária a criação de técnicas quantitativas. Neste segmento, a evolução tecnológica da eletrônica propiciou que técnicas intrusivas e não intrusivas fossem criadas. Tal processo culminou com o surgimento da microeletrônica, quando sensores eletrônicos de imagem puderam ser fabricados. Assim, técnicas não intrusivas de velocimetria através de processamento digital de imagens tornaram-se referência, possibilitando a medição de campos de velocidade do escoamento em análise. Tais técnicas são atualmente utilizadas não apenas no meio acadêmico, na investigação da turbulência, como na indústria, em projetos de engenharia que envolvam alta tecnologia. Neste trabalho, apresenta-se uma metodologia para a concepção de um sistema de velocimetria de 2 dimensões por processamento digital de imagens. Para tanto, o sistema de velocimetria foi dividido em duas partes, sendo os equipamentos bem como os conceitos físicos envolvidos em cada uma analisados e descritos Por fim, projetou-se e implementou-se um sistema de velocimetria de 2 dimensões através de processamento digital de imagens, modo PIV. A sua validação foi efetuada sobre um escoamento altamente turbulento interno a um duto circular, cuja solução é conhecida e exaustivamente estudada no decorrer dos anos. O resultado obtido se apresentou totalmente satisfatório e demonstrou a grande importância atual de tal técnica de medição.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Estado exerce a função jurisdicional com a finalidade de composição dos conflitos litigiosos, sendo o processo o meio pelo qual ela se materializa. Com isso, tem-se o acesso à justiça, no sentido de ser garantido o exame de uma pretensão, em tempo aceitável, com a segurança de um tratamento adequado, que seja reflexo dos valores da sociedade em que se vive. O Poder Judiciário sofre críticas de toda ordem: no Brasil dos dias atuais, a morosidade é o principal problema apontado. Tanto é assim, que a sociedade brasileira passou a exigir uma solução para isso com tamanha ênfase, que a razoável duração do processo foi incluída no rol de garantias individuais da Constituição da República. Muitas alternativas têm sido buscadas com a intenção de reduzir o tempo de duração do processo, sendo a via eletrônica uma dessas opções. No ano de 2006, entrou em vigor a Lei n. 11.419, que trata da informatização do processo judicial. Este estudo realizou uma avaliação do contexto que levou à busca pela rápida solução dos litígios, com análise da lei que instituiu o meio eletrônico na tramitação dos processos, restrito a esta ótica de redução do tempo de duração do processo. Com base em um estudo de caso realizado no 4o Juizado Especial Cível da Comarca de Porto Velho, demonstrou- se que, ao menos nesta unidade jurisdicional, houve efetiva diminuição no tempo de duração dos processos. Ponderou-se, ainda, acerca do software livre que está sendo disponibilizado pelo Conselho Nacional de Justiça para uso por parte dos tribunais, o Processo Judicial eletrônico – PJe, concluindo-se que a ferramenta terá condições de servir de instrumento para redução do termo final do processo. Finalizou-se esta dissertação com considerações sobre tudo o que foi estudado, ressaltando a idéia de que todos os atores que atuam na solução dos conflitos devem contribuir para que seja alcançada a paz.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho tem por objetivo investigar se a adoção de documentos eletrônicos, uma realidade cuja obrigatoriedade é crescente no Brasil, é acompanhada por uma redução nos custos de conformidade das empresas. O autor buscou o referencial teórico em várias áreas do conhecimento: no Direito Tributário e no Direito Civil, na Matemática Aplicada, na Tecnologia da Informação e, por fim, na Contabilidade. Do Direito Civil vieram os conceitos de documento, que juntamente com conceitos de Matemática e de Teoria da Informação permitem construir a noção de Documento Eletrônico. Do Direito Tributário vieram as noções relativas aos tributos no ordenamento brasileiro, e as suas obrigações associadas (principal e acessórias). Da Contabilidade buscaram-se as definições de custos de conformidade e de transação, de forma que se pudesse avaliar quanto custa para uma empresa ser conforme com as obrigações tributárias acessórias brasileiras, especialmente no que tange ao uso de documentos fiscais eletrônicos. O estudo foi circunscrito na Nota Fiscal Eletrônica, que no Brasil deve ser utilizada em operações de circulação de mercadorias em substituição à Nota Fiscal Modelo 1 ou 1-A, documento tradicional que existe há décadas no Brasil. Buscaram-se informações quantitativas com empresas brasileiras, e a conclusão final é que existem evidências que justificam a afirmação de que o uso de documentos eletrônicos é mais barato que o uso de documentos em papel, mediante a comparação entre os custos de transação associados com a Nota Fiscal Modelo 1 ou 1-A e com a Nota Fiscal Eletrônica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho descreve algumas das soluções atualmente adotadas pelos tribunais federais para a gravação de audiência, bem como indica a oportunidade que o ambiente de interatividade da TV Digital Brasileira oferece para uma proposta de modelo de documento eletrônico de escritório que sirva de suporte para o resultado da gravação de audiência (texto, som e imagem), bem como possa contribuir para a mudança de paradigma dos atuais sistemas processuais (softwares). O objetivo é estabelecer um padrão fundamentado em uma política pública (Governo Eletrônico Brasileiro e Sistema Brasileiro de TV Digital Terrestre), onde não existam restrições comerciais quanto ao uso das novas tecnologias de comunicação e informação no que se refere ao mínimo para se privilegiar a inclusão social sem perda de eficiência. O trabalho é formado por dois tipos de conteúdo: parte textual e parte digital. A parte textual contém o resultado de uma pesquisa realizada junto aos tribunais federais, bem como apresenta os principais pontos do Governo Eletrônico Brasileiro e do Sistema Brasileiro de TV Digital Terrestre. Ainda descreve a estrutura montada na elaboração e realização da parte digital. Por sua vez, a parte digital reúne o material utilizado para a apresentação de protótipos (vídeos e exemplos de aplicações), para demonstrar as possibilidades de interatividade da TV Digital Brasileira e dos benefícios que os jurisdicionados e os operadores do Direito alcançariam com a proposta. Palavras-

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O crescimento constante na geração de resíduos sólidos em todo o mundo tem estimulado estudos para os mais variados tipos de resíduos. As sucatas eletrônicas fazem parte deste universo de materiais obsoletos e/ou defeituosos que necessitam ser dispostos de maneira mais adequada ou então reciclados. Neste trabalho foram estudadas as Placas de Circuito Impresso que fazem parte das sucatas eletrônicas e que são encontradas em quase todos os equipamentos eletro-eletrônicos (computadores, televisores, VCR´s, DVD´s, telefones celulares, impressoras, etc.). Para realizar esse estudo foram coletadas placas de circuito impresso (PCI) obsoletas ou defeituosas de computadores pessoais que são atualmente a maior fonte deste tipo de resíduo. As PCI são compostas de uma maneira geral de polímeros, cerâmicos e metais, o que dificulta o seu processamento. Por outro lado a presença de metais base (como cobre) e metais preciosos estimulam estudos quanto a sua reciclagem. Também a presença de metais pesados como Pb e Cd, que tornam as placas resíduos perigosos, demonstram a necessidade de pesquisar soluções para este tipo de resíduo, a fim de que possam ser dispostos adequadamente, sem prejudicar o meio ambiente. Na primeira etapa deste trabalho foi utilizado processamento mecânico, como moagem, separação granulométrica, separação magnética e separação eletrostática para obter uma fração concentrada em metais (principalmente Cu, Pb e Sn) e uma outra fração contendo polímeros e cerâmicos. Ao final deste processo foi possível obter nas frações concentradas em metais uma concentração média de cobre de 50%. Na segunda etapa a fração concentrada em metais foi dissolvida com ácidos e enviada para uma eletro-obtenção a fim de recuperar os metais separadamente, neste primeiro momento o cobre. Por eletro-obtenção foram obtidos cátodos com teores de cobre acima de 96% Os resultados obtidos demonstram a viabilidade técnica de se recuperar o cobre utilizando processamento mecânico seguido de uma técnica eletrometalúrgica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

o trabalho tem como base uma revisão de literatura sobre o tema Governo Eletrônico, estando seu foco voltado para a sua utilização nas 27 assembléias legislativas estaduais do Brasil, no que diz respeito a sua utilização como ferramenta de transparência pública. Mais especificamente, a presente dissertação buscou mensurar o nível de transparência nos portais eletrônicos dessas assembléias legislativas. Para tal desiderato, foi necessário realizar uma pesquisa bibliográfica sobre o tema, que serviu de suporte literário para o devido embasamento das formulações e conclusões que foram apresentadas no decorrer do estudo. A mensuração do grau de transparência dos portais eletrônicos dos legislativos estaduais foi realizada a partir da aplicação de um método de mensuração de transparência eletrônica, com as devidas adaptações, a qual é utilizada pela organização não governamental, Monitor Legislativo, para a monitoração dos portais eletrônicos do legislativo do México, tendo como base a lei de transparência pública e acesso a informações públicas governamentais, hoje em vigor naquele país. Assim, o modelo levou em consideração a disponibilização de informações sobre: função administrativa; controle interno; trabalho legislativo; trabalho das comissões; concessões, permissões e contratos; arquivo histórico e serviços bibliotecários; e controles externos. A mensuração foi feita item a item, já apresentando um quadro da transparência por item. Não obstante, no final do trabalho foi apresentado um ranking geral da transparência eletrônica, no qual foram dispostas todas as assembléias legislativas estaduais com suas respectivas notas e nível de transparência correspondente. Por fim, os resultados da pesquisa foram correlacionados a outras variáveis, com o intuito de verificar se havia algum grau de relação entre as variáveis analisadas e a transparência eletrônica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo principal do estudo foi compreender a efetividade dos instrumentos públicos de subsídios financeiros aplicados no APL Eletroeletrônico de Santa Rita do Sapucaí, MG, pela Financiadora de Estudos e Projetos (FINEP), focando a empresa motriz do APL, Linear - Equipamentos Eletrônicos S/A. No estudo foram identificados os principais modelos de desenvolvimento regional, porém foram enfatizados os modelos de Arranjos Produtivos Locais (APLs) e Pólos de Crescimento, pois são os que mais caracterizam a região estudada. Também foram descritos a Lei da Inovação Tecnológica (LlT), os principais incentivadores de APLs no Brasil, ou seja, os agentes financeiros, bem como os atuais mecanismos e instrumentos de financiamentos da FINEP e como os mesmos são disponibilizados. Baseado nas políticas públicas traçadas, tanto pelo Governo Federal, como pelo Ministério da Ciência e Tecnologia (MCT), ao qual a FINEP se vincula, pode se analisar, no contexto do APL Eletroeletrônico de Santa Rita do Sapucaí, na figura da empresa Linear, a efetividade desses instrumentos de financiamento público estabelecidos para o desenvolvimento do referido APL. Finalmente, como conclusão e em resposta à questão inicial levantada na pesquisa, pode se compreender se houve efetividade dos instrumentos de financiamento público da FINEP no desenvolvimento do APL Eletroeletrônico de Santa Rita do Sapucaí.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The work described in this thesis aims to support the distributed design of integrated systems and considers specifically the need for collaborative interaction among designers. Particular emphasis was given to issues which were only marginally considered in previous approaches, such as the abstraction of the distribution of design automation resources over the network, the possibility of both synchronous and asynchronous interaction among designers and the support for extensible design data models. Such issues demand a rather complex software infrastructure, as possible solutions must encompass a wide range of software modules: from user interfaces to middleware to databases. To build such structure, several engineering techniques were employed and some original solutions were devised. The core of the proposed solution is based in the joint application of two homonymic technologies: CAD Frameworks and object-oriented frameworks. The former concept was coined in the late 80's within the electronic design automation community and comprehends a layered software environment which aims to support CAD tool developers, CAD administrators/integrators and designers. The latter, developed during the last decade by the software engineering community, is a software architecture model to build extensible and reusable object-oriented software subsystems. In this work, we proposed to create an object-oriented framework which includes extensible sets of design data primitives and design tool building blocks. Such object-oriented framework is included within a CAD Framework, where it plays important roles on typical CAD Framework services such as design data representation and management, versioning, user interfaces, design management and tool integration. The implemented CAD Framework - named Cave2 - followed the classical layered architecture presented by Barnes, Harrison, Newton and Spickelmier, but the possibilities granted by the use of the object-oriented framework foundations allowed a series of improvements which were not available in previous approaches: - object-oriented frameworks are extensible by design, thus this should be also true regarding the implemented sets of design data primitives and design tool building blocks. This means that both the design representation model and the software modules dealing with it can be upgraded or adapted to a particular design methodology, and that such extensions and adaptations will still inherit the architectural and functional aspects implemented in the object-oriented framework foundation; - the design semantics and the design visualization are both part of the object-oriented framework, but in clearly separated models. This allows for different visualization strategies for a given design data set, which gives collaborating parties the flexibility to choose individual visualization settings; - the control of the consistency between semantics and visualization - a particularly important issue in a design environment with multiple views of a single design - is also included in the foundations of the object-oriented framework. Such mechanism is generic enough to be also used by further extensions of the design data model, as it is based on the inversion of control between view and semantics. The view receives the user input and propagates such event to the semantic model, which evaluates if a state change is possible. If positive, it triggers the change of state of both semantics and view. Our approach took advantage of such inversion of control and included an layer between semantics and view to take into account the possibility of multi-view consistency; - to optimize the consistency control mechanism between views and semantics, we propose an event-based approach that captures each discrete interaction of a designer with his/her respective design views. The information about each interaction is encapsulated inside an event object, which may be propagated to the design semantics - and thus to other possible views - according to the consistency policy which is being used. Furthermore, the use of event pools allows for a late synchronization between view and semantics in case of unavailability of a network connection between them; - the use of proxy objects raised significantly the abstraction of the integration of design automation resources, as either remote or local tools and services are accessed through method calls in a local object. The connection to remote tools and services using a look-up protocol also abstracted completely the network location of such resources, allowing for resource addition and removal during runtime; - the implemented CAD Framework is completely based on Java technology, so it relies on the Java Virtual Machine as the layer which grants the independence between the CAD Framework and the operating system. All such improvements contributed to a higher abstraction on the distribution of design automation resources and also introduced a new paradigm for the remote interaction between designers. The resulting CAD Framework is able to support fine-grained collaboration based on events, so every single design update performed by a designer can be propagated to the rest of the design team regardless of their location in the distributed environment. This can increase the group awareness and allow a richer transfer of experiences among them, improving significantly the collaboration potential when compared to previously proposed file-based or record-based approaches. Three different case studies were conducted to validate the proposed approach, each one focusing one a subset of the contributions of this thesis. The first one uses the proxy-based resource distribution architecture to implement a prototyping platform using reconfigurable hardware modules. The second one extends the foundations of the implemented object-oriented framework to support interface-based design. Such extensions - design representation primitives and tool blocks - are used to implement a design entry tool named IBlaDe, which allows the collaborative creation of functional and structural models of integrated systems. The third case study regards the possibility of integration of multimedia metadata to the design data model. Such possibility is explored in the frame of an online educational and training platform.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Água de alta pureza é utilizada para uma grande variedade de aplicações industriais, como na geração de vapor de alta pressão, na indústria de componentes eletrônicos e na fabricação de medicamentos. Os processos de separação por membranas (PSM), em particular a osmose inversa (OI), estão sendo cada vez mais utilizados na desmineralização de águas de uso industrial. As vantagens dos PSM, em relação aos processos convencionais, são que estes ocorrem sem mudança de fase, operam na temperatura ambiente e são altamente seletivos e modulares. Estes processos apresentam algumas limitações ao seu uso, sendo a principal o fouling das membranas, o qual pode ser devido à precipitação de substâncias, à adsorção ou até mesmo ao desenvolvimento microbiano. Este problema pode ser minimizado quando o sistema de OI é projetado e monitorado adequadamente, incluindo o pré o póstratamento da água. O desenvolvimento microbiano no sistema de membranas é um dos fatores que causa a maior perda de desempenho do sistema de OI. O seu controle é realizado através da utilização de agentes desinfetantes no pré-tratamento da água. O cloro é o agente oxidante mais utilizado na desinfeção da água e, mesmo em concentrações muito baixas (abaixo de 0,1 ppm), pode degradar a poliamida (PA), material amplamente utilizado na fabricação de membranas de OI. Tendo em vista este problema, o presente estudo tem como objetivo pesquisar um agente oxidante alternativo ao cloro, especificamente o dióxido de cloro, que possa ser mantido em baixas concentrações na corrente de alimentação do sistema de OI, sem danificar as membranas Os experimentos foram realizados em uma unidade de bancada de OI com escoamento tangencial, com módulo de membrana plana. Os efeitos de ClO 2 sobre a membrana de PA foram verificados a partir de alterações do seu desempenho. O desempenho da membrana de PA foi avaliado através de medidas de fluxo permeado, permeabilidade hidráulica e de retenção salina. Os resultados obtidos indicam que as membranas de PA são degradadas quando expostas a soluções contendo ClO 2 na concentração aproximada de 500 ppm. Nos experimentos onde a concentração do oxidante foi mantida em torno de 50 ppm, a degradação da membrana de PA exposta ao ClO 2 foi menor que a observada quando a membrana foi exposta ao cloro livre (aprox. 50ppm) em condições operacionais semelhantes. Observou-se ainda que pode existir uma relação entre o nível de degradação e a composição da alimentação. Como uma etapa complementar a este trabalho, foi acompanhada a partida de um sistema de OI industrial, no qual as membranas são de PA e a corrente de alimentação contém uma concentração residual de ClO 2 proveniente do sistema de pré-tratamento da água.