6 resultados para Invariant, partially invariant and conditionally invariant solutions

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Amostras de borracha natural foram reticuladas por meio de radiação gama (doses de 2, 4, 6 e 8 MRad) e intumescidas: a) em n-octano, ciclo-hexano e esqualeno; b) em polibutadieno líquido (Mn=1830 g/mol; alto teor 1,4- cis) a 45°C; C) em solução de polibutadieno de baixo peso molecular (M,= 1830 g/mol; alto teor 1,4-cis) em n-octano e ciclo-hexano; d) em solução de polibutadieno de alto peso molecular (Mn= 175.000 g/rnol; alto teor 1,4-cis) emn-octano e ciclo-hexano ; e) em solução de borracha natural (Mn=779.000 g/mol) em ciclo- hexano, a 25°C. Amostras de polibutadieno (alto teor 1,4-cis) foram reticuladas por meio de radiação gama (doses de 1,s; 18 e 25 MRad) e intumescidas: a) em n-octano, ciclo-hexano e esquaieno. Salvo quando mencionado em contrário, as amostras de borracha natural e de polibutadieno foram intumescidas nas temperaturas de 25, 35 e 45°C. A partir dos ensaios de intumescirnento acima mencionados, foram determinadas as solubilidades de borracha natural e de polibutadieno em n-octano, ciclo-hexano e esqualeno através dos parâmetros de Flory-Huggins, calculados com o emprego da equação de Flory-Rehner. Verificou-se a influência da temperatura e da concentração de polimero no gel sobre o valor do parâmetro de Flory-Huggins. Também através desse parâmetro procurou-se determinar a compatibilidade entre borracha natural e polibutadieno. Foi demonstrado que cadeias lineares de baixo peso molecular de polibutadieno conseguem penetrar em amostras reticuladas de borracha natural, quando o peso molecular das cadeias lineares for bem inferior ao do arco de rede Mc das amostras reticuladas. Cadeias lineares de polibutadieno e de borracha natural com peso molecular superior ao do arco de rede da borracha natural reticulada, entretanto, não conseguem penetrar no retículo. Quranto mais alta a concentração da solução externa em moléculas de alto peso molecular, tanto menor é o grau de intumescimento da amostra reticulada.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Estudou-se o comportamento do aço inoxidável ABNT 304 à corrosão-sob-tensão (C.S.T.) em soluções aquosas com 0,1%, 3,5% e 20% de NaCl, na temperatura de 103°C, através de ensaios de carga constante. Com auxílio das técnicas e conceitos de Mecânica de Fratura Linear Elástica e das análises eletroquímicas procurou-se encontrar as condições em que ocorre C.S.T. no sistema aço inoxidável austenítico/solução aquosa de NaCl a 103°C. Utilizou-se o corpo-de-prova do tipo dupla viga em balanço (T-notch double cantilever beam: TN-DCB), com intuito de observar a influência do fator de intensidade de tensão, concentração da solução e potencial eletroquímico. Estimou-se o valor do fator de intensidade de tensão limite (KICST) e a velocidade de propagação das trincas; também foram analisadas outras importantes características em termos mecanísticos. Definiu-se faixas de potenciais e valores de intensidade de tensão a partir dos quais ocorre o surgimento de trincas por C.S.T.. Fêz-se análises metalográficas dos corpos-de-prova onde se pode constatar trincas transgranulares bem típicas do fenômeno de C.S.T.. Foram feitos alguns testes em solução aquosa saturada de MgCl2, em ebulição, para se comparar as diferentes soluções quanto ao fenômeno de C.S.T.. Alterou-se as dimensões do corpo-de-prova para avaliar a orientação da propagação das trincas por C.S.T..

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sistemas de previsão de cheias podem ser adequadamente utilizados quando o alcance é suficiente, em comparação com o tempo necessário para ações preventivas ou corretivas. Além disso, são fundamentalmente importantes a confiabilidade e a precisão das previsões. Previsões de níveis de inundação são sempre aproximações, e intervalos de confiança não são sempre aplicáveis, especialmente com graus de incerteza altos, o que produz intervalos de confiança muito grandes. Estes intervalos são problemáticos, em presença de níveis fluviais muito altos ou muito baixos. Neste estudo, previsões de níveis de cheia são efetuadas, tanto na forma numérica tradicional quanto na forma de categorias, para as quais utiliza-se um sistema especialista baseado em regras e inferências difusas. Metodologias e procedimentos computacionais para aprendizado, simulação e consulta são idealizados, e então desenvolvidos sob forma de um aplicativo (SELF – Sistema Especialista com uso de Lógica “Fuzzy”), com objetivo de pesquisa e operação. As comparações, com base nos aspectos de utilização para a previsão, de sistemas especialistas difusos e modelos empíricos lineares, revelam forte analogia, apesar das diferenças teóricas fundamentais existentes. As metodologias são aplicadas para previsão na bacia do rio Camaquã (15543 km2), para alcances entre 10 e 48 horas. Dificuldades práticas à aplicação são identificadas, resultando em soluções as quais constituem-se em avanços do conhecimento e da técnica. Previsões, tanto na forma numérica quanto categorizada são executadas com sucesso, com uso dos novos recursos. As avaliações e comparações das previsões são feitas utilizandose um novo grupo de estatísticas, derivadas das freqüências simultâneas de ocorrência de valores observados e preditos na mesma categoria, durante a simulação. Os efeitos da variação da densidade da rede são analisados, verificando-se que sistemas de previsão pluvio-hidrométrica em tempo atual são possíveis, mesmo com pequeno número de postos de aquisição de dados de chuva, para previsões sob forma de categorias difusas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Electronic applications are currently developed under the reuse-based paradigm. This design methodology presents several advantages for the reduction of the design complexity, but brings new challenges for the test of the final circuit. The access to embedded cores, the integration of several test methods, and the optimization of the several cost factors are just a few of the several problems that need to be tackled during test planning. Within this context, this thesis proposes two test planning approaches that aim at reducing the test costs of a core-based system by means of hardware reuse and integration of the test planning into the design flow. The first approach considers systems whose cores are connected directly or through a functional bus. The test planning method consists of a comprehensive model that includes the definition of a multi-mode access mechanism inside the chip and a search algorithm for the exploration of the design space. The access mechanism model considers the reuse of functional connections as well as partial test buses, cores transparency, and other bypass modes. The test schedule is defined in conjunction with the access mechanism so that good trade-offs among the costs of pins, area, and test time can be sought. Furthermore, system power constraints are also considered. This expansion of concerns makes it possible an efficient, yet fine-grained search, in the huge design space of a reuse-based environment. Experimental results clearly show the variety of trade-offs that can be explored using the proposed model, and its effectiveness on optimizing the system test plan. Networks-on-chip are likely to become the main communication platform of systemson- chip. Thus, the second approach presented in this work proposes the reuse of the on-chip network for the test of the cores embedded into the systems that use this communication platform. A power-aware test scheduling algorithm aiming at exploiting the network characteristics to minimize the system test time is presented. The reuse strategy is evaluated considering a number of system configurations, such as different positions of the cores in the network, power consumption constraints and number of interfaces with the tester. Experimental results show that the parallelization capability of the network can be exploited to reduce the system test time, whereas area and pin overhead are strongly minimized. In this manuscript, the main problems of the test of core-based systems are firstly identified and the current solutions are discussed. The problems being tackled by this thesis are then listed and the test planning approaches are detailed. Both test planning techniques are validated for the recently released ITC’02 SoC Test Benchmarks, and further compared to other test planning methods of the literature. This comparison confirms the efficiency of the proposed methods.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The work described in this thesis aims to support the distributed design of integrated systems and considers specifically the need for collaborative interaction among designers. Particular emphasis was given to issues which were only marginally considered in previous approaches, such as the abstraction of the distribution of design automation resources over the network, the possibility of both synchronous and asynchronous interaction among designers and the support for extensible design data models. Such issues demand a rather complex software infrastructure, as possible solutions must encompass a wide range of software modules: from user interfaces to middleware to databases. To build such structure, several engineering techniques were employed and some original solutions were devised. The core of the proposed solution is based in the joint application of two homonymic technologies: CAD Frameworks and object-oriented frameworks. The former concept was coined in the late 80's within the electronic design automation community and comprehends a layered software environment which aims to support CAD tool developers, CAD administrators/integrators and designers. The latter, developed during the last decade by the software engineering community, is a software architecture model to build extensible and reusable object-oriented software subsystems. In this work, we proposed to create an object-oriented framework which includes extensible sets of design data primitives and design tool building blocks. Such object-oriented framework is included within a CAD Framework, where it plays important roles on typical CAD Framework services such as design data representation and management, versioning, user interfaces, design management and tool integration. The implemented CAD Framework - named Cave2 - followed the classical layered architecture presented by Barnes, Harrison, Newton and Spickelmier, but the possibilities granted by the use of the object-oriented framework foundations allowed a series of improvements which were not available in previous approaches: - object-oriented frameworks are extensible by design, thus this should be also true regarding the implemented sets of design data primitives and design tool building blocks. This means that both the design representation model and the software modules dealing with it can be upgraded or adapted to a particular design methodology, and that such extensions and adaptations will still inherit the architectural and functional aspects implemented in the object-oriented framework foundation; - the design semantics and the design visualization are both part of the object-oriented framework, but in clearly separated models. This allows for different visualization strategies for a given design data set, which gives collaborating parties the flexibility to choose individual visualization settings; - the control of the consistency between semantics and visualization - a particularly important issue in a design environment with multiple views of a single design - is also included in the foundations of the object-oriented framework. Such mechanism is generic enough to be also used by further extensions of the design data model, as it is based on the inversion of control between view and semantics. The view receives the user input and propagates such event to the semantic model, which evaluates if a state change is possible. If positive, it triggers the change of state of both semantics and view. Our approach took advantage of such inversion of control and included an layer between semantics and view to take into account the possibility of multi-view consistency; - to optimize the consistency control mechanism between views and semantics, we propose an event-based approach that captures each discrete interaction of a designer with his/her respective design views. The information about each interaction is encapsulated inside an event object, which may be propagated to the design semantics - and thus to other possible views - according to the consistency policy which is being used. Furthermore, the use of event pools allows for a late synchronization between view and semantics in case of unavailability of a network connection between them; - the use of proxy objects raised significantly the abstraction of the integration of design automation resources, as either remote or local tools and services are accessed through method calls in a local object. The connection to remote tools and services using a look-up protocol also abstracted completely the network location of such resources, allowing for resource addition and removal during runtime; - the implemented CAD Framework is completely based on Java technology, so it relies on the Java Virtual Machine as the layer which grants the independence between the CAD Framework and the operating system. All such improvements contributed to a higher abstraction on the distribution of design automation resources and also introduced a new paradigm for the remote interaction between designers. The resulting CAD Framework is able to support fine-grained collaboration based on events, so every single design update performed by a designer can be propagated to the rest of the design team regardless of their location in the distributed environment. This can increase the group awareness and allow a richer transfer of experiences among them, improving significantly the collaboration potential when compared to previously proposed file-based or record-based approaches. Three different case studies were conducted to validate the proposed approach, each one focusing one a subset of the contributions of this thesis. The first one uses the proxy-based resource distribution architecture to implement a prototyping platform using reconfigurable hardware modules. The second one extends the foundations of the implemented object-oriented framework to support interface-based design. Such extensions - design representation primitives and tool blocks - are used to implement a design entry tool named IBlaDe, which allows the collaborative creation of functional and structural models of integrated systems. The third case study regards the possibility of integration of multimedia metadata to the design data model. Such possibility is explored in the frame of an online educational and training platform.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo do presente estudo foi investigar as condições ergonômicas da situação de trabalho dos Auxiliares de Enfermagem em uma unidade de clínica geral de um hospital privado na cidade de Curitiba, Paraná, bem como sugerir melhorias a partir da situação caracterizada. Com a aplicação do método da Análise Ergonômica do Trabalho (AET), pôde-se verificar a realidade desses profissionais, caracterizando suas tarefas, registrando a existência de distanciamento entre tarefa prescrita e real. Os resultados obtidos evidenciaram problemas no âmbito organizacional como a montagem inadequada da escala de divisão de pacientes, o quadro de pessoal abaixo da exigência mínima estabelecida pelo Conselho Federal de Enfermagem (COFEN), a falta e a má conservação de materiais e equipamentos e, em relação ao posto de trabalho, o dimensionamento inadequado dos espaços para trânsito de pessoas e equipamentos. Concluiu-se que os problemas de maior relevância são de origem organizacional e que os mesmos favorecem e, até mesmo, intensificam os relativos ao posto de trabalho, contribuindo para o elevado índice de atestados e insatisfação entre os Auxiliares de Enfermagem. O estudo é finalizado com sugestões de melhorias, entre elas, o redimensionamento do número de leitos nas enfermarias e quadro de pessoal, promoção de rodízio dos Auxiliares de Enfermagem entre postos de diferentes níveis de exigência, escalonamento apropriado na distribuição de pacientes de acordo com a gravidade do quadro clínico, formação de comitês com reuniões periódicas para discussão de problemas existentes e outras possíveis soluções.