33 resultados para Inversão


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Devido a sua baixa latência de banda, os clusters equipados com o adaptador SCI são uma alternativa para sistemas de tempo real distribuídos. Esse trabalho apresenta o projeto e implementação de uma plataforma de comunicação de tempo real sobre clusters SCI. O hardware padrão do SCI não se mostra adequado para a transmissão de tráfego de tempo real devido ao problema da contenção de acesso ao meio que causa inversão de prioridade. Por isso uma disciplina de acesso ao meio é implementada como parte da plataforma. Através da arquitetura implementada é possível o estabelecimento de canais de comunicação com garantia de banda. Assim, aplicações multimídias, por exemplo, podem trocar com taxa constante de conunicação. Cada mensagem é enviada somente uma vez. Assim, mensagens som a semântica de eventos podem ser enviadas. Além disso, a ordem e o tamanho das mensagens são garantidos. Além do tráfego com largura de banda garantida, a plataforma possibilita a troca de pacotes IP entre diferentes máquinas do cluster. Esses pacotes são inseridos no campo de dados dos pacotes próprios da plataforma e após são enviados através do uso de pacotes IP. Além disso, essa funcionalidade da plataforma permite também a execução de bibliotecas de comunicação baseadas em TCP/IP como o MPI sobre o cluster SCI. A plataforma de comunicação é implementada como modulos do sistema operacional Linux com a execução de tempo real RTAI. A valiação da plataforma mostrou que mesmo em cenários com muita comunicação entre todos os nodos correndo, a largura de banda reservada para cada canal foi mantida.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho foi desenvolvido analisando-se a lenda heróica da família dos Atridas, através da trilogia grega Orestéia, de Ésquilo, relacionando-a com Les mouches, de Sartre, e com Électre, de Giraudoux, comparando-as também com as duas Electra, a de Sófocles e a de Eurípides, partindo da análise do “texto como produtividade”, segundo Roland Barthes, que trabalha a reescritura do texto realizada pelo leitor. Os textos escolhidos foram produzidos e encenados em momentos de guerra ou de sua iminência e, através do estudo dos ordenamentos jurídicos vigentes em cada época, foi possível comprovar que, na Atenas do século V, ocorre a construção do conceito de responsabilidade individual, superando-se a imposição da punição aos familiares e à descendência do criminoso, enquanto que na França ocupada pelo exército nazista ocorre o inverso: a responsabilidade pelos assassinatos cometidos pela Resistência é atribuída a toda a comunidade. Confrontamos as relações de poder engendradas e expostas nos textos, refletindo as que estavam ocorrendo no contexto histórico-político, concluindo que a tragédia grega se inseriu como mediadora da realidade político-social da polis, ao contrário das releituras francesas, que tinham uma inserção periférica na sociedade francesa de 1937 a 1944. É em busca de um sentimento de continuidade e de transcendência que ocorre o retorno às tragédias gregas e às suas releituras, visto que narram lendas heróicas que relembram, mesmo ao homem do século XXI, sua mortalidade e sua incapacidade de prever os desdobramentos de suas ações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho, apresentamos uma solução analítica para as equações difusivas unidimensionais da Teoria Geral de Perturbação em uma placa heterogênea, isto é, apresentamos as soluções analíticas para os problemas de autovalor para o fluxo de nêutrons e para o fluxo adjunto de nêutrons, para o cálculo do fator de multiplicação efetivo (keff), para o problema de fonte fixa e para o problema de função auxiliar. Resolvemos todos os problemas mencionados aplicando a Transformada de Laplace em uma placa heterogênea considerando um modelo de dois grupos de energia e realizamos a inversão de Laplace do fluxo transformado analiticamente através da técnica da expansão de Heaviside. Conhecendo o fluxo de nêutrons, exceto pelas constantes de integração, aplicamos as condições de contorno e de interface e resolvemos as equações algébricas homogêneas para o fator de multiplicação efetivo pelo método da bissecção. Obtemos o fluxo de nêutrons através da avaliação das constantes de integração para uma potência prescrita. Exemplificamos a metodologia proposta para uma placa com duas regiões e comparamos os resultados obtidos com os existentes na literatura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As proteínas vegetais vêm sendo largamente utilizadas na indústria alimentícia como substitutas da proteína animal, além de agir como um ingrediente funcional nos mais variados produtos. Dentre as proteínas mais utilizadas encontra-se a proteína texturizada de soja. Seu processamento envolve uma etapa de secagem que é uma das operações unitárias mais relevantes e desafiadoras para a indústria alimentícia. Neste trabalho, determinaram-se as curvas de secagem de três diferentes tipos de proteína texturizada de soja (PTS), através de diferentes experimentos, variando-se a temperatura do ar de secagem (T) – 90, 110 e 130°C – a velocidade do ar de secagem (v) – 100, 125 e 150 cm.s-1 – e a altura da camada de produto (h) – 3 e 6 cm para a PTS Tipo I, 2,5 e 5 cm para a PTS Tipo II e 5 e 10 cm para a PTS Tipo III. A partir dos dados experimentais obtidos de teor de umidade em função do tempo, fez-se o ajuste a um modelo exponencial de duas constantes. Todas as combinações de parâmetros apresentaram ajustes de boa qualidade, cujos coeficientes de correlação foram superiores a 0,99. Uma das constantes obtidas (C1) apresentou valores muito próximos à unidade para todos os casos (e para os três tipos de PTS), enquanto que a outra constante (C2) apresentou valores variáveis. Realizouse, então, uma análise estatística (Teste F), a fim de verificar quais dos parâmetros estudados (bem como seus efeitos de interação) eram significativos para a determinação da constante C2 do modelo exponencial. Para as PTS tipos I e II, a um nível de 95% de significância, todos os parâmetros e efeitos de interação apresentaram-se significativos para a determinação de C2 e desenvolveu-se, então, um modelo estatístico de dez constantes em função destes Obteve-se um ótimo ajuste dos dados de C2 em função dos parâmetros aos modelos testados, atingindo-se valores de erro médio relativo (EMR) sempre inferiores a 10% e coeficientes de correlação elevados. Para a PTS Tipo III apenas dois dos parâmetros testados, somados a dois efeitos de interação, mostraram-se significativos. Apesar disso, foram obtidos os melhores ajustes através, novamente, do modelo de 10 constantes. Assim, para os três tipos de PTS, foi possível a obtenção de um modelo que prevê o tempo de processo de cada tipo de PTS, para que se atinja uma determinada umidade final, ou vice-versa, em função da umidade inicial da amostra, de sua umidade de equilíbrio e dos parâmetros de processo (T, v e h). Paralelamente, determinaram-se as isotermas de sorção de dois tipos de PTS (um contendo cerca de 20% de açúcares e outro não contendo açúcares) para quatro temperaturas (10, 20, 30 e 40°C). Para o ajuste dos dados experimentais foram utilizados os modelos de Oswin, Halsey, BET, GAB, Peleg e Darcy-Watt. Os modelos de Peleg e GAB foram os que melhor se ajustaram aos dados experimentais, embora outros modelos como Halsey e Oswin também se mostraram representativos para temperaturas mais elevadas. As isotermas de sorção da PTS que continha açúcar apresentaram uma inversão de comportamento em uma atividade de água em torno de 0,9, enquanto que as curvas obtidas para a outra PTS não se cruzaram em nenhum momento. O calor de sorção foi estimado, pela equação de Clausius-Clapeyron, para ambos os tipos de PTS e este aumentou com a diminuição de umidade. Estimaram-se valores de umidade de monocamada, através do ajuste dos dados ao modelo de GAB, entre 4,6 e 7,4% para a PTS Tipo I e entre 4,4 e 5,4% para a PTS Tipo IV; os valores de umidade de monocamada diminuíram com o aumento de temperatura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os mecanismos envolvidos nas atividades toxicológicas e/ou farmacológicas dos compostos orgânicos de selênio são pouco conhecidos. Os compostos orgânicos de selênio (disseleneto de difenila e ebselen) e organotelúrio (ditelureto de difenila) foram alvo dos trabalhos realizados“in vitro”, neste estudo. Os compostos organocalcogênios apresentaram efeitos diversos sobre o influxo de 45Ca2+ medido em sinaptossomas de cérebro de rato, dependendo das condições e agentes despolarizantes usados. Ebselen, (PhSe)2 e (PhTe)2 alteram a captação de 45Ca2+ de maneira distinta quando expostos a aminopiridina ou KCl. Enquanto (PhTe)2 inibe a captação de cálcio em todas as condições experimentadas, (PhSe)2, apresenta este efeito apenas quando incubado em condições basais ou sob a ação de aminopiridina. Ebselen, por sua vez, aumenta a captação de cálcio em altas concentrações em condições basais e sob a ação de aminopiridina, porém, apresenta efeito inverso quando os sinaptossomas são despolarizados por KCl. Ebselen evitou a inibição da captação de 45Ca2+ “in vitro” provocada por cloreto de mercúrio(HgCl) em sinaptossomas de cérebro de rato em condições basais do ensaio, no entanto, ebselen não afetou a inibição da captação de glutamato “in vitro” por HgCl, indicando que ebselen pode atuar dependendo das proteínas-alvo consideradas.Os compostos de mercúrio, MeHg e HgCl, inibiram a captação de glutamato em córtex cerebral de ratos de 17 dias e ebselen reverteu somente o efeito do MeHg porém, não, o do HgCl. Disseleneto de difenila não alterou os parâmetros avaliados na exposição de ambos os compostos de mercúrio.Os compostos de mercúrio estudados provocaram a morte celular das fatias de córtex, porém, ebselen protegeu as fatias dos efeitos lesivos provocados por MeHg e não pelo HgCl.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O segmento industrial de fabricação de embalagens plásticas, como a maioria dos demais protagonistas da economia nacional, vem se deparando com significativas transformações no mundo dos negócios. As empresas vêm atuando em mercados cada vez mais globalizados e competitivos, com preços de insumos cotados em moeda internacional e, a partir da segunda metade da década de 90, quando de fato se consolidou a estabilidade econômica com o Plano Real, estão sendo levadas a buscar informações sobre métodos de custeio adequados ao contexto da realidade que se apresenta, em razão da inversão da representatividade dos recursos que são consumidos dentro da sua estrutura de custos. Dessa forma, as empresas de embalagens plásticas buscam otimizar os recursos como forma de garantir a competitividade e a permanência ativa no mercado. Este estudo propõe uma metodologia para implantação de um Sistema de Custeio Baseado em Atividades (ABC), o qual se constitui em ferramenta a ser usada na busca de um aprimoramento em controlar os recursos consumidos e no aperfeiçoamento contínuo dos processos desenvolvidos na empresa, assim como para obtenção de informações relevantes à tomada de decisões. Atingir esses resultados pressupõe compreender o delineamento dos processos existentes, as atividades que são desenvolvidas e a dinâmica dos custos ocorridos. Com o objetivo de avaliar a metodologia proposta, é desenvolvida uma aplicação em uma indústria de embalagens plásticas, localizada na cidade de Caxias do Sul – RS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O método LTSN tem sido utilizado na resolução de uma classe abrangente de problemas de transporte de partículas neutras que são reduzidos a um sistema linear algébrico depois da aplicação da transformada de Laplace. Na maioria dos casos estudados os autovalores associados são reais e simétricos. Para o problema de criticalidade os autovalores associados são reais ou imaginários puros e simétricos, e para o o problema de multigrupo podem aparecer autovalores complexos. O objetivo deste trabalho consiste na generalização da formulação LTSN para problemas de transporte com autovalores complexos. Por esse motivo é focada a solução de um problema radiativo de transporte com polarização em uma placa plana. A solução apresentada fundamenta-se na aplicação da transformada de Laplace ao conjunto de equações SN dos problemas resultantes da decomposição da equação de transferência radiativa com polarização em série de Fourier, seguindo o procedimento de Chandrasekhar. Esse procedimento gera 2L + 2 sistemas lineares de ordem 4N dependentes do parâmetro complexo "s". Aqui, L é o grau de anisotropia e N a ordem de quadratura. A solução desse sistema simbólico é obtida através da aplicação da transformada inversa de Laplace depois da inversão da matriz simbólica pelo método da diagonalização. Para a obtenção das constantes de integração é assumido que os componentes do vetor de Stokes são reais e as matrizes dos autovalores e autovetores são separadas em suas partes real e imaginária. A solução LTSN para autovalores complexos é validada através da comparação da solução para uma placa com espessura unitária, grau de anisotropia L = 13, albedo de espalhamento simples $ = 0:99, coe ciente de re exão de Lambert ¸0 = 0:1 e N = 150, segundo dados da literatura consultada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O estudo buscou identificar as relações entre letramento/alfabetização e gênero, raça e condições de ocupação no Brasil e diferentes Unidades da Federação, tendo como base empírica os microdados da Pesquisa Nacional por Amostras de Domicílios (PNAD), realizada pelo Instituto Brasileiro de Geografia e Estatística (IBGE) em 2002. O modelo de análise foi elaborado com base nos níveis de letramento propostos por Ferraro (2002) a partir da variável “anos de estudo concluídos com êxito”, incluindo-se o nível 0, que corresponde a quem se declarou sem instrução ou com menos de um ano de estudo. Verificaram-se grandes desigualdades entre as regiões e as Unidades da Federação em termos de sua distribuição pelos diferentes níveis de letramento. Apenas o Distrito Federal e os estados de São Paulo e Rio de Janeiro, da Região Sudeste, e Paraná e Rio Grande do Sul, da Região sul, apresentaram, no nível mais alto de letramento, taxas superiores à do Brasil como um todo. No nível mais alto de letramento (Nível 4 - 11 anos ou mais anos de estudo), as mulheres superam os homens em todos os grupos de idade mais jovens, de 10 a 14 anos até 50 a 54 anos. Apenas nos grupos de idade mais avançada, de 55 ou mais anos, os homens continuam a superar a mulheres nesse nível de letramento Isto indica que, a partir de meados do século XX, foi verificando-se uma inversão histórica do fenômeno da desigualdade em educação, com vantagem, agora, para as mulheres no que se refere a níveis de letramento. A intersecção de raça e gênero revelou que essas duas dimensões se somam e se sobrepõem, mas mantendo cada uma dessas duas dimensões a sua especificidade. Com efeito, em todas as idades, independentemente de qual gênero leve vantagem em termos de letramento, os homens brancos sempre superam os homens negros, da mesma forma que as mulheres brancas sempre levam vantagem em relação às mulheres negras. As variáveis gênero e raça contribuíram também muito para o diagnóstico das desigualdades no estudo do letramento quando analisadas em relação à condição de ocupação das pessoas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A análise micrometeorológica da camada limite planetária implica na obtenção de parâmetros de escala. Estas escalas típicas dão a noção da estrutura espacial e temporal da Camada Planetária, que estão diretamente ligada aos forçantes na superfície. Para tanto, necessita-se dos dados de perfis que caracterizam estes fluxos, os dados utilizados foram obtidos em 1995 e 1996. Estas radiossondagens foram realizadas no Aeroporto Salgado Filho na cidade de Porto Alegre, RS. Os perfis da temperatura e do cisalhamento do vento foram obtidos com uma resolução na vertical em torno de 50 metros. Com estes dados estimou-se a altura da camada de inversão através do perfil de temperatura potencial. A camada de mistura turbulenta estimou-se pelo cálculo do perfil do Número de Richardson. Como também, analisa-se o comportamento do jato de nível baixo, sua altura e direção. Procura-se reconhecer o tipo de resfriamento que é significante, radiativo ou turbulento. Com estes parâmetros típicos procura-se caracterizar a dinâmica da dispersão de poluentes dentro da camada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é obtida uma solução híbrida para a equação de Fokker-Planck dependente da energia, muito utilizada em problemas de implantação iônica. A idéia consiste na aplicação da transformada de Laplace na variável de energia e aplicação de um esquema de diferenças finitas nas variáveis espacial e angular desta equação. Tal procedimento gera um problema matricial simbólico para a energia transformada. Para resolver este sistema, procede-se a inversão de Laplace da matriz (sI+A), onde s é um parâmetro complexo, I a matriz identidade e A uma matriz quadrada gerada pela discretização das variáveis espacial e angular. A matriz A não é diagonalizável, desta forma, contorna-se este problema decompondo esta matriz na soma de outras duas, onde uma delas é diagonalizável. É gerado então um método iterativo de inversão, semelhante ao método da fonte fixa associado ao método de diagonalização, do qual o resultado fornecido são os valores para o fluxo de partículas do sistema. A partir disto pode-se determinar a energia depositada no sistema eletrônico e nuclear do alvo. Para validar os resultados obtidos faz-se a simulação de implantação de íons de B em Si numa faixa energética de 1keV a 50MeV, comparam-se os resultados com simulação gerada numericamente pelo software SRIM2003.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

nRPN, nRPNSTAT e nRPNDYN são novos índices, propostos nesta dissertação, que quantificam o grau de não-linearidade total, estática e dinâmica, respectivamente, de sistemas dinâmicos não- lineares. Estes novos índices permitem responder se é necessária a utilização de controladores não-lineares ou se simples controladores lineares apresentarão desempenho satisfatório. Além disso, se um controlador não- linear se fizer necessário, quais características este deve apresentar. Nesta dissertação é realizado um estudo acerca das metodologias para determinação do grau de não- linearidade de plant as industriais. Entre as encontradas, a que apresenta as melhores potencialidades é estudada em detalhes, tendo seus atributos e deficiências explorados. As deficiências foram sanadas e um novo conjunto de índices é proposto (nRPN, nRPNSTAT e nRPNDYN), o qual, além de apresentar resultados conclusivos em termos quantitativos, também traz novas informações valiosas para a escolha do controlador adequado, como a parcela estática e dinâmica da não- linearidade. A metodologia proposta é aplicada e testada em um conjunto bastante amplo e complementar de possíveis sistemas dinâmicos não-lineares (tais como: pH, reatores químicos e coluna de destilação de alta pureza) onde o comportamento nãolinear já foi explorado na literatura O desenvolvimento e o estudo do comportamento dinâmico de uma planta laboratorial de cinco tanques acoplados são apresentados. Este sistema possui dinâmica e ganhos variáveis, descontinuidades, inversão no sinal do ganho multivariável e diferentes graus de acoplamento, ilustrando de forma simples vários possíveis comportamentos dinâmicos encontrados em plantas industriais. Devido a esta grande versatilidade a planta foi construída e testada, confirmando os comportamentos previstos nos estudos teóricos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A validação de projetos de sistemas eletrônicos pode ser feita de diversas maneiras, como tem sido mostrado pelas pesquisas em síntese automática e verificação formal. Porém, a simulação ainda é o método mais utilizado. O projeto de um sistema digital típico pode ser desenvolvido em diversos níveis de abstração, como os níveis algorítmico, lógico ou analógico. Assim, a simulação também deve ser executada em todos esses níveis. A simulação apresenta, contudo, o inconveniente de não conseguir conciliar uma alta acuracidade de resultados com um baixo tempo de simulação. Quanto mais detalhada é a descrição do circuito, maior é o tempo necessário para simulá-lo. O inverso também é verdadeiro, ou seja, quanto menor for a acuracidade exigida, menor será o tempo dispendido. A simulação multinível tenta conciliar eficiêencia e acuracidade na simulação de circuitos digitais, propondo que partes do circuito sejam descritas em diferentes níveis de abstração. Com isso, somente as partes mais críticas do sistema são descritas em detalhes e a velocidade da simulação aumenta. Contudo, essa abordagem não é suficiente para oferecer um grande aumento na velocidade de simulação de grandes circuitos. Assim, surge como alternativa a aplicação de técnicas de processamento distribuído à simulação multinível. Os aspectos que envolvem a combinação dessas duas técnicas são abordados nesse trabalho. Como plataforma para os estudos realizados, optou-se por usar duas ferramentas desenvolvidas nessa Universidade: os simuladores do Sistema AMPLO e o Sistema Operacional HetNOS. São estudadas técnicas de sincronização em sistemas distribuídos, fundamentais para o desenvolvimento dos simuladores e, finalmente, são propostas alternativas para a distribuição dos simuladores. É realizada, ainda, uma análise comparativa entre as versões propostas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente estudo investiga o papel da língua na constituição da identidade e etnicidade dos grupos de base imigrante em contato em uma comunidade rural multilíngüe em português, italiano e alemão de Imigrante, no Rio Grande do Sul, Brasil. A concepção básica que subjaz a esse propósito é a de que a língua constitui um dos principais fatores de determinação da identidade e etnicidade de um grupo social, neste caso representado por descendentes de imigrantes alemães e italianos. A pergunta que orientou a pesquisa, na comunidade escolhida, é como se dá essa interrelação entre língua e identidade no contato entre dois grupos de fala contrastantes, germânico e românico, e ao mesmo tempo semelhantes, na medida em que compartilham o traço em comum de grupo minoritário falante de uma variedade dialetal aloglota oriunda da imigração a partir do século XIX. Tal objetivo envolveu quatro pontos essenciais: em primeiro lugar, pretendeu-se verificar o papel da língua na constituição de padrões de identidade, bem como se varia entre um grupo étnico e outro. Em segundo lugar, pretendeu-se analisar no sentido de sustentar a hipótese de uma identidade múltipla dos diferentes grupos étnicos e sociais em contato na comunidade e descrever os condicionadores dessa multiplicidade (situação, prestígio/estigmatização, duplicidade de comportamento). Em terceiro lugar, buscou-se reconhecer padrões identitários entre os diferentes grupos de falantes da comunidade, descrevendo meios e mecanismos de expressão/manifestação da identidade étnica no comportamento lingüístico dos falantes. E, por fim, objetivou-se reunir exemplos que atestam, no sentido inverso, o papel da identidade no comportamento lingüístico dos falantes da comunidade. A presente dissertação enquadra-se no âmbito de pesquisas do “bilingüismo, línguas em contato e identidade”, abordando tópicos como uso, manutenção e substituição de variedades lingüísticas minoritárias e majoritárias, identidade, estigmatização e preconceito lingüístico. Do ponto de vista teórico-metodológico, o estudo baseia-se em uma pesquisa qualitativa, no sentido amplo. Os resultados da pesquisa nos levaram a constatar que a língua continua sendo um dos principais fatores de identificação entre alemães, italianos e lusobrasileiros, e que tal se manifesta de forma múltipla e variável nas relações sociais da comunidade plurilíngüe. Revelou-se também que a constituição da identidade quanto ao uso e à manutenção/substituição da língua é mais forte entre os descendentes de alemães que entre os descendentes de italianos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The work described in this thesis aims to support the distributed design of integrated systems and considers specifically the need for collaborative interaction among designers. Particular emphasis was given to issues which were only marginally considered in previous approaches, such as the abstraction of the distribution of design automation resources over the network, the possibility of both synchronous and asynchronous interaction among designers and the support for extensible design data models. Such issues demand a rather complex software infrastructure, as possible solutions must encompass a wide range of software modules: from user interfaces to middleware to databases. To build such structure, several engineering techniques were employed and some original solutions were devised. The core of the proposed solution is based in the joint application of two homonymic technologies: CAD Frameworks and object-oriented frameworks. The former concept was coined in the late 80's within the electronic design automation community and comprehends a layered software environment which aims to support CAD tool developers, CAD administrators/integrators and designers. The latter, developed during the last decade by the software engineering community, is a software architecture model to build extensible and reusable object-oriented software subsystems. In this work, we proposed to create an object-oriented framework which includes extensible sets of design data primitives and design tool building blocks. Such object-oriented framework is included within a CAD Framework, where it plays important roles on typical CAD Framework services such as design data representation and management, versioning, user interfaces, design management and tool integration. The implemented CAD Framework - named Cave2 - followed the classical layered architecture presented by Barnes, Harrison, Newton and Spickelmier, but the possibilities granted by the use of the object-oriented framework foundations allowed a series of improvements which were not available in previous approaches: - object-oriented frameworks are extensible by design, thus this should be also true regarding the implemented sets of design data primitives and design tool building blocks. This means that both the design representation model and the software modules dealing with it can be upgraded or adapted to a particular design methodology, and that such extensions and adaptations will still inherit the architectural and functional aspects implemented in the object-oriented framework foundation; - the design semantics and the design visualization are both part of the object-oriented framework, but in clearly separated models. This allows for different visualization strategies for a given design data set, which gives collaborating parties the flexibility to choose individual visualization settings; - the control of the consistency between semantics and visualization - a particularly important issue in a design environment with multiple views of a single design - is also included in the foundations of the object-oriented framework. Such mechanism is generic enough to be also used by further extensions of the design data model, as it is based on the inversion of control between view and semantics. The view receives the user input and propagates such event to the semantic model, which evaluates if a state change is possible. If positive, it triggers the change of state of both semantics and view. Our approach took advantage of such inversion of control and included an layer between semantics and view to take into account the possibility of multi-view consistency; - to optimize the consistency control mechanism between views and semantics, we propose an event-based approach that captures each discrete interaction of a designer with his/her respective design views. The information about each interaction is encapsulated inside an event object, which may be propagated to the design semantics - and thus to other possible views - according to the consistency policy which is being used. Furthermore, the use of event pools allows for a late synchronization between view and semantics in case of unavailability of a network connection between them; - the use of proxy objects raised significantly the abstraction of the integration of design automation resources, as either remote or local tools and services are accessed through method calls in a local object. The connection to remote tools and services using a look-up protocol also abstracted completely the network location of such resources, allowing for resource addition and removal during runtime; - the implemented CAD Framework is completely based on Java technology, so it relies on the Java Virtual Machine as the layer which grants the independence between the CAD Framework and the operating system. All such improvements contributed to a higher abstraction on the distribution of design automation resources and also introduced a new paradigm for the remote interaction between designers. The resulting CAD Framework is able to support fine-grained collaboration based on events, so every single design update performed by a designer can be propagated to the rest of the design team regardless of their location in the distributed environment. This can increase the group awareness and allow a richer transfer of experiences among them, improving significantly the collaboration potential when compared to previously proposed file-based or record-based approaches. Three different case studies were conducted to validate the proposed approach, each one focusing one a subset of the contributions of this thesis. The first one uses the proxy-based resource distribution architecture to implement a prototyping platform using reconfigurable hardware modules. The second one extends the foundations of the implemented object-oriented framework to support interface-based design. Such extensions - design representation primitives and tool blocks - are used to implement a design entry tool named IBlaDe, which allows the collaborative creation of functional and structural models of integrated systems. The third case study regards the possibility of integration of multimedia metadata to the design data model. Such possibility is explored in the frame of an online educational and training platform.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho é apresentada a solução da equação de difusão-advecção transiente para simular a dispersão de poluentes na Camada Limite Planetária. A solução é obtida através do método analítico GILTT (Generalized Integral Laplace Transform Technique) e da técnica de inversão numérica da quadratura de Gauss. A validação da solução é comprovada utilizando as concentraçãos obtidas a partir do modelo com as obtidas experimentalmente pelo Experimento de Copenhagen. Nesta comparação foram utilizados os perfis de vento potencial e logaritmo e os parâmetros de turbulência propostos por Degrazia et al (1997) [19] e (2002) [17]. Os melhores resultados foram obtidos utilizando o perfil de vento potencial e o coeficiente de difusão propostos por Degrazia et al (1997). A influência da velocidade vertical é mostrada através do comportamento das concentrações de poluentes na pluma. Além disso, as velocidades verticais e longitudinais geradas pelo Large Eddy Simulation (LES) foram colocadas no modelo para poder simular uma camada limite turbulenta mais realística, a qual apresentou resultados satisfatórios quando comparados com os disponíveis na literatura.