87 resultados para Conjunto solução


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, desenvolve-se um método “multigrid” para a aproximação angular da solução da equação de transporte de partículas em uma placa plana, baseado na formulação LTSN com dependência contínua na variável angular. Para tanto, aplica-se a formulação LTSN sobre o conjunto de equações SN para determinar o fluxo angular de partículas nas N direções discretas referentes a uma malha grossa (N pequeno) e em seguida, usando os fluxos conhecidos, aplica-se a formulação LTSN com dependência angular contínua, para avaliar o fluxo angular nas M direções discretas referentes a uma malha fina (M grande). São apresentadas simulações numéricas que ilustram a capacidade desse método, denotado por MGLTSMN , no que diz respeito à redução do esforço computacional na aproximação da solução para problemas que requerem elevadas ordens de quadratura e alto grau de anisotropia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Micropartículas nanorrevestidas (MP) foram preparadas através da secagem por aspersão (spray-drying), empregando-se suspensões poliméricas nanoestruturadas como material de revestimento (nanoesferas – NS, nanocápsulas – NC ou nanodispersão – ND). Foram realizados estudos utilizando-se o diclofenaco, tanto na sua forma hidrofílica (diclofenaco sódico), hidrofóbica (diclofenaco ácido) e a dexametasona como fármacos-modelo e o Eudragit S100®, como polímero. O trabalho foi delineado buscando-se o desenvolvimento de metodologias de preparação, o estudo dos fatores que influenciam o processo de revestimento, o conhecimento das características físico-químicas das MP e a avaliação das suas vantagens biológicas. As suspensões poliméricas (NC e NS) foram preparadas através da técnica da nanoprecipitação. As MP foram preparadas utilizando-se diferentes metodologias, de acordo com a hidrofobia do fármaco, envolvendo a combinação de técnicas de evaporação do solvente e secagem por aspersão. A influência dos fatores de secagem (fluxo de alimentação e temperatura de entrada) sobre as características das MP foi avaliada através de um delineamento fatorial 32. A caracterização físico-química foi realizada determinando-se o rendimento do processo, taxa de encapsulação, umidade, tamanho de partícula (nano e micropartículas), área superficial e volume de poros, além das análises morfológicas através de microscopia óptica, eletrônica de varredura (MEV) e microscopia de força atômica (MFA) e análises por difração de raios-X. Além disso, foram avaliados os perfis de liberação do fármaco a partir destas MP (pH 1,2; 5,0 e 7,4), bem como a sua interação (transporte do fármaco e citotoxicidade) com células Caco-2. A vantagem biológica dos sistemas foi determinada pela avaliação do efeito protetor sobre a mucosa gastrintestinal frente aos efeitos tóxicos do diclofenaco. Através do delineamento fatorial foi possível estabelecer os parâmetros de secagem para a obtenção de MP com boas características de rendimento, taxa de encapsulação e umidade (fluxo de alimentação: 3,0 e 4,5 ml/min, para MP obtidas a partir de NC e NS, respectivamente; e temperatura de entrada: 170 C, para ambas). As MP apresentaram rendimentos entre 40 e 80% e taxas de encapsulação entre 70 e 115 %, dependendo do tipo de revestimento nanoestruturado (NS, NC ou ND) e do fármaco empregado (diclofenaco ácido, diclofenaco sódico ou dexametasona) Todas as formulações apresentaram um teor de umidade menor que 3 %. As análises através de MEV demonstraram a presença de nanoestruturas adsorvidas à superfície das MP, indepentemente da formulação estudada e com tamanhos de partículas diretamente relacionados ao tamanho das nanopartículas da suspensão original (170-200 nm para NC e 60-70 nm para NS). A observação morfológica através de MFA também permitiu a visualização destas nanoestruturas na superfície das MP. Essa observação foi associada à redução nas áreas superficias das MP (40-50 m2.g-1 e 115-135 m2.g-1 para MP revestidas a partir de suspensões de NC ou NS, respectivamente) em relação ao núcleo não revestido (150-160 m2.g-1). Os resultados de liberação in vitro do fármaco a partir das MP demonstraram uma modificação da sua liberação, de acordo com o tipo de material nanoestruturado empregado, a natureza do fármaco e a presença de um plastificante (triacetina ou poligol 6000). A análise por difração de raios-X mostrou que o fármaco encontra-se na forma cristalina em praticamente todas as formulações. A vantagem biológica foi estudada em ratos e demonstrada pela redução na toxicidade gastrintestinal do diclofenaco apresentada pelas MP revestidas a partir de NC ou ND (índices lesionais totais: 24,20 e 29,89, respectivamente) em relação a uma solução aquosa do fármaco (índice lesional total: 156,11). Os estudos de interação das MP contendo dexametasona com as células Caco-2 demonstraram a sua potencialidade em modificar a absorção do fármaco em relação a uma solução aquosa do fármaco, sem apresentarem citotoxicidade sobre esta linhagem celular. Além disso, o estudo demonstrou a potencialidade do emprego deste modelo in vitro para prever a liberação do fármaco a partir de sistemas microparticulados. Assim, o conjunto destes estudos mostra que as micropartículas nanorrevestidas apresentam-se como uma nova aplicação dos sistemas nanoestruturados e como uma nova estratégia na obtenção de sistemas micro e multiparticulados de administração de fármacos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The work described in this thesis aims to support the distributed design of integrated systems and considers specifically the need for collaborative interaction among designers. Particular emphasis was given to issues which were only marginally considered in previous approaches, such as the abstraction of the distribution of design automation resources over the network, the possibility of both synchronous and asynchronous interaction among designers and the support for extensible design data models. Such issues demand a rather complex software infrastructure, as possible solutions must encompass a wide range of software modules: from user interfaces to middleware to databases. To build such structure, several engineering techniques were employed and some original solutions were devised. The core of the proposed solution is based in the joint application of two homonymic technologies: CAD Frameworks and object-oriented frameworks. The former concept was coined in the late 80's within the electronic design automation community and comprehends a layered software environment which aims to support CAD tool developers, CAD administrators/integrators and designers. The latter, developed during the last decade by the software engineering community, is a software architecture model to build extensible and reusable object-oriented software subsystems. In this work, we proposed to create an object-oriented framework which includes extensible sets of design data primitives and design tool building blocks. Such object-oriented framework is included within a CAD Framework, where it plays important roles on typical CAD Framework services such as design data representation and management, versioning, user interfaces, design management and tool integration. The implemented CAD Framework - named Cave2 - followed the classical layered architecture presented by Barnes, Harrison, Newton and Spickelmier, but the possibilities granted by the use of the object-oriented framework foundations allowed a series of improvements which were not available in previous approaches: - object-oriented frameworks are extensible by design, thus this should be also true regarding the implemented sets of design data primitives and design tool building blocks. This means that both the design representation model and the software modules dealing with it can be upgraded or adapted to a particular design methodology, and that such extensions and adaptations will still inherit the architectural and functional aspects implemented in the object-oriented framework foundation; - the design semantics and the design visualization are both part of the object-oriented framework, but in clearly separated models. This allows for different visualization strategies for a given design data set, which gives collaborating parties the flexibility to choose individual visualization settings; - the control of the consistency between semantics and visualization - a particularly important issue in a design environment with multiple views of a single design - is also included in the foundations of the object-oriented framework. Such mechanism is generic enough to be also used by further extensions of the design data model, as it is based on the inversion of control between view and semantics. The view receives the user input and propagates such event to the semantic model, which evaluates if a state change is possible. If positive, it triggers the change of state of both semantics and view. Our approach took advantage of such inversion of control and included an layer between semantics and view to take into account the possibility of multi-view consistency; - to optimize the consistency control mechanism between views and semantics, we propose an event-based approach that captures each discrete interaction of a designer with his/her respective design views. The information about each interaction is encapsulated inside an event object, which may be propagated to the design semantics - and thus to other possible views - according to the consistency policy which is being used. Furthermore, the use of event pools allows for a late synchronization between view and semantics in case of unavailability of a network connection between them; - the use of proxy objects raised significantly the abstraction of the integration of design automation resources, as either remote or local tools and services are accessed through method calls in a local object. The connection to remote tools and services using a look-up protocol also abstracted completely the network location of such resources, allowing for resource addition and removal during runtime; - the implemented CAD Framework is completely based on Java technology, so it relies on the Java Virtual Machine as the layer which grants the independence between the CAD Framework and the operating system. All such improvements contributed to a higher abstraction on the distribution of design automation resources and also introduced a new paradigm for the remote interaction between designers. The resulting CAD Framework is able to support fine-grained collaboration based on events, so every single design update performed by a designer can be propagated to the rest of the design team regardless of their location in the distributed environment. This can increase the group awareness and allow a richer transfer of experiences among them, improving significantly the collaboration potential when compared to previously proposed file-based or record-based approaches. Three different case studies were conducted to validate the proposed approach, each one focusing one a subset of the contributions of this thesis. The first one uses the proxy-based resource distribution architecture to implement a prototyping platform using reconfigurable hardware modules. The second one extends the foundations of the implemented object-oriented framework to support interface-based design. Such extensions - design representation primitives and tool blocks - are used to implement a design entry tool named IBlaDe, which allows the collaborative creation of functional and structural models of integrated systems. The third case study regards the possibility of integration of multimedia metadata to the design data model. Such possibility is explored in the frame of an online educational and training platform.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Estratégias para descoberta de recursos permitem a localização automática de dispositivos e serviços em rede, e seu estudo é motivado pelo elevado enriquecimento computacional dos ambientes com os quais interage-se. Essa situação se deve principalmente à popularização de dispositivos pessoais móveis e de infra-estruturas de comunicação baseadas em redes sem-fio. Associado à rede fixa, esse ambiente computacional proporciona um novo paradigma conhecido como computação pervasiva. No escopo de estudo da computação pervasiva, o Grupo de Processamento Paralelo e Distribuído da Universidade Federal do Rio Grande do Sul desenvolve o projeto ISAM. Este engloba frentes de pesquisa que tratam tanto da programação de aplicações pervasivas como também do suporte à execução dessas. Esse suporte é provido pelo middleware EXEHDA, o qual disponibiliza um conjunto de serviços que podem ser utilizados por essas aplicações ou por outros serviços do ambiente de execução. Essa dissertação aborda especificamente o Pervasive Discovery Service (PerDiS), o qual atua como um mecanismo para descoberta de recursos no ambiente pervasivo proporcionado pelo ISAM. A concepção do PerDiS baseou-se na identificação dos principais requisitos de uma solução para descoberta de recursos apropriada para utilização em um cenário de computação pervasiva Resumidamente, os requisitos identificados nessa pesquisa e considerados pelo PerDiS tratam de questões relacionadas aos seguintes aspectos: a) utilização de informações do contexto de execução, b) utilização de estratégias para manutenção automática da consistência, c) expressividade na descrição de recursos e critérios de pesquisa, d) possibilidade de interoperabilidade com outras estratégias de descoberta, e) suporte à descoberta de recursos em larga-escala, e f) utilização de preferências por usuário. A arquitetura PerDiS para descoberta de recursos utiliza em sua concepção outros serviços disponibilizados pelo ambiente de execução do ISAM para atingir seus objetivos, e ao mesmo tempo provê um serviço que também pode ser utilizado por esses. O modelo proposto é validado através da implementação de um protótipo, integrado à plataforma ISAM. Os resultados obtidos mostram que o PerDiS é apropriado para utilização em ambientes pervasivos, mesmo considerando os desafios impostos por esse paradigma.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho é apresentada uma solução analítica de um problema bidimensional e transiente de dispersão de poluentes atmosféricos. O modelamento utilizado é conhecido na literatura como modelo Kzz para dispersão de poluentes atmosféricos e é representado por uma equação difusivo-advectiva com coeficientes de difusão e advecção variáveis. São utilizados três diferentes coeficientes de difusão nas simulações, bem como as componentes horizontal e vertical do vento são tomadas como variáveis. A solução analítica é gerada através da aplicação da técnica GITT (Generalized Integral Transform Technique) dupla com problema transformado resolvido por Transformada de Laplace e diagonalização de matrizes. Filtros matemáticos são usados para homogenizar as condições de contorno viabilizando o uso da técnica citada. Além disso, o tipo de filtro matemático utilizado permite a sensível diminuição do custo computacional. Resultados numéricos são obtidos e comparados com dados experimentais e outras soluções da literatura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este memorial tem como principal objetivo apontar as inter-relações existentes entre a concepção estética dos ciclos vitais e os processos técnico-composicionais utilizados em um conjunto de composições. A concepção estética dos ciclos vitais foi obtida através de uma pesquisa baseada na análise de obras compostas anteriormente a este conjunto, e em dois referenciais teóricos principais, "Fenomenologia do Espírito" de Hegel e "O Tao da Física: um paralelo entre a física moderna e o misticismo oriental" de Capra. Também encontra fundamentos na utilização de estruturas simétricas, da proporção áurea e da série de Fibonacci, a partir de sua ligação com a natureza. As inter-relações entre as concepções estéticas e os processos técnico-composicionais são demonstradas através da análise das obras como um conjunto e individualmente. As semelhanças estruturais e dos materiais musicais unificam estas obras, caracterizando-as como um ciclo de composições, o qual reflete na macroestrutura os elementos individuais de cada composição.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho apresenta-se uma solu c~ao para um problema abstrato de Cauchy. Basicamente, d a-se uma formula c~ao abstrata para certos tipos de equa c~oes diferenciais parciais n~ao lineares de evolu c~ao em espa cos de Nikol'skii, tais espa cos possuem boas propriedades de regularidade e resultados de imers~ao compacta, num certo sentido s~ao intermedi arios entre os espa cos de Holder e os espa cos de Sobolev. Aplicando o m etodo de Galerkin, prova-se resultados de exist^encia global de solu c~oes fracas, como tamb em a exist^encia de solu c~oes fracas com a propriedade de reprodu c~ao. E impondo mais hip oteses sobre os operadores envolvidos demonstra-se unicidade de solu c~oes fracas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho é apresentada a solução da equação de difusão-advecção transiente para simular a dispersão de poluentes na Camada Limite Planetária. A solução é obtida através do método analítico GILTT (Generalized Integral Laplace Transform Technique) e da técnica de inversão numérica da quadratura de Gauss. A validação da solução é comprovada utilizando as concentraçãos obtidas a partir do modelo com as obtidas experimentalmente pelo Experimento de Copenhagen. Nesta comparação foram utilizados os perfis de vento potencial e logaritmo e os parâmetros de turbulência propostos por Degrazia et al (1997) [19] e (2002) [17]. Os melhores resultados foram obtidos utilizando o perfil de vento potencial e o coeficiente de difusão propostos por Degrazia et al (1997). A influência da velocidade vertical é mostrada através do comportamento das concentrações de poluentes na pluma. Além disso, as velocidades verticais e longitudinais geradas pelo Large Eddy Simulation (LES) foram colocadas no modelo para poder simular uma camada limite turbulenta mais realística, a qual apresentou resultados satisfatórios quando comparados com os disponíveis na literatura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A urbanização descontrolada das cidades brasileiras tem provocado o agravamento das enchentes naturais e a ampliação de sua freqüência, além de criar novos pontos de alagamento localizados. Isto se deve à crescente impermeabilização do solo com aumento do volume pluvial escoado e redução de amortecimento. A concepção de um projeto de macrodrenagem em uma bacia urbana que considere o controle das inundações, como por exemplo, a implementação de reservatórios de amortecimento em áreas sujeitas a alagamentos, constitui-se em uma tarefa complexa e difícil devido ao grande número de alternativas possíveis, considerando todas as variáveis envolvidas, como capacidades hidráulicas existentes e necessárias das redes de drenagem, disponibilidade de áreas para construção de reservatórios, custos de desapropriação destas áreas, existência de sistemas mistos de coleta, uso de reservatórios abertos ou subterrâneos, dentre outras. Desta forma o projetista coloca-se diante de um dilema: qual o conjunto destas alternativas podem ser o mais eficiente? Este estudo promoveu a análise da aplicabilidade e eficiência de um modelo de otimização associado a modelos hidrológico-hidráulicos como instrumentos de suporte à decisão em problemas de drenagem urbana. A ferramenta desenvolvida compôs-se pelo modelo IPHS1 para a simulação hidrológica e hidráulica, pelo algoritmo de evolução SCE-UA para o processo de otimização através da minimização do custo de implantação das soluções e do módulo EXTRAN do modelo SWMM para a verificação hidráulica dos resultados obtidos e análises de riscos superiores. Os resultados mostraram-se bons e o sistema implementado adaptou-se bem às características das duas bacias analisadas: bacia do arroio do Moinho e bacia do arroio da Areia. O sistema forneceu os cenários de custos otimizados de implantação da solução com detenções distribuídas nas bacias e ampliações de redes, em um curto período de tempo e utilizando dados que seriam necessários para qualquer projeto de macrodrenagem deste tipo. Com os resultados compilados, foram obtidas funções de auxílio à tomada de decisão em planos e projetos de drenagem urbana através de curvas ajustadas aos pontos gerados nas bacias estudadas. Foi realizada a análise de sensibilidade e a avaliação das incertezas envolvidas com o modelo hidrológico utilizado com relação ao seu parâmetro principal, o Curve Number. Esta análise mostrou grandes variações nas vazões de saída das bacias e nos custos das obras com pequenas alterações nos valores de CN. Apresenta-se ainda uma análise econômica da aplicação dos valores obtidos de forma extrapolada para todo o município de Porto Alegre.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho apresenta uma comparação das eficiências energética e exergética de três alternativas diferentes de montagem de sistemas de co-geração de energia que empregam o gás natural como combustível. O caso estudado é uma situação real de um curtume que utiliza lenha como combustível para geração de sua energia térmica e compra energia elétrica da distribuidora. A primeira alternativa é composta por um motor de combustão interna a ciclo Otto, a segunda emprega uma turbina a gás a ciclo Brayton e a terceira usa um gerador de vapor superaquecido juntamente com uma turbina a vapor em contrapressão. Para simulação das plantas é utilizado um software comercial que foi alterado, ficando capacitado para calcular exergias físicas e químicas de plantas de utilidades, cálculos exergoeconômicos, tais como taxas de custo das correntes e eixos, e também de determinar para cada equipamento os valores das variáveis usadas para a avaliação e o melhoramento do desempenho de plantas. Após as modificações o programa foi testado resolvendo um problema conhecido e cuja solução encontrada foi comparada com o da bibliografia. Foram obtidos resultados muito próximos ao padrão usado para comparação, os desvios encontrados são desprezíveis para os objetivos deste trabalho. A planta com melhor eficiência energética e exergética é aquela com motor ciclo Otto, seguida pela montagem que emprega a turbina a gás e finalmente, o conjunto gerador de vapor e turbina a vapor. São calculados os custos de insumos: investimentos necessários para construção das plantas, os custos de operação e manutenção e os custos com combustível. A partir destes valores são resolvidos os sistemas de equações para determinar as taxas de custos das correntes e eixos. Para as três plantas as variáveis de decisão são modificadas buscando aumentar a eficiência exergética e diminuir os custos dos produtos de co-geração. A metodologia para avaliação e melhoramento do desempenho das plantas é empregada e observa-se que é na terceira configuração é onde as modificações tiveram maior impacto, seguida pela primeira planta e por último a segunda alternativa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O padrão H.264 foi desenvolvido pelo JVT, que foi formado a partir de uma união entre os especialistas do VCEG da ITU-T e do MPEG da ISO/IEC. O padrão H.264 atingiu seu objetivo de alcançar as mais elevadas taxas de processamento dentre todos os padrões existentes, mas à custa de um grande aumento na complexidade computacional. Este aumento de complexidade impede, pelo menos na tecnologia atual, a utilização de codecs H.264 implementados em software, quando se deseja a decodi cação de vídeos de alta de nição em tempo real. Essa dissertação propõe uma solução arquitetural de hardware, denominada MoCHA, para compensação de movimento do decodi cador de vídeo de alta de nição, segundo o padrão H.264/AVC. A MoCHA está dividida em três blocos principais, a predição dos vetores de movimento, o acesso à memória e o processamento de amostras. A utilização de uma cache para explorar a redundância dos dados nos acessos à mem ória, em conjunto com melhorias propostas, alcançou economia de acessos à memória superior a 60%, para os casos testados. Quando uma penalidade de um ciclo por troca de linha de memória é imposta, a economia de ciclos de acesso supera os 75%. No processamento de amostras, a arquitetura realiza o processamento dos dois blocos, que dão origem ao bloco bi-preditivo, de forma serial. Dessa forma, são economizados recursos de hardware, uma vez que a duplicação da estrutura de processamento não é requerida. A arquitetura foi validada a partir de simulações, utilizando entradas extraídas de seqüências codi cadas. Os dados extraídos, salvos em arquivos, serviam de entrada para a simulação. Os resultados da simulação foram salvos em arquivos e comparados com os resultados extraídos. O processador de amostras do compensador de movimento foi prototipado na placa XUP Virtex-II Pro. A placa possui um FPGA VP30 da família Virtex-II PRO da Xilinx. O processador PowerPC 405, presente no dispositivo, foi usado para implementar um test bench para validar a operação do processador de amostras mapeado para o FPGA. O compensador de movimento para o decodi cador de vídeo H.264 foi descrito em VHDL, num total de 30 arquivos e cerca de 13.500 linhas de código. A descrição foi sintetizada pelo sintetizador Syplify Pro da Symplicity para o dispositivo XC2VP30-7 da Xilinx, consumindo 8.465 slices, 5.671 registradores, 10.835 LUTs, 21 blocos de memó- ria interna e 12 multiplicadores. A latência mínima para processar um macrobloco é de 233 ciclos, enquanto a máxima é de 590, sem considerar misses na cache. A freqüência máxima de operação foi de 100,5 MHz. A arquitetura projetada é capaz de processar, no pior caso, 36,7 quadros HDTV de 1080 por 1920, inteiramente bi-preditivos, por segundo. Para quadros do tipo P, que não utilizam a bi-predição, a capacidade de processamento sobe para 64,3 quadros por segundo. A arquitetura apresentada para o processamento de quadros bi-preditivos e a hierarquia de memória são, até o momento, inéditas na literatura. Os trabalhos relativos a decodi cadores completos não apresentam a solução para esse processamento. Os resultados apresentados tornam a MoCHA uma solução arquitetural capaz de fazer parte de um decodi cador para vídeos de alta definição.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho é apresentar a base teórica para o problema de aprendizagem através de exemplos conforme as ref. [14], [15] e [16]. Aprender através de exemplos pode ser examinado como o problema de regressão da aproximação de uma função multivaluada sobre um conjunto de dados esparsos. Tal problema não é bem posto e a maneira clássica de resolvê-lo é através da teoria de regularização. A teoria de regularização clássica, como será considerada aqui, formula este problema de regressão como o problema variacional de achar a função f que minimiza o funcional Q[f] = 1 n n Xi=1 (yi ¡ f(xi))2 + ¸kfk2 K; onde kfk2 K é a norma em um espa»co de Hilbert especial que chamaremos de Núcleo Reprodutivo (Reproducing Kernel Hilbert Spaces), ou somente RKHS, IH definido pela função positiva K, o número de pontos do exemplo n e o parâmetro de regularização ¸. Sob condições gerais a solução da equação é dada por f(x) = n Xi=1 ciK(x; xi): A teoria apresentada neste trabalho é na verdade a fundamentação para uma teoria mais geral que justfica os funcionais regularizados para a aprendizagem através de um conjunto infinito de dados e pode ser usada para estender consideravelmente a estrutura clássica a regularização, combinando efetivamente uma perspectiva de análise funcional com modernos avanços em Teoria de Probabilidade e Estatística.