947 resultados para Granularidade fina
Resumo:
The reverse time migration algorithm (RTM) has been widely used in the seismic industry to generate images of the underground and thus reduce the risk of oil and gas exploration. Its widespread use is due to its high quality in underground imaging. The RTM is also known for its high computational cost. Therefore, parallel computing techniques have been used in their implementations. In general, parallel approaches for RTM use a coarse granularity by distributing the processing of a subset of seismic shots among nodes of distributed systems. Parallel approaches with coarse granularity for RTM have been shown to be very efficient since the processing of each seismic shot can be performed independently. For this reason, RTM algorithm performance can be considerably improved by using a parallel approach with finer granularity for the processing assigned to each node. This work presents an efficient parallel algorithm for 3D reverse time migration with fine granularity using OpenMP. The propagation algorithm of 3D acoustic wave makes up much of the RTM. Different load balancing were analyzed in order to minimize possible losses parallel performance at this stage. The results served as a basis for the implementation of other phases RTM: backpropagation and imaging condition. The proposed algorithm was tested with synthetic data representing some of the possible underground structures. Metrics such as speedup and efficiency were used to analyze its parallel performance. The migrated sections show that the algorithm obtained satisfactory performance in identifying subsurface structures. As for the parallel performance, the analysis clearly demonstrate the scalability of the algorithm achieving a speedup of 22.46 for the propagation of the wave and 16.95 for the RTM, both with 24 threads.
Resumo:
A codificação de vídeo de modo a permitir a escalabilidade durante a transmissão tem se tornado um tópico de grande nos últimos anos. Em conjunto com um algorítmo de controle de congestionamento, é possível a criação de um ambiente de transmissão multimída mais apropriado. Esta dissertação apresente um algoritimo de codificação de vídeo escalável baseado em bit-planes. O modelo de codificação do video utiliza 3D-DCT para codificação espacial e temporal e um quantizador escalar semelehante ao empregado no MPEG 4. A técnica de escalabilidade em bit-planes implementada permite a divisão da saída de codificador em taxas complementares e com granularidade fina. Este algorítmo e parte integrante doprojeto SAM (Sistema Adaptativo Multimídia), que busca criar um ambiente de transmissão multimídia adaptativo em tempo real. Este projeto está em desenvolvimento na tese de doutorado de Valter Roesler. O algorítmo proposto e implementado é capaz de transmitir de forma unidirecional vídeos de baixa movimentação. Os resultados dos testes realizados com a implementação feita mostram que a solução proposta é flexível em realação a tecnologia disponível de transmissão através do ajuste no númerp de camadas e suas respectivas especificações de banda. Os testes realizados apresentaram um desempenho aceitável para codificação e decodificação de vídeo em tempo real. A taxa de compressão apresentou resultados satisfatórios na transmissao em ambientes de baixa velocidade para as camadas inferiores, bem como taxas de transmissão para ambientes em ADSL, cable modem e rede local para as camadas superiores. Com relação a qualidade do vídeo, esta varia de acordo com o grau de movimentação do mesmo. Por exemplo, no modelo "talking-head", comum em videoconferências, a qualidade se mostrou viável para ambientes de baixa velocidade (56 kbits/s).
Resumo:
The work described in this thesis aims to support the distributed design of integrated systems and considers specifically the need for collaborative interaction among designers. Particular emphasis was given to issues which were only marginally considered in previous approaches, such as the abstraction of the distribution of design automation resources over the network, the possibility of both synchronous and asynchronous interaction among designers and the support for extensible design data models. Such issues demand a rather complex software infrastructure, as possible solutions must encompass a wide range of software modules: from user interfaces to middleware to databases. To build such structure, several engineering techniques were employed and some original solutions were devised. The core of the proposed solution is based in the joint application of two homonymic technologies: CAD Frameworks and object-oriented frameworks. The former concept was coined in the late 80's within the electronic design automation community and comprehends a layered software environment which aims to support CAD tool developers, CAD administrators/integrators and designers. The latter, developed during the last decade by the software engineering community, is a software architecture model to build extensible and reusable object-oriented software subsystems. In this work, we proposed to create an object-oriented framework which includes extensible sets of design data primitives and design tool building blocks. Such object-oriented framework is included within a CAD Framework, where it plays important roles on typical CAD Framework services such as design data representation and management, versioning, user interfaces, design management and tool integration. The implemented CAD Framework - named Cave2 - followed the classical layered architecture presented by Barnes, Harrison, Newton and Spickelmier, but the possibilities granted by the use of the object-oriented framework foundations allowed a series of improvements which were not available in previous approaches: - object-oriented frameworks are extensible by design, thus this should be also true regarding the implemented sets of design data primitives and design tool building blocks. This means that both the design representation model and the software modules dealing with it can be upgraded or adapted to a particular design methodology, and that such extensions and adaptations will still inherit the architectural and functional aspects implemented in the object-oriented framework foundation; - the design semantics and the design visualization are both part of the object-oriented framework, but in clearly separated models. This allows for different visualization strategies for a given design data set, which gives collaborating parties the flexibility to choose individual visualization settings; - the control of the consistency between semantics and visualization - a particularly important issue in a design environment with multiple views of a single design - is also included in the foundations of the object-oriented framework. Such mechanism is generic enough to be also used by further extensions of the design data model, as it is based on the inversion of control between view and semantics. The view receives the user input and propagates such event to the semantic model, which evaluates if a state change is possible. If positive, it triggers the change of state of both semantics and view. Our approach took advantage of such inversion of control and included an layer between semantics and view to take into account the possibility of multi-view consistency; - to optimize the consistency control mechanism between views and semantics, we propose an event-based approach that captures each discrete interaction of a designer with his/her respective design views. The information about each interaction is encapsulated inside an event object, which may be propagated to the design semantics - and thus to other possible views - according to the consistency policy which is being used. Furthermore, the use of event pools allows for a late synchronization between view and semantics in case of unavailability of a network connection between them; - the use of proxy objects raised significantly the abstraction of the integration of design automation resources, as either remote or local tools and services are accessed through method calls in a local object. The connection to remote tools and services using a look-up protocol also abstracted completely the network location of such resources, allowing for resource addition and removal during runtime; - the implemented CAD Framework is completely based on Java technology, so it relies on the Java Virtual Machine as the layer which grants the independence between the CAD Framework and the operating system. All such improvements contributed to a higher abstraction on the distribution of design automation resources and also introduced a new paradigm for the remote interaction between designers. The resulting CAD Framework is able to support fine-grained collaboration based on events, so every single design update performed by a designer can be propagated to the rest of the design team regardless of their location in the distributed environment. This can increase the group awareness and allow a richer transfer of experiences among them, improving significantly the collaboration potential when compared to previously proposed file-based or record-based approaches. Three different case studies were conducted to validate the proposed approach, each one focusing one a subset of the contributions of this thesis. The first one uses the proxy-based resource distribution architecture to implement a prototyping platform using reconfigurable hardware modules. The second one extends the foundations of the implemented object-oriented framework to support interface-based design. Such extensions - design representation primitives and tool blocks - are used to implement a design entry tool named IBlaDe, which allows the collaborative creation of functional and structural models of integrated systems. The third case study regards the possibility of integration of multimedia metadata to the design data model. Such possibility is explored in the frame of an online educational and training platform.
Resumo:
Software Products Lines (SPL) is a software engineering approach to developing software system families that share common features and differ in other features according to the requested software systems. The adoption of the SPL approach can promote several benefits such as cost reduction, product quality, productivity, and time to market. On the other hand, the SPL approach brings new challenges to the software evolution that must be considered. Recent research work has explored and proposed automated approaches based on code analysis and traceability techniques for change impact analysis in the context of SPL development. There are existing limitations concerning these approaches such as the customization of the analysis functionalities to address different strategies for change impact analysis, and the change impact analysis of fine-grained variability. This dissertation proposes a change impact analysis tool for SPL development, called Squid Impact Analyzer. The tool allows the implementation of change impact analysis based on information from variability modeling, mapping of variability to code assets, and existing dependency relationships between code assets. An assessment of the tool is conducted through an experiment that compare the change impact analysis results provided by the tool with real changes applied to several evolution releases from a SPL for media management in mobile devices
Resumo:
Universidade Estadual de Campinas . Faculdade de Educação Física
Resumo:
O presente estudo diz respeito a um trabalho de pesquisa no âmbito de uma Tese de Mestrado incluída no segundo ciclo de estudos do curso de Engenharia Geotécnica e Geoambiente, realizado sobre as condições de desidroxilação para a obtenção de metacaulino com propriedades cimentíceas, a partir da fracção argilosa proveniente dos finos residuais da produção de areias de natureza granítica. O produto resultante da alteração e desintegração dos feldspatos constituintes dos granitos são ricos em caulinite. Na natureza e em particular no Norte de Portugal, existem significativos depósitos cauliníticos com características potenciadoras para a produção de metacaulino. O metacaulino utilizado neste estudo foi obtido de uma amostra de argila submetida a 750oC, por um período de tempo de 30 minutos, processo que permitiu a desidroxilação quase total da matéria-prima, transformando esta numa fase amorfa e irreversível, com propriedades pozolânicas. Os metacaulinos, também conhecidos por geopolímeros, são produtos de fácil produção utilizando uma matéria-prima abundante e proporcionam a obtenção de novos produtos que permitem a substituição parcial do cimento Portland normal na composição das pastas de betão, com vantagens significativas no comportamento mecânico e na resistência aos agentes atmosféricos. Neste estudo são apresentados os resultados dos ensaios de caracterização da matéria-prima, das condições de calcinação e do produto resultante da desidroxilação, nomeadamente a determinação da pozolanicidade e das características fundamentais para a aplicabilidade do produto. No âmbito da especialidade de Georrecursos, consideramos que este trabalho está perfeitamente adequado, já que, para além do estudo para o conhecimento das propriedades da matéria-prima, foi possível, através das alterações introduzidas com o tratamento térmico, obter um novo produto, cuja utilização terá importantes reflexos na sustentabilidade dos recursos naturais e sua utilização.
Resumo:
Os sistemas de tempo real modernos geram, cada vez mais, cargas computacionais pesadas e dinâmicas, começando-se a tornar pouco expectável que sejam implementados em sistemas uniprocessador. Na verdade, a mudança de sistemas com um único processador para sistemas multi- processador pode ser vista, tanto no domínio geral, como no de sistemas embebidos, como uma forma eficiente, em termos energéticos, de melhorar a performance das aplicações. Simultaneamente, a proliferação das plataformas multi-processador transformaram a programação paralela num tópico de elevado interesse, levando o paralelismo dinâmico a ganhar rapidamente popularidade como um modelo de programação. A ideia, por detrás deste modelo, é encorajar os programadores a exporem todas as oportunidades de paralelismo através da simples indicação de potenciais regiões paralelas dentro das aplicações. Todas estas anotações são encaradas pelo sistema unicamente como sugestões, podendo estas serem ignoradas e substituídas, por construtores sequenciais equivalentes, pela própria linguagem. Assim, o modo como a computação é na realidade subdividida, e mapeada nos vários processadores, é da responsabilidade do compilador e do sistema computacional subjacente. Ao retirar este fardo do programador, a complexidade da programação é consideravelmente reduzida, o que normalmente se traduz num aumento de produtividade. Todavia, se o mecanismo de escalonamento subjacente não for simples e rápido, de modo a manter o overhead geral em níveis reduzidos, os benefícios da geração de um paralelismo com uma granularidade tão fina serão meramente hipotéticos. Nesta perspetiva de escalonamento, os algoritmos que empregam uma política de workstealing são cada vez mais populares, com uma eficiência comprovada em termos de tempo, espaço e necessidades de comunicação. Contudo, estes algoritmos não contemplam restrições temporais, nem outra qualquer forma de atribuição de prioridades às tarefas, o que impossibilita que sejam diretamente aplicados a sistemas de tempo real. Além disso, são tradicionalmente implementados no runtime da linguagem, criando assim um sistema de escalonamento com dois níveis, onde a previsibilidade, essencial a um sistema de tempo real, não pode ser assegurada. Nesta tese, é descrita a forma como a abordagem de work-stealing pode ser resenhada para cumprir os requisitos de tempo real, mantendo, ao mesmo tempo, os seus princípios fundamentais que tão bons resultados têm demonstrado. Muito resumidamente, a única fila de gestão de processos convencional (deque) é substituída por uma fila de deques, ordenada de forma crescente por prioridade das tarefas. De seguida, aplicamos por cima o conhecido algoritmo de escalonamento dinâmico G-EDF, misturamos as regras de ambos, e assim nasce a nossa proposta: o algoritmo de escalonamento RTWS. Tirando partido da modularidade oferecida pelo escalonador do Linux, o RTWS é adicionado como uma nova classe de escalonamento, de forma a avaliar na prática se o algoritmo proposto é viável, ou seja, se garante a eficiência e escalonabilidade desejadas. Modificar o núcleo do Linux é uma tarefa complicada, devido à complexidade das suas funções internas e às fortes interdependências entre os vários subsistemas. Não obstante, um dos objetivos desta tese era ter a certeza que o RTWS é mais do que um conceito interessante. Assim, uma parte significativa deste documento é dedicada à discussão sobre a implementação do RTWS e à exposição de situações problemáticas, muitas delas não consideradas em teoria, como é o caso do desfasamento entre vários mecanismo de sincronização. Os resultados experimentais mostram que o RTWS, em comparação com outro trabalho prático de escalonamento dinâmico de tarefas com restrições temporais, reduz significativamente o overhead de escalonamento através de um controlo de migrações, e mudanças de contexto, eficiente e escalável (pelo menos até 8 CPUs), ao mesmo tempo que alcança um bom balanceamento dinâmico da carga do sistema, até mesmo de uma forma não custosa. Contudo, durante a avaliação realizada foi detetada uma falha na implementação do RTWS, pela forma como facilmente desiste de roubar trabalho, o que origina períodos de inatividade, no CPU em questão, quando a utilização geral do sistema é baixa. Embora o trabalho realizado se tenha focado em manter o custo de escalonamento baixo e em alcançar boa localidade dos dados, a escalonabilidade do sistema nunca foi negligenciada. Na verdade, o algoritmo de escalonamento proposto provou ser bastante robusto, não falhando qualquer meta temporal nas experiências realizadas. Portanto, podemos afirmar que alguma inversão de prioridades, causada pela sub-política de roubo BAS, não compromete os objetivos de escalonabilidade, e até ajuda a reduzir a contenção nas estruturas de dados. Mesmo assim, o RTWS também suporta uma sub-política de roubo determinística: PAS. A avaliação experimental, porém, não ajudou a ter uma noção clara do impacto de uma e de outra. No entanto, de uma maneira geral, podemos concluir que o RTWS é uma solução promissora para um escalonamento eficiente de tarefas paralelas com restrições temporais.
Resumo:
Todos nós estamos familiarizados com os painéis fotovoltaicos comuns, os silicon wafer-based (“bolacha/pastilha” de silício), que possuem atualmente uma quota superior a 80% [1-3] no mercado solar fotovoltaico. Desde o seu “aparecimento” em 1950, foram realizados avanços em diferentes vertentes, como a eficiência, durabilidade, custos e tecnologias de produção [2, 4, 5], sendo que no início deste século se começaram a desenvolver e a criar expectativas positivas crescentes acerca do que se designa de células fotovoltaicas de película fina ou TFPC (thin film photovoltaic cells). Certamente, já todos ouvimos notícias nos últimos anos do seu desenvolvimento e de aplicações variadas (vestuário, fachadas, etc), pelo que este artigo visa elucidar o leitor acerca do que são, do seu grau de investigação e desenvolvimento (I&D) e da posição no mercado atual e futura.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia Civil
Resumo:
El proyecto está dirigido a proporcionar métodos catalíticos para la preparación de productos de Química Fina, ya sea como producto final o intermediarios, principalmente dentro del campo de la fabricación de esencias, saborizantes y productos farmacológicos. Todo este proyecto tiene por finalidad la obtención de datos que permitan en otro desarrollo, el escalado a mayor producción no solamente de proceso (productos) sino en el caso de obtenerse un catalizador sólido, deberá proveerse la técnica de preparación del mismo, para cumplir con requerimientos habituales de las industrias, especialmente Pymes. (...) Otro tipo de proceso está representado por la síntesis vía catálisis heterogénea de ésteres del tipo del acetato de amilo y similares de uso, según su calidad como saborizante y en la industria de la perfumería. En este caso la catálisis involucrada es de tipo ácido. El objetivo general de este proyecto consiste en el desarrollo y síntesis de catalizadores heterogéneos para ser utilizado en reacciones seleccionadas de química fina, estudio de dichas reacciones y escalado de las mismas. Este objetivo general puede ser desglosado en cuatro partes u objetivos específicos: a) Optimización del sistema de reacción para síntesis de catalizadores básicos como: * Arcillas aniónicas; * Óxidos metálicos simples y mixtos; * Metales alcalinos y soportados; * Asbestos, carbones y resinas aniónicas. b) Caracterización de los catalizadores utilizando FTIR, Área superficial, Volumen de poros, Distribución y Capacidad de adsorción de moléculas sonda. c) Empleo de los catalizadores desarrollados y caracterizados en procesos de Química Fina.
Resumo:
FUNDAMENTO: Poucos estudos de autópsia relacionam locais de fibroateromas de capa fina (FCF) a locais de ruptura aguda de placas em artérias responsáveis, e locais de estreitamento máximo em artérias não responsáveis. OBJETIVO: O objetivo do presente estudo foi quantificar e localizar a frequência de FCF em relação aos locais de estenose máxima em placas ateroscleróticas. MÉTODOS: Estudamos 88 corações em vítimas de morte súbita devido a um tromo coronariano sobreposta a ruptura aguda da placa. Fibroateromas de capa fina foram definidos como capa fibrosa < 65 mícrons sobrepostos a um núcleo necrótico. O percentual de estreitamento luminal foi determinado nos locais de ruptura de placa e fibroateromas de capa fina. RESULTADOS: O estudo foi composto por 81 homens e 7 mulheres com idade média de 50 anos ± 9 DP. A ruptura da placa se deu no local de estreitamento luminal máximo em 47% das artérias responsáveis. Observou-se a presença de FCFs em 67 corações (83%). Desse número, 49 (73%) demonstravam FCFs na artéria responsável; 17 (25%) apenas na artéria responsável, 32 (48%) na artéria responsável e na artéria não responsável, e 18 (27%) apenas em uma artéria não responsável. Em artérias não responsáveis, os FCFs representaram o local máximo da estenose em 44% das artérias. O local da ruptura aguda foi o local do estreitamento luminal máximo nos vasos envolvidos em 47% de corações de pacientes próximos do óbito devido à ruptura da placa. CONCLUSÃO: Esses dados podem sugerir que o estreitamento luminal não é um marcador confiável para FCF.
Resumo:
La demència es caracteritza per una sèrie de dèficits cognitius múltiples queimpliquen un deteriorament de la memòria. Entre els símptomes de lademència hi ha el deteriorament de la memòria i la pèrdua de la psicomotricitatfina.L'objectiu d'aquest projecte és explotar la tecnologia de videojocs per crear unentorn que permeti dissenyar diferents exercicis que potenciïn la memòria i lapsicomotricitat fina. Els exercicis consistiran en la visualització d’un circuit en 3dimensions pels quals el pacient haurà de fer circular un objecte. L'objectiu ésdesenvolupar un entorn que permeti crear qualsevol tipus de circuit, elaborarexercicis i poder-los puntuar de forma automàtica
Resumo:
Les ceràmiques gregues, sobretot atiques, s' estudien des del punt de vista tipologic i decoratiu, pero també atenent a les categories funcionals i a la posició d'aquests materials dins el conjunt de cerarruques fines i dins del conjunt de ceramiques d'importació. Es condou l'existencia d'una facies original, pero vinculada, per diferents raons, amb la de la Iberia centre-meridional i amb la de l'area hel·lenitzant del golf del Lleó.
Resumo:
Motivada por el surgimiento de la reivindicación de la función de la violencia enla política, tanto en el terreno de la acción como en el discurso teórico, en Sobrela violència Arendt interroga la relación entre violencia y poder, entre política ydominación. Tal como señala Fina Birulés en el prólogo, sus reflexiones son elresultado del esfuerzo renovado por comprender las experiencias políticas a lasque Arendt se vio confrontada, en particular, la aparición en la escena pública deun discurso que reivindicaba la violencia como elemento central de la prácticarevolucionaria. Y como en otras ocasiones, la reflexión sobre el presente da lugara la crítica de la tradición de la filosofía política. En este sentido, y de modoejemplar, el libro se constituye como un “ejercicio de pensamiento político” que ala vez que interpreta los acontecimientos interroga las categorías con las que latradición ha pensado la política.