922 resultados para Equipes de Alto Desempenho
Resumo:
As organizações estão se tornando cada vez mais competitivas e buscando, constantemente, formas de aumentar o seu desempenho através da compreensão dos fatores que o antecedem. A nossa investigação incorpora dois estudos, ambos incidentes sobre as lojas de uma grande cadeia de varejo brasileira. O primeiro estudo, envolvendo 68 lojas, investiga como a liderança autêntica explica o desempenho das lojas através do efeito mediador da virtuosidade e da potência das equipes (uma espécie de sentido de eficácia coletiva). O segundo estudo, abrangendo 46 lojas, testa como a potência das equipes explica o respetivo desempenho através do efeito mediador da criatividade. Os principais resultados são: (a) a relação entre a liderança autêntica e o desempenho das lojas é totalmente mediada pela virtuosidade e pela potência das equipes; (b) a criatividade medeia a relação entre a potência das equipes e o desempenho das lojas; (c) a criatividade não explica diretamente o desempenho, mas parece influenciá-lo através do efeito mediador da potência. Os cuidados metodológicos destinados a diminuir os riscos de variância do método comum aumentam a validade dos estudos. Ao focar variáveis relacionadas com a virtuosidade, a liderança autêntica, e as forças das equipes, e ao incluir dados de desempenho objetivo, a nossa investigação é um contributo relevante para o movimento dos “Estudos Organizacionais Positivos”.
Resumo:
The last years have presented an increase in the acceptance and adoption of the parallel processing, as much for scientific computation of high performance as for applications of general intention. This acceptance has been favored mainly for the development of environments with massive parallel processing (MPP - Massively Parallel Processing) and of the distributed computation. A common point between distributed systems and MPPs architectures is the notion of message exchange, that allows the communication between processes. An environment of message exchange consists basically of a communication library that, acting as an extension of the programming languages that allow to the elaboration of applications parallel, such as C, C++ and Fortran. In the development of applications parallel, a basic aspect is on to the analysis of performance of the same ones. Several can be the metric ones used in this analysis: time of execution, efficiency in the use of the processing elements, scalability of the application with respect to the increase in the number of processors or to the increase of the instance of the treat problem. The establishment of models or mechanisms that allow this analysis can be a task sufficiently complicated considering parameters and involved degrees of freedom in the implementation of the parallel application. An joined alternative has been the use of collection tools and visualization of performance data, that allow the user to identify to points of strangulation and sources of inefficiency in an application. For an efficient visualization one becomes necessary to identify and to collect given relative to the execution of the application, stage this called instrumentation. In this work it is presented, initially, a study of the main techniques used in the collection of the performance data, and after that a detailed analysis of the main available tools is made that can be used in architectures parallel of the type to cluster Beowulf with Linux on X86 platform being used libraries of communication based in applications MPI - Message Passing Interface, such as LAM and MPICH. This analysis is validated on applications parallel bars that deal with the problems of the training of neural nets of the type perceptrons using retro-propagation. The gotten conclusions show to the potentiality and easinesses of the analyzed tools.
Resumo:
Esta dissertação tem como objetivo o desenvolvimento de um modelo matemático capaz de ajustar dados obtidos através de campanhas de medição por meio de um protótipo de um cenário da tecnologia WiMAX. As campanhas de medição foram feitas na Universidade Federal do Pará. Foram utilizadas antenas WiMAX, sendo uma como servidor, localizada em cima do prédio do Laboratório de Planejamento de Redes de Alto Desempenho (LPRAD), e a outra, receptora, que ficou em cima de um móvel para que os pontos fossem coletados. O método de ajuste utilizado foi o dos Mínimos Quadrados Lineares. Por meio dos dados coletados, aplica-se o método e estuda seu comportamento, verificando o quanto a otimização foi eficiente nos casos apresentados. A utilização da tecnologia em questão como acesso à Internet em alguns programas como o NAVEGAPARÁ, a busca de melhoramentos ou criação de modelos de propagação e a análise cross-layer das métricas utilizadas no trabalho, como a influência da relação sinal-ruído na perda de quadros, são fatores motivadores para a pesquisa desta dissertação.
Resumo:
Um dos grandes entraves para o desenvolvimento econômico mundial é a crescente demanda por energia e consequente aumento da utilização de recursos naturais para provê-la. Países em desenvolvimento, como o Brasil, apresentaram progressivo consumo de energia per capita nos últimos anos. Embora a sua maioria seja proveniente de usinas hidrelétricas (fontes não poluidoras) sua construção causa grande impacto ambiental. De todo o percentual energético gerado, as edificações são responsáveis pelo consumo de aproximadamente 40% e este percentual tende a aumentar mediante o crescimento da construção civil no país. Diante da problemática, o combate ao desperdício, a racionalização e o uso sustentável da energia consumida pelas edificações estão diretamente ligados à redução do impacto ao meio ambiente, postergando a necessidade de aumento da matriz energética nacional. Neste contexto é criado o Regulamento Técnico da Qualidade do Nível de Eficiência Energética de Edifícios Comerciais, de Serviço e Públicos (RTQ-C). Este trabalho consiste em uma aplicação crítica do RTQ-C utilizando a metodologia prescritiva, tendo como enfoque aspectos relativos a sua aplicabilidade e avaliação de conforto térmico e lumínico, tendo como premissa que o alto desempenho energético da edificação só é plenamente alcançado quando são garantidas condições satisfatórias de conforto ambiental aos usuários. Para tanto foi necessária uma etapa minuciosa de levantamento de dados e medições “in loco” de temperatura do ar, temperatura radiante, iluminância e umidade relativa em dois ambientes (laboratório de conforto e sala de aula 2) do edifício do Centro de Excelência em Eficiência Energética da Amazônia - CEAMAZON, subsidiando a utilização da metodologia proposta por Fanger (PMV e PPD), e verificação dos níveis de iluminância propostos pela NBR 5413. Como resultado a edificação apresentou bom desempenho, mas a não observância dos prérequisitos a classificou com nível “C”. A avaliação de conforto indicou que aproximadamente 23% dos usuários não estavam em conforto térmico e que a ventilação natural poderá ser utilizada como estratégia bioclimática para adequação. As medições de iluminância indicaram que apenas a sala de aula 2 possuia potencial de aproveitamento de iluminação natural no período da medição. Concluiu-se que, apesar de sua importância, o RTQ-C deve passar ainda por um processo de adaptação por parte da sociedade e dos profissionais envolvidos na certificação energética de edificações e que durante esse período modificações poderão ser incorporadas contribuindo para torná-lo um instrumento efetivamente válido para a garantia da eficiência energética das edificações do país.
Resumo:
Devido às tendências de crescimento da quantidade de dados processados e a crescente necessidade por computação de alto desempenho, mudanças significativas estão acontecendo no projeto de arquiteturas de computadores. Com isso, tem-se migrado do paradigma sequencial para o paralelo, com centenas ou milhares de núcleos de processamento em um mesmo chip. Dentro desse contexto, o gerenciamento de energia torna-se cada vez mais importante, principalmente em sistemas embarcados, que geralmente são alimentados por baterias. De acordo com a Lei de Moore, o desempenho de um processador dobra a cada 18 meses, porém a capacidade das baterias dobra somente a cada 10 anos. Esta situação provoca uma enorme lacuna, que pode ser amenizada com a utilização de arquiteturas multi-cores heterogêneas. Um desafio fundamental que permanece em aberto para estas arquiteturas é realizar a integração entre desenvolvimento de código embarcado, escalonamento e hardware para gerenciamento de energia. O objetivo geral deste trabalho de doutorado é investigar técnicas para otimização da relação desempenho/consumo de energia em arquiteturas multi-cores heterogêneas single-ISA implementadas em FPGA. Nesse sentido, buscou-se por soluções que obtivessem o melhor desempenho possível a um consumo de energia ótimo. Isto foi feito por meio da combinação de mineração de dados para a análise de softwares baseados em threads aliadas às técnicas tradicionais para gerenciamento de energia, como way-shutdown dinâmico, e uma nova política de escalonamento heterogeneity-aware. Como principais contribuições pode-se citar a combinação de técnicas de gerenciamento de energia em diversos níveis como o nível do hardware, do escalonamento e da compilação; e uma política de escalonamento integrada com uma arquitetura multi-core heterogênea em relação ao tamanho da memória cache L1.
Resumo:
A Física das Radiações é um ramo da Física que está presente em diversas áreas de estudo e se relaciona ao conceito de espectrometria. Dentre as inúmeras técnicas espectrométricas existentes, destaca-se a espectrometria por fluorescência de raios X. Esta também possui uma gama de variações da qual pode-se dar ênfase a um determinado subconjunto de técnicas. A produção de fluorescência de raios X permite (em certos casos) a análise das propriedades físico-químicas de uma amostra específica, possibilitando a determinação de sua constituiçõa química e abrindo um leque de aplicações. Porém, o estudo experimental pode exigir uma grande carga de trabalho, tanto em termos do aparato físico quanto em relação conhecimento técnico. Assim, a técnica de simulação entra em cena como um caminho viável, entre a teoria e a experimentação. Através do método de Monte Carlo, que se utiliza da manipulação de números aleatórios, a simulação se mostra como uma espécie de alternativa ao trabalho experimental.Ela desenvolve este papel por meio de um processo de modelagem, dentro de um ambiente seguro e livre de riscos. E ainda pode contar com a computação de alto desempenho, de forma a otimizar todo o trabalho por meio da arquitetura distribuída. O objetivo central deste trabalho é a elaboração de um simulador computacional para análise e estudo de sistemas de fluorescência de raios X desenvolvido numa plataforma de computação distribuída de forma nativa com o intuito de gerar dados otimizados. Como resultados deste trabalho, mostra-se a viabilidade da construção do simulador através da linguagem CHARM++, uma linguagem baseada em C++ que incorpora rotinas para processamento distribuído, o valor da metodologia para a modelagem de sistemas e a aplicação desta na construção de um simulador para espectrometria por fluorescência de raios X. O simulador foi construído com a capacidade de reproduzir uma fonte de radiação eletromagnética, amostras complexas e um conjunto de detectores. A modelagem dos detectores incorpora a capacidade de geração de imagens baseadas nas contagens registradas. Para validação do simulador, comparou-se os resultados espectrométricos com os resultados gerados por outro simulador já validado: o MCNP.
Resumo:
A renderização de volume direta tornou-se uma técnica popular para visualização volumétrica de dados extraídos de fontes como simulações científicas, funções analíticas, scanners médicos, entre outras. Algoritmos de renderização de volume, como o raycasting, produzem imagens de alta qualidade. O seu uso, contudo, é limitado devido à alta demanda de processamento computacional e o alto uso de memória. Nesse trabalho, propomos uma nova implementação do algoritmo de raycasting que aproveita a arquitetura altamente paralela do processador Cell Broadband Engine, com seus 9 núcleos heterogêneos, que permitem renderização eficiente em malhas irregulares de dados. O poder computacional do processador Cell BE demanda um modelo de programação diferente. Aplicações precisam ser reescritas para explorar o potencial completo do processador Cell, que requer o uso de multithreading e código vetorizado. Em nossa abordagem, enfrentamos esse problema distribuindo a computação de cada raio incidente nas faces visíveis do volume entre os núcleos do processador, e vetorizando as operações da integral de iluminação em cada um. Os resultados experimentais mostram que podemos obter bons speedups reduzindo o tempo total de renderização de forma significativa.
Resumo:
Esforços constantes de pesquisa têm sido conduzidos na seleção de materiais, combinando propriedades de interesse (mecânicas, químicas, elétricas ou térmicas), versatilidade de uso, tempo de vida útil elevado e baixo custo de produção. A busca por materiais de elevado desempenho mecânico despertou grande interesse na pesquisa e desenvolvimento dos cerâmicos avançados com aplicações estruturais e funcionais, como o carbeto de silício. Entretanto, a porosidade ainda é vista como fator limitador do alto desempenho destes materiais visto que, acima de determinada porcentagem, reduz largamente sua resistência mecânica. Seu controle atualmente é realizado através de técnicas de alto custo, com a utilização de tomógrafos. Este trabalho buscou validar uma nova técnica, onde a porosidade foi avaliada através de processamento digital de imagens de microscopia ótica do material previamente lixado e polido em diversas profundidades, com controle dos parâmetros de lixamento e polimento. Esta nova metodologia mostrou-se apropriada e menos dispendiosa para a quantificação da porosidade do carbeto de silício, tendo sido validada para o estudo deste material.
Resumo:
Flexible radio transmitters based on the Software-Defined Radio (SDR) concept are gaining an increased research importance due to the unparalleled proliferation of new wireless standards operating at different frequencies, using dissimilar coding and modulation schemes, and targeted for different ends. In this new wireless communications paradigm, the physical layer of the radio transmitter must be able to support the simultaneous transmission of multi-band, multi-rate, multi-standard signals, which in practice is very hard or very inefficient to implement using conventional approaches. Nevertheless, the last developments in this field include novel all-digital transmitter architectures where the radio datapath is digital from the baseband up to the RF stage. Such concept has inherent high flexibility and poses an important step towards the development of SDR-based transmitters. However, the truth is that implementing such radio for a real world communications scenario is a challenging task, where a few key limitations are still preventing a wider adoption of this concept. This thesis aims exactly to address some of these limitations by proposing and implementing innovative all-digital transmitter architectures with inherent higher flexibility and integration, and where improving important figures of merit, such as coding efficiency, signal-to-noise ratio, usable bandwidth and in-band and out-of-band noise will also be addressed. In the first part of this thesis, the concept of transmitting RF data using an entirely digital approach based on pulsed modulation is introduced. A comparison between several implementation technologies is also presented, allowing to state that FPGAs provide an interesting compromise between performance, power efficiency and flexibility, thus making them an interesting choice as an enabling technology for pulse-based all-digital transmitters. Following this discussion, the fundamental concepts inherent to pulsed modulators, its key advantages, main limitations and typical enhancements suitable for all-digital transmitters are also presented. The recent advances regarding the two most common classes of pulse modulated transmitters, namely the RF and the baseband-level are introduced, along with several examples of state-of-the-art architectures found on the literature. The core of this dissertation containing the main developments achieved during this PhD work is then presented and discussed. The first key contribution to the state-of-the-art presented here consists in the development of a novel ΣΔ-based all-digital transmitter architecture capable of multiband and multi-standard data transmission in a very flexible and integrated way, where the pulsed RF output operating in the microwave frequency range is generated inside a single FPGA device. A fundamental contribution regarding the simultaneous transmission of multiple RF signals is then introduced by presenting and describing novel all-digital transmitter architectures that take advantage of multi-gigabit data serializers available on current high-end FPGAs in order to transmit in a time-interleaved approach multiple independent RF carriers. Further improvements in this design approach allowed to provide a two-stage up-conversion transmitter architecture enabling the fine frequency tuning of concurrent multichannel multi-standard signals. Finally, further improvements regarding two key limitations inherent to current all-digital transmitter approaches are then addressed, namely the poor coding efficiency and the combined high quality factor and tunability requirements of the RF output filter. The followed design approach based on poliphase multipath circuits allowed to create a new FPGA-embedded agile transmitter architecture that significantly improves important figures of merit, such as coding efficiency and SNR, while maintains the high flexibility that is required for supporting multichannel multimode data transmission.
Resumo:
Endocrine disruptors and pharmaceuticals are considered to be concerning environmental contaminants. During the last two decades, studies dealing with the occurrence and fate of these emerging contaminants in the aquatic environment have raised attention and its number is constantly increasing. The presence of these contaminants in the environment is particularly important since they are known to induce adverse effects in the ecosystems even at extremely low concentrations. Estrogens and antibiotics, in particular, are identified as capable of induce endocrine disruption and contribute for the appearance of multi-resistant bacteria, respectively. A better assessment and understanding of the real impact of these contaminants in the aquatic environment implies the evaluation of their occurrence and fate, which is the main aim of this Thesis. Two estrogens (17-estradiol and 17-ethinylestradiol) and an antibiotic (sulfamethoxazole) were the contaminants under study and their occurrence in surface and waste waters was assessed by the implementation of enzyme linked immunosorbent assays (ELISAs). The assays were optimized in order to accomplish two important aspects: to analyze complex water samples, giving special attention to matrix effects, and to increase the sensitivity. Since the levels of these contaminants in the environment are extremely low, a pre-concentration methodology was also object of study in this Thesis. Dispersive liquid-liquid microextraction (DLLME) was developed for the preconcentration of E2 and EE2, subsequently quantified by either highperformance liquid chromatography (HPLC) and the previously optimized ELISAs. Moreover, the use of anthropogenic markers, i.e. indicators of human presence or activity, has been discussed as a tool to track the origin and type of contamination. An ELISA for the quantification of caffeine, as an anthropogenic marker, was also developed in order to assess the occurrence of human domestic pollution in Portuguese surface waters. Finally, photodegradation is considered to be one of the most important pathways contributing for the mitigation of pollutants’ presence in the aquatic environment. Both direct and indirect photodegradation of E2 and EE2 were evaluated. Since the presence of humic substances (HS) is known to have a noticeable influence on the photodegradation of pollutants and in order to mimic the real aquatic environment, special attention was given to the influence of the presence and concentration of different fractions of HS on the photodegradation of both hormones.
Resumo:
This work is about the combination of functional ferroelectric oxides with Multiwall Carbon Nanotubes for microelectronic applications, as for example potential 3 Dimensional (3D) Non Volatile Ferroelectric Random Access Memories (NVFeRAM). Miniaturized electronics are ubiquitous now. The drive to downsize electronics has been spurred by needs of more performance into smaller packages at lower costs. But the trend of electronics miniaturization challenges board assembly materials, processes, and reliability. Semiconductor device and integrated circuit technology, coupled with its associated electronic packaging, forms the backbone of high-performance miniaturized electronic systems. However, as size decreases and functionalization increases in the modern electronics further size reduction is getting difficult; below a size limit the signal reliability and device performance deteriorate. Hence miniaturization of siliconbased electronics has limitations. On this background the Road Map for Semiconductor Industry (ITRS) suggests since 2011 alternative technologies, designated as More than Moore; being one of them based on carbon (carbon nanotubes (CNTs) and graphene) [1]. CNTs with their unique performance and three dimensionality at the nano-scale have been regarded as promising elements for miniaturized electronics [2]. CNTs are tubular in geometry and possess a unique set of properties, including ballistic electron transportation and a huge current caring capacity, which make them of great interest for future microelectronics [2]. Indeed CNTs might have a key role in the miniaturization of Non Volatile Ferroelectric Random Access Memories (NVFeRAM). Moving from a traditional two dimensional (2D) design (as is the case of thin films) to a 3D structure (based on a tridimensional arrangement of unidimensional structures) will result in the high reliability and sensing of the signals due to the large contribution from the bottom electrode. One way to achieve this 3D design is by using CNTs. Ferroelectrics (FE) are spontaneously polarized and can have high dielectric constants and interesting pyroelectric, piezoelectric, and electrooptic properties, being a key application of FE electronic memories. However, combining CNTs with FE functional oxides is challenging. It starts with materials compatibility, since crystallization temperature of FE and oxidation temperature of CNTs may overlap. In this case low temperature processing of FE is fundamental. Within this context in this work a systematic study on the fabrication of CNTs - FE structures using low cost low temperature methods was carried out. The FE under study are comprised of lead zirconate titanate (Pb1-xZrxTiO3, PZT), barium titanate (BaTiO3, BT) and bismuth ferrite (BiFeO3, BFO). The various aspects related to the fabrication, such as effect on thermal stability of MWCNTs, FE phase formation in presence of MWCNTs and interfaces between the CNTs/FE are addressed in this work. The ferroelectric response locally measured by Piezoresponse Force Microscopy (PFM) clearly evidenced that even at low processing temperatures FE on CNTs retain its ferroelectric nature. The work started by verifying the thermal decomposition behavior under different conditions of the multiwall CNTs (MWCNTs) used in this work. It was verified that purified MWCNTs are stable up to 420 ºC in air, as no weight loss occurs under non isothermal conditions, but morphology changes were observed for isothermal conditions at 400 ºC by Raman spectroscopy and Transmission Electron Microscopy (TEM). In oxygen-rich atmosphere MWCNTs started to oxidized at 200 ºC. However in argon-rich one and under a high heating rate MWCNTs remain stable up to 1300 ºC with a minimum sublimation. The activation energy for the decomposition of MWCNTs in air was calculated to lie between 80 and 108 kJ/mol. These results are relevant for the fabrication of MWCNTs – FE structures. Indeed we demonstrate that PZT can be deposited by sol gel at low temperatures on MWCNTs. And particularly interesting we prove that MWCNTs decrease the temperature and time for formation of PZT by ~100 ºC commensurate with a decrease in activation energy from 68±15 kJ/mol to 27±2 kJ/mol. As a consequence, monophasic PZT was obtained at 575 ºC for MWCNTs - PZT whereas for pure PZT traces of pyrochlore were still present at 650 ºC, where PZT phase formed due to homogeneous nucleation. The piezoelectric nature of MWCNTs - PZT synthesised at 500 ºC for 1 h was proved by PFM. In the continuation of this work we developed a low cost methodology of coating MWCNTs using a hybrid sol-gel / hydrothermal method. In this case the FE used as a proof of concept was BT. BT is a well-known lead free perovskite used in many microelectronic applications. However, synthesis by solid state reaction is typically performed around 1100 to 1300 ºC what jeopardizes the combination with MWCNTs. We also illustrate the ineffectiveness of conventional hydrothermal synthesis in this process due the formation of carbonates, namely BaCO3. The grown MWCNTs - BT structures are ferroelectric and exhibit an electromechanical response (15 pm/V). These results have broad implications since this strategy can also be extended to other compounds of materials with high crystallization temperatures. In addition the coverage of MWCNTs with FE can be optimized, in this case with non covalent functionalization of the tubes, namely with sodium dodecyl sulfate (SDS). MWCNTs were used as templates to grow, in this case single phase multiferroic BFO nanorods. This work shows that the use of nitric solvent results in severe damages of the MWCNTs layers that results in the early oxidation of the tubes during the annealing treatment. It was also observed that the use of nitric solvent results in the partial filling of MWCNTs with BFO due to the low surface tension (<119 mN/m) of the nitric solution. The opening of the caps and filling of the tubes occurs simultaneously during the refluxing step. Furthermore we verified that MWCNTs have a critical role in the fabrication of monophasic BFO; i.e. the oxidation of CNTs during the annealing process causes an oxygen deficient atmosphere that restrains the formation of Bi2O3 and monophasic BFO can be obtained. The morphology of the obtained BFO nano structures indicates that MWCNTs act as template to grow 1D structure of BFO. Magnetic measurements on these BFO nanostructures revealed a week ferromagnetic hysteresis loop with a coercive field of 956 Oe at 5 K. We also exploited the possible use of vertically-aligned multiwall carbon nanotubes (VA-MWCNTs) as bottom electrodes for microelectronics, for example for memory applications. As a proof of concept BiFeO3 (BFO) films were in-situ deposited on the surface of VA-MWCNTs by RF (Radio Frequency) magnetron sputtering. For in situ deposition temperature of 400 ºC and deposition time up to 2 h, BFO films cover the VA-MWCNTs and no damage occurs either in the film or MWCNTs. In spite of the macroscopic lossy polarization behaviour, the ferroelectric nature, domain structure and switching of these conformal BFO films was verified by PFM. A week ferromagnetic ordering loop was proved for BFO films on VA-MWCNTs having a coercive field of 700 Oe. Our systematic work is a significant step forward in the development of 3D memory cells; it clearly demonstrates that CNTs can be combined with FE oxides and can be used, for example, as the next 3D generation of FERAMs, not excluding however other different applications in microelectronics.
Resumo:
A indústria brasileira do turismo experimentou profundas alterações em sua estrutura a partir da década de 1990, notadamente em função de grandes investimentos em hotéis de categoria luxo e super luxo. Esse tipo de hospedagem tem como estratégia a diferenciação por meio da oferta de serviços e experiências singulares aos hóspedes. Assim, as ferramentas de atendimento virtual ao cliente podem contribuir para a construção da lealdade do hóspede a partir da diferenciação dos serviços prestados pelo hotel resort. Este é um estudo descritivo de natureza qualitativa, feito a partir de um levantamento no qual se efetuou a análise do desempenho das ferramentas de atendimento virtual ao cliente encontradas em 47 grandes hotéis resort de categoria luxo e super luxo em operação no Brasil. Os principais resultados indicam a baixa utilização das ferramentas de atendimento virtual disponíveis, sendo que as mais largamente empregadas foram e-mail, formulário eletrônico para submissão, autosserviço e mapa do site. Por outro lado, as ferramentas menos utilizadas foram e-mail de resposta automática, FAQ, chat instantâneo, personalização de site, grupos de discussão e vídeo-conferência; sendo que as quatro últimas sequer foram identifi cadas nos hotéis resort pesquisados. Pôde-se constatar também que mesmo os hotéis resort classifi cados com alto desempenho, subutilizam as ferramentas de atendimento virtual, o que parece não contribuir de forma plena para a oferta de uma experiência singular e diferenciada em relação à comunicação com seus clientes atuais, bem como com os potenciais clientes.
Resumo:
VIEIRA, Sirlei Tereza Pitteri. Competências Territoriais para o Desenvolvimento: uma análise sobre a região Metropolitana da Baixada Santista (RMBS). 2012. 208f. Dissertação (Doutorado em Administração) - Universidade Municipal de São Caetano do Sul, São Caetano do Sul, 2012.
Resumo:
Dissertação apresentada ao Programa de Pós-graduação em Administração - Mestrado da Universidade Municipal de São Caetano do Sul.
Resumo:
O objetivo desta dissertação é a paralelização e a avaliação do desempenho de alguns métodos de resolução de sistemas lineares esparsos. O DECK foi utilizado para implementação dos métodos em um cluster de PCs. A presente pesquisa é motivada pela vasta utilização de Sistemas de Equações Lineares em várias áreas científicas, especialmente, na modelagem de fenômenos físicos através de Equações Diferenciais Parciais (EDPs). Nessa área, têm sido desenvolvidas pesquisas pelo GMC-PAD – Grupo de Matemática da Computação e Processamento de Alto Desempenho da UFRGS, para as quais esse trabalho vem contribuindo. Outro fator de motivação para a realização dessa pesquisa é a disponibilidade de um cluster de PCs no Instituto de Informática e do ambiente de programação paralela DECK – Distributed Execution and Communication Kernel. O DECK possibilita a programação em ambientes paralelos com memória distribuída e/ou compartilhada. Ele está sendo desenvolvido pelo grupo de pesquisas GPPD – Grupo de Processamento Paralelo e Distribuído e com a paralelização dos métodos, nesse ambiente, objetiva-se também validar seu funcionamento e avaliar seu potencial e seu desempenho. Os sistemas lineares originados pela discretização de EDPs têm, em geral, como características a esparsidade e a numerosa quantidade de incógnitas. Devido ao porte dos sistemas, para a resolução é necessária grande quantidade de memória e velocidade de processamento, característicos de computações de alto desempenho. Dois métodos de resolução foram estudados e paralelizados, um da classe dos métodos diretos, o Algoritmo de Thomas e outro da classe dos iterativos, o Gradiente Conjugado. A forma de paralelizar um método é completamente diferente do outro. Isso porque o método iterativo é formado por operações básicas de álgebra linear, e o método direto é formado por operações elementares entre linhas e colunas da matriz dos coeficientes do sistema linear. Isso permitiu a investigação e experimentação de formas distintas de paralelismo. Do método do Gradiente Conjugado, foram feitas a versão sem précondicionamento e versões pré-condicionadas com o pré-condicionador Diagonal e com o pré-condicionador Polinomial. Do Algoritmo de Thomas, devido a sua formulação, somente a versão básica foi feita. Após a paralelização dos métodos de resolução, avaliou-se o desempenho dos algoritmos paralelos no cluster, através da realização de medidas do tempo de execução e foram calculados o speedup e a eficiência. As medidas empíricas foram realizadas com variações na ordem dos sistemas resolvidos e no número de nodos utilizados do cluster. Essa avaliação também envolveu a comparação entre as complexidades dos algoritmos seqüenciais e a complexidade dos algoritmos paralelos dos métodos. Esta pesquisa demonstra o desempenho de métodos de resolução de sistemas lineares esparsos em um ambiente de alto desempenho, bem como as potencialidades do DECK. Aplicações que envolvam a resolução desses sistemas podem ser realizadas no cluster, a partir do que já foi desenvolvido, bem como, a investigação de précondicionadores, comparação do desempenho com outros métodos de resolução e paralelização dos métodos com outras ferramentas possibilitando uma melhor avaliação do DECK.