974 resultados para Modèle de coûts énergétiques de nage
Resumo:
La mise en registre 3D (opération parfois appelée alignement) est un processus de transformation d’ensembles de données 3D dans un même système de coordonnées afin d’en aligner les éléments communs. Deux ensembles de données alignés ensemble peuvent être les scans partiels des deux vues différentes d’un même objet. Ils peuvent aussi être deux modèles complets, générés à des moments différents, d’un même objet ou de deux objets distincts. En fonction des ensembles de données à traiter, les méthodes d’alignement sont classées en mise en registre rigide ou non-rigide. Dans le cas de la mise en registre rigide, les données sont généralement acquises à partir d’objets rigides. Le processus de mise en registre peut être accompli en trouvant une seule transformation rigide globale (rotation, translation) pour aligner l’ensemble de données source avec l’ensemble de données cible. Toutefois, dans le cas non-rigide, où les données sont acquises à partir d’objets déformables, le processus de mise en registre est plus difficile parce qu’il est important de trouver à la fois une transformation globale et des déformations locales. Dans cette thèse, trois méthodes sont proposées pour résoudre le problème de mise en registre non-rigide entre deux ensembles de données (représentées par des maillages triangulaires) acquises à partir d’objets déformables. La première méthode permet de mettre en registre deux surfaces se chevauchant partiellement. La méthode surmonte les limitations des méthodes antérieures pour trouver une grande déformation globale entre deux surfaces. Cependant, cette méthode est limitée aux petites déformations locales sur la surface afin de valider le descripteur utilisé. La seconde méthode est s’appuie sur le cadre de la première et est appliquée à des données pour lesquelles la déformation entre les deux surfaces est composée à la fois d’une grande déformation globale et de petites déformations locales. La troisième méthode, qui se base sur les deux autres méthodes, est proposée pour la mise en registre d’ensembles de données qui sont plus complexes. Bien que la qualité que elle fournit n’est pas aussi bonne que la seconde méthode, son temps de calcul est accéléré d’environ quatre fois parce que le nombre de paramètres optimisés est réduit de moitié. L’efficacité des trois méthodes repose sur des stratégies via lesquelles les correspondances sont déterminées correctement et le modèle de déformation est exploité judicieusement. Ces méthodes sont mises en oeuvre et comparées avec d’autres méthodes sur diverses données afin d’évaluer leur robustesse pour résoudre le problème de mise en registre non-rigide. Les méthodes proposées sont des solutions prometteuses qui peuvent être appliquées dans des applications telles que la mise en registre non-rigide de vues multiples, la reconstruction 3D dynamique, l’animation 3D ou la recherche de modèles 3D dans des banques de données.
Resumo:
La structuration laser femtoseconde de verres d’oxydes est aujourd’hui un domaine de recherche en pleine expansion. L’interaction laser-matière est de plus en plus utilisée pour sa facilité de mise en œuvre et les nombreuses applications qui découlent de la fabrication des composants photoniques, déjà utilisés dans l’industrie des hautes technologies. En effet, un faisceau d’impulsions ultracourtes focalisé dans un matériau transparent atteint une intensité suffisante pour modifier la matière en trois dimensions sur des échelles micro et nanométriques. Cependant, l’interaction laser-matière à ces régimes d’intensité n’est pas encore complètement maîtrisée, et les matériaux employés ne sont pas entièrement adaptés aux nouvelles applications photoniques. Par ce travail de thèse, nous nous efforçons donc d’apporter des réponses à ces interrogations. Le mémoire est articulé autour de deux grands volets. Le premier aborde la question de l’interaction de surface de verres avec de telles impulsions lumineuses qui mènent à l’auto-organisation périodique de la matière structurée. L’influence du dopage en ions photosensibles et des paramètres d’irradiation est étudiée afin d’appuyer et de conforter le modèle d’incubation pour la formation de nanoréseaux de surface. À travers une approche innovante, nous avons réussi à apporter un contrôle de ces structures nanométriques périodiques pour de futures applications. Le second volet traite de cristallisation localisée en volume induite en grande partie par l’interaction laser-matière. Plusieurs matrices vitreuses, avec différents dopages en sel d’argent, ont été étudiées pour comprendre les mécanismes de précipitation de nanoparticules d’argent. Ce travail démontre le lien entre la physicochimie de la matrice vitreuse et le caractère hors équilibre thermodynamique de l’interaction qui influence les conditions de nucléation et de croissance de ces nano-objets. Tous ces résultats sont confrontés à des modélisations de la réponse optique du plasmon de surface des nanoparticules métalliques. Les nombreuses perspectives de ce travail ouvrent sur de nouvelles approches quant à la caractérisation, aux applications et à la compréhension de l’interaction laser femtoseconde pour l’inscription directe de briques photoniques dans des matrices vitreuses.
Resumo:
Ce mémoire présente l’étude numérique d’un emballement de turbine hydraulique axiale à échelle modèle. Cet état transitoire est simulé du point de meilleur rendement jusqu’à l’atteinte de 95% de la vitesse d’emballement. Pour ce faire, une méthodologie numérique est développée à l’aide du logiciel commercial ANSYS CFX en utilisant une approche "Unsteady Reynolds Averaged Navier-Stokes" avec modèle de turbulence k-ε. Cette méthodologie numérique a été validée grâce à des mesures expérimentales de pression acquises en situation d’emballement sur les aubes d’une roue de turbine axiale étudiée au Laboratoire de Machines Hydrauliques de l’Université Laval. La validation des simulations numériques a été réalisée grâce à des comparaisons dans les domaines temporel et fréquentiel entre les pressions mesurées expérimentalement et calculées numériquement. Les analyses fréquentielles en transitoire ont été effectuées à l’aide de transformées en ondelettes afin de représenter l’évolution temporelle du spectre de fréquence. Des analyses qualitatives de phénomènes hydrauliques prenant place dans la turbine sont aussi présentées. Les analyses effectuées ont permis de confirmer le développement d’un tourbillon en précession par rapport à la roue dans l’aspirateur provocant les fluctuations de pression dominantes à des fréquences subsynchrones. La comparaison entre les données expérimentales et numériques a permis de valider une stratégie de simulation transitoire et d’en définir les limites en vue de prochaines simulations d’emballement. Des tests supplémentaires sont suggérés pour améliorer la précision ou le niveau de confiance de la méthode.
Resumo:
La maladie d’Alzheimer (MA) est la maladie neurodégénérative qui cause le plus important nombre de cas de démence. On estime que près de 15% des canadiens âgés de plus de 65 ans sont atteints de la MA. Avec le vieillissement de la population, le nombre de cas augmentera de manière substantielle dans les prochaines années. À l’heure actuelle, aucun traitement ne permet de ralentir la progression de la maladie. Pour plus de 99% des cas, ses causes exactes demeurent indéterminées. Toutefois, de nombreux facteurs de risque ont été identifiés. Parmi eux, on retrouve plusieurs facteurs liés au métabolisme énergétique dont l’obésité et le diabète de type 2 (DT2). De manière intéressante, des modifications du métabolisme, telles qu’une résistance à l’insuline centrale et périphérique, sont également observées chez les patients Alzheimer. Afin de mieux comprendre l’interaction entre le DT2 et la MA, nous avons d’abord étudié les altérations métaboliques chez la souris triple transgénique (3xTg-AD), un modèle murin de la MA. Nous avons, en premier lieu, observé une intolérance au glucose qui progresse avec l’âge, qui est plus importante chez les femelles et qui semble liée à l’accumulation du peptide beta-amyloïde (Aβ) humain dans le pancréas. Ensuite, nous avons nourri cette souris avec une diète riche en gras pour vérifier l’impact d’une aggravation des déficits métaboliques sur la pathologie Alzheimer. L’aggravation de l’intolérance au glucose chez les souris 3xTg-AD semblait liée à l’atrophie des îlots de Langerhans et, en conséquence, à une réduction de la production d’insuline en réponse à l’injection de glucose. En plus de l’aggravation des déficits métaboliques, la diète riche en gras a augmenté de manière drastique l’accumulation de la forme soluble du peptide Aβ dans le cortex et a déterioré la mémoire des souris 3xTg-AD. De manière intéressante, l’élévation du peptide Aβ et les troubles de la mémoire ont été rétablis par l’administration d’une seule dose d’insuline. Aussi, nous avons observé une augmentation du peptide Aβ dans le plasma 30 minutes à la suite de l’injection d’insuline, suggérant qu’il est possible que la baisse rapide du peptide soit en partie causée par une élévation de la clairance du peptide au cerveau. Ces résultats renforcent les évidences supportant le potentiel thérapeutique de l’insuline dans le traitement de la MA. Toutefois, les résultats chez les patients mettent en lumière l’inefficacité de l’administration intranasale d’insuline chez les porteurs de l’allèle 4 du gène de l’apolipoprotéine E (APOE4). Afin de comprendre les raisons qui expliquent cette différence de réponse à l’insuline chez les porteurs de l’APOE4, nous avons injecté des souris exprimant l’APOE3 et l’APOE4 humain avec de l’insuline dans le but de vérifier l’effet central et périphérique de l’insuline chez ces animaux. Les souris APOE4 montrent une plus importante élévation de la signalisation de l’insuline au cerveau comparativement aux souris APOE3. Cette plus haute réponse est aussi associée à une élévation plus importante de la phosphorylation de la protéine tau, un marqueur neuropathologique de la MA. En somme, ces résultats suggèrent qu’il existe un cercle vicieux entre la MA et le DT2. L’administration d’insuline a un potentiel thérapeutique intéressant pour la MA, malgré des effets limités chez les patients APOE4 en raison de son impact probable sur la phosphorylation de la protéine tau.
Resumo:
L’étude de la guérison des plaies à l’aide de substituts produits par génie tissulaire est un domaine en plein essor. Dans ces travaux, les effets de pansements biologiques produits en laboratoire à partir de cellules souches/stromales du tissu adipeux (CSTA) différenciées ou non en adipocytes ont été évalués sur des plaies cutanées in vivo. Un modèle de souris possédant un épiderme fluorescent a permis de démontrer que les plaies traitées avec les pansements biologiques guérissent plus rapidement que les plaies non traitées, et ce, de manière indépendante de la réépithélialisation. Une augmentation de la formation du tissu de granulation et une angiogenèse accrue ont également été observées dans les groupes traités. Ces résultats établissent que les substituts contenant des CSTA ou des adipocytes fonctionnels favorisent la réparation tissulaire. À terme, ces travaux pourraient mener au développement de nouvelles indications cliniques pour le traitement des ulcères cutanés.
Resumo:
Trabalho de projeto de mestrado, Ciências da Educação (Formação de Adultos), Universidade de Lisboa, Instituto de Educação, 2013
Resumo:
The premise of this paper is that a model for communicating the national value system must start from a strategy aimed at the identification, the cultivation and communication of values that give consistency to the value system. The analysis concentrates on the elements of such strategies and on the implications of applying a value communication program on the identity architecture of the community. The paper will also discuss the role of the national value system in the context of the emerging global culture, where the individual has the power to create his/her own hybrid cultural model.
Resumo:
La médecine traditionnelle indigène peut parfois se poser comme un instrument normatif désignant le malade comme celui qui transgresse l‘ordre établi par les ancêtres sacrés et permet à la maladie d‘advenir. Un tiers malveillant ou un sorcier peuvent également être les causes du désordre physiologique et moral du corps social communautaire. L‘étiologie navajo repose sur deux phénomènes : l‘existence de sociosomas (troubles liés à une mauvaise relation à l‘entourage) et de mouvements d‘exclusion ou d‘inclusion du corps étranger, de la conduite déviante. L‘étude de la figure du malade dans les mythes soulignera l‘aspect normatif des thérapeutiques navajo. Enfin, une réflexion sur la justification idéologique de l‘intégration des pratiques ancestrales au protocole de soin montrera dans quelle mesure la collaboration entre praticiens traditionnels et personnels de santé contribue à stigmatiser le malade comme l‘épitome de toutes les déviances : par rapport à la tradition mais aussi au modèle social dominant.
Resumo:
This paper presents an architecture (Multi-μ) being implemented to study and develop software based fault tolerant mechanisms for Real-Time Systems, using the Ada language (Ada 95) and Commercial Off-The-Shelf (COTS) components. Several issues regarding fault tolerance are presented and mechanisms to achieve fault tolerance by software active replication in Ada 95 are discussed. The Multi-μ architecture, based on a specifically proposed Fault Tolerance Manager (FTManager), is then described. Finally, some considerations are made about the work being done and essential future developments.
Resumo:
A significant number of process control and factory automation systems use PROFIBUS as the underlying fieldbus communication network. The process of properly setting up a PROFIBUS network is not a straightforward task. In fact, a number of network parameters must be set for guaranteeing the required levels of timeliness and dependability. Engineering PROFIBUS networks is even more subtle when the network includes various physical segments exhibiting heterogeneous specifications, such as bus speed or frame formats, just to mention a few. In this paper we provide underlying theory and a methodology to guarantee the proper operation of such type of heterogeneous PROFIBUS networks. We additionally show how the methodology can be applied to the practical case of PROFIBUS networks containing simultaneously DP (Decentralised Periphery) and PA (Process Automation) segments, two of the most used commercial-off-the-shelf (COTS) PROFIBUS solutions. The importance of the findings is however not limited to this case. The proposed methodology can be generalised to cover other heterogeneous infrastructures. Hybrid wired/wireless solutions are just an example for which an enormous eagerness exists.
Resumo:
The rapid increase in the use of microprocessor-based systems in critical areas, where failures imply risks to human lives, to the environment or to expensive equipment, significantly increased the need for dependable systems, able to detect, tolerate and eventually correct faults. The verification and validation of such systems is frequently performed via fault injection, using various forms and techniques. However, as electronic devices get smaller and more complex, controllability and observability issues, and sometimes real time constraints, make it harder to apply most conventional fault injection techniques. This paper proposes a fault injection environment and a scalable methodology to assist the execution of real-time fault injection campaigns, providing enhanced performance and capabilities. Our proposed solutions are based on the use of common and customized on-chip debug (OCD) mechanisms, present in many modern electronic devices, with the main objective of enabling the insertion of faults in microprocessor memory elements with minimum delay and intrusiveness. Different configurations were implemented starting from basic Components Off-The-Shelf (COTS) microprocessors, equipped with real-time OCD infrastructures, to improved solutions based on modified interfaces, and dedicated OCD circuitry that enhance fault injection capabilities and performance. All methodologies and configurations were evaluated and compared concerning performance gain and silicon overhead.
Resumo:
Para qualquer empresa o seu maior objetivo passa pela produção de lucro e, atualmente, esse aspeto está diretamente relacionado com a sua capacidade de manter uma gestão que incorpore a responsabilidade social, ambiental e económica, em prol de um desenvolvimento global mais sustentável. As grandes empresas já iniciaram e continuam este processo de mudança, desenvolvendo medidas e estratégias neste sentido. Porém, apesar de representarem o grosso do tecido empresarial, as Pequenas e Médias Empresas só agora começam a dar os primeiros passos em direção a uma gestão mais ponderada ambiental e energeticamente. Com este trabalho pretende-se reunir informação relativa às Pequenas e Médias Empresas portuguesas de forma a compreender quais as principais áreas de atuação, as medidas que poderão ser implementadas e, consolidar o ponto de situação deste sector acerca dos vários temas ao nível do meio ambiente e da energia. Para tal, foram realizados levantamentos energéticos e aplicado um questionário acerca dos comportamentos e práticas ambientais. Verificou-se que apesar da grande maioria das empresas analisadas já terem ponderado a importância e as vantagens da eficiência energética, ainda são poucas as organizações que têm implementados planos, estratégias ou instrumentos para melhoria do seu desempenho ambiental e energético.
Resumo:
The recent technological advancements and market trends are causing an interesting phenomenon towards the convergence of High-Performance Computing (HPC) and Embedded Computing (EC) domains. On one side, new kinds of HPC applications are being required by markets needing huge amounts of information to be processed within a bounded amount of time. On the other side, EC systems are increasingly concerned with providing higher performance in real-time, challenging the performance capabilities of current architectures. The advent of next-generation many-core embedded platforms has the chance of intercepting this converging need for predictable high-performance, allowing HPC and EC applications to be executed on efficient and powerful heterogeneous architectures integrating general-purpose processors with many-core computing fabrics. To this end, it is of paramount importance to develop new techniques for exploiting the massively parallel computation capabilities of such platforms in a predictable way. P-SOCRATES will tackle this important challenge by merging leading research groups from the HPC and EC communities. The time-criticality and parallelisation challenges common to both areas will be addressed by proposing an integrated framework for executing workload-intensive applications with real-time requirements on top of next-generation commercial-off-the-shelf (COTS) platforms based on many-core accelerated architectures. The project will investigate new HPC techniques that fulfil real-time requirements. The main sources of indeterminism will be identified, proposing efficient mapping and scheduling algorithms, along with the associated timing and schedulability analysis, to guarantee the real-time and performance requirements of the applications.
Resumo:
A presente tese pretende fazer uma abordagem ao crescimento dos consumos de energia elétrica, que se tem verificado, nos últimos anos, no setor das telecomunicações e das tecnologias de informação; devido ao constante crescimento das redes, dos equipamentos a ela ligados e do tráfego que nelas transita. Num contexto de globalização da economia, no qual, as redes de telecomunicações e de energia elétrica são dois dos maiores contribuintes, a presente tese procura encontrar enquadramentos e soluções para um dos maiores desafios que a humanidade enfrenta atualmente, e que em parte, é consequente dessa globalização: encontrar novas fontes e formas de utilização da energia, -particularmente da energia elétrica - para que a humanidade continue a usufruir, de uma forma sustentável, dos benefícios que a mesma proporciona. Na primeira parte, procura-se fazer uma abordagem que utiliza fontes de informação e conhecimento, do mercado global, nomeadamente, entidades reguladoras e normalizadoras, operadores, fornecedores de tecnologias e consumidores, que abrangessem os três maiores mercados mundiais – União Europeia, Estados Unidos da América e Ásia-Pacífico. Considerou-se fundamental fazê-lo, por se tratar de uma dissertação no âmbito de um Mestrado com o selo de garantia EUR-ACE. Ao longo da dissertação analisou-se a temática da eficiência energética nas redes de telecomunicações e das tecnologias de informação e comunicação, um tema cada vez mais pertinente, já que o número de pessoas com ligações à Internet, já supera os 3 mil milhões, e as redes passaram a ser o meio por onde são transmitidos, a cada segundo, terabytes de sinais de voz, dados e vídeo. Procurou-se encontrar as linhas de orientação que estão a ser traçadas, para otimizar os consumos energéticos, de um complexo sistema convergente de redes e serviços, formado por entidades reguladoras e normalizadoras, operadores, fornecedores de tecnologias e consumidores, onde nem sempre as fronteiras estão perfeitamente definidas. Perante a constatação da realidade exposta, analisou-se as políticas energéticas desenvolvidas nos últimos anos, pelos vários players do mercado das telecomunicações, das tecnologias de informação e dos sistemas elétricos de energia bem como algumas métricas e objetivos comumente aceites. viii São analisados os contributos das partes interessadas, para o desenvolvimento de políticas energéticas eficazes, por forma a permitirem uma implementação, que considere o funcionamento dos equipamentos como um todo, e não de uma forma isolada como tradicionalmente o assunto era abordado. As especificidades na forma como funcionam as redes de telecomunicações e respetivos equipamentos, são expostas sobre várias óticas, comprovando-se que a temática da eficiência energética é uma das áreas mais difíceis lidar, de todas as consideradas nas políticas energéticas. Demonstrou-se que muitos dos equipamentos não estão otimizados em termos de gestão de energia, procurou-se evidenciar as consequências dessa realidade, uma vez que os equipamentos referidos, têm a necessidade de estar permanentemente a ser alimentados pela rede de energia elétrica, para garantir as funções para que foram projetados. Da pesquisa efetuada e descrita ao longo da dissertação, constatamos o empenho de toda a comunidade científica, operadores e agências de energia e de telecomunicações, em resolver o problema, já que há a consciencialização de que o ritmo de crescimento da rede e equipamentos terminais, é superior ao registado na melhoria da eficiência energética dos vários componentes e equipamentos terminais. Na segunda parte do relatório da tese, procurou-se testar a aplicabilidade das normas e recomendações dos organismos que tutelam a atividade a nível global - algumas publicadas nos últimos 2 anos - a um caso prático. Um edifício hospitalar de média dimensão. Foi elaborada uma aplicação informática, que suportada numa metodologia padronizada, seja capaz de fazer a avaliação da eficiência energética dos equipamentos serviços de telecomunicações de informação e comunicação em funcionamento do hospital. Por dificuldades de disponibilidade dos responsáveis do edifício, os resultados ficaram aquém do esperado. Conseguiu-se desenhar a aplicação, inventariar-se apenas parte dos equipamentos. Demonstrou-se que, a forma como alguns equipamentos estão a ser utilizados, não cumprem regras de utilização racional e eficiente. Procurou-se sensibilizar alguns dos responsáveis, para a necessidade de alterar comportamentos e prosseguir o processo de inventariação, por forma, a que o trabalho iniciado atinja os objetivos propostos.
Resumo:
Dissertação apresentada para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Terminologia e Gestão da Informação de Especialidade