960 resultados para Tunnel à vent
Resumo:
Une compréhension profonde de la séparation de charge à l’hétérojonction de semi-con- ducteurs organiques est nécessaire pour le développement de diodes photovoltaïques organiques plus efficaces, ce qui serait une grande avancée pour répondre aux besoins mondiaux en énergie durable. L’objectif de cette thèse est de décrire les processus impliqués dans la séparation de charges à hétérojonctions de semi-conducteurs organiques, en prenant en exemple le cas particulier du PCDTBT: PCBM. Nous sondons les excitations d’interface à l’aide de méthodes spectroscopiques résolues en temps couvrant des échelles de temps de 100 femto- secondes à 1 milliseconde. Ces principales méthodes spectroscopiques sont la spectroscopie Raman stimulée femtoseconde, la fluorescence résolue en temps et l’absorption transitoire. Nos résultats montrent clairement que le transfert de charge du PCDTBT au PCBM a lieu avant que l’exciton ne soit relaxé et localisé, un fait expérimental irréconciliable avec la théorie de Marcus semi-classique. La paire de charges qui est créée se divise en deux catégories : les paires de polarons géminales non piégées et les paires profondément piégées. Les premiers se relaxent rapidement vers l’exciton à transfert de charge, qui se recombine radiativement avec une constante de temps de 1– 2 nanoseconde, alors que les seconds se relaxent sur de plus longues échelles de temps via l’effet tunnel. Notre modèle photophysique quantitatif démontre que 2 % de l’excitation créée ne peut jamais se dissocier en porteurs de charge libre, un chiffre qui est en accord avec les rendements élevés rapportés pour ce type de système.
Resumo:
Les nanotubes de carbone et le graphène sont des nanostructures de carbone hybridé en sp2 dont les propriétés électriques et optiques soulèvent un intérêt considérable pour la conception d’une nouvelle génération de dispositifs électroniques et de matériaux actifs optiquement. Or, de nombreux défis demeurent avant leur mise en œuvre dans des procédés industriels à grande échelle. La chimie des matériaux, et spécialement la fonctionnalisation covalente, est une avenue privilégiée afin de résoudre les difficultés reliées à la mise en œuvre de ces nanostructures. La fonctionnalisation covalente a néanmoins pour effet de perturber la structure cristalline des nanostructures de carbone sp2 et, par conséquent, d’affecter non seulement lesdites propriétés électriques, mais aussi les propriétés optiques en émanant. Il est donc primordial de caractériser les effets des défauts et du désordre dans le but d’en comprendre les conséquences, mais aussi potentiellement d’en exploiter les retombées. Cette thèse traite des propriétés optiques dans l’infrarouge des nanotubes de carbone et du graphène, avec pour but de comprendre et d’expliquer les mécanismes fondamentaux à l’origine de la réponse optique dans l’infrarouge des nanostructures de carbone sp2. Soumise à des règles de sélection strictes, la spectroscopie infrarouge permet de mesurer la conductivité en courant alternatif à haute fréquence des matériaux, dans une gamme d’énergie correspondant aux vibrations moléculaires, aux modes de phonons et aux excitations électroniques de faible énergie. Notre méthode expérimentale consiste donc à explorer un espace de paramètres défini par les trois axes que sont i. la dimensionnalité du matériau, ii. le potentiel chimique et iii. le niveau de désordre, ce qui nous permet de dégager les diverses contributions aux propriétés optiques dans l’infrarouge des nanostructures de carbone sp2. Dans un premier temps, nous nous intéressons à la spectroscopie infrarouge des nanotubes de carbone monoparois sous l’effet tout d’abord du dopage et ensuite du niveau de désordre. Premièrement, nous amendons l’origine couramment acceptée du spectre vibrationnel des nanotubes de carbone monoparois. Par des expériences de dopage chimique contrôlé, nous démontrons en effet que les anomalies dans lespectre apparaissent grâce à des interactions électron-phonon. Le modèle de la résonance de Fano procure une explication phénoménologique aux observations. Ensuite, nous établissons l’existence d’états localisés induits par la fonctionnalisation covalente, ce qui se traduit optiquement par l’apparition d’une bande de résonance de polaritons plasmons de surface (nanoantenne) participant au pic de conductivité dans le térahertz. Le dosage du désordre dans des films de nanotubes de carbone permet d’observer l’évolution de la résonance des nanoantennes. Nous concluons donc à une segmentation effective des nanotubes par les greffons. Enfin, nous montrons que le désordre active des modes de phonons normalement interdits par les règles de sélection de la spectroscopie infrarouge. Les collisions élastiques sur les défauts donnent ainsi accès à des modes ayant des vecteurs d’onde non nuls. Dans une deuxième partie, nous focalisons sur les propriétés du graphène. Tout d’abord, nous démontrons une méthode d’électrogreffage qui permet de fonctionnaliser rapidement et à haute densité le graphène sans égard au substrat. Par la suite, nous utilisons l’électrogreffage pour faire la preuve que le désordre active aussi des anomalies dépendantes du potentiel chimique dans le spectre vibrationnel du graphène monocouche, des attributs absents du spectre d’un échantillon non fonctionnalisé. Afin d’expliquer le phénomène, nous présentons une théorie basée sur l’interaction de transitions optiques intrabandes, de modes de phonons et de collisions élastiques. Nous terminons par l’étude du spectre infrarouge du graphène comportant des îlots de bicouches, pour lequel nous proposons de revoir la nature du mécanisme de couplage à l’œuvre à la lumière de nos découvertes concernant le graphène monocouche.
Resumo:
De nos jours, l'utilisation accrue de combustibles à base de fossiles et l'électricité met en péril l'environnement naturel à cause des niveaux élevés de pollution. Il est donc plausible de prévoir des économies d'énergie significatives grâce à la climatisation dite «naturelle»». En accord avec les objectifs acceptés à l'échelle internationale d'une architecture «verte» et durable, l'utilisation de cours intérieures associées aux capteurs de vent, aux murs-Trombe et à d'autres systèmes de climatisation naturelle (aussi bien traditionnels que nouveaux), paraît prometteuse. Ce mémoire propose une analyse de nouvelles approches à la climatisation naturelle et à la production d'air frais avec une consommation minimale d'énergie, eu égard aux traditions et aux tendances, en particulier dans les zones climatiques chaudes et sèches comme l'Iran. Dans ce contexte, regarder l'architecture de l'Islam et la discipline du Qur'an paraissent offrir un guide pour comprendre l'approche musulmane aux processus de décision en design. Nous regardons donc les traditions et les tendances en ce qui concerne la climatisation naturelle à travers l'élément le plus important du contexte islamique, à savoir le Qur'an. C'est pourquoi, à l'intérieur du thème de la tradition, nous avons pris en compte quelques considérations concernant l'influence de l'Islam, et en particulier le respect de la nature associé à un équilibre entre l'harmonie et l'individualité. Ce sont autant de facteurs qui influencent la prise de décisions visant à résoudre des problèmes scientifiques majeurs selon la philosophie et les méthodes islamiques ; ils nous permettent de faire quelques recommandations. La description des principes sous-jacents aux capteurs à vent et des antécédents trouvés dans la nature tels que les colonies de termites, est présentée également. Sous la rubrique tendances, nous avons introduit l'utilisation de matériaux et de principes de design nouveaux. Regarder simultanément ces matériaux nouveaux et l'analogie des colonies de termites suggère de bonnes approches à la conception d'abris pour les victimes de tremblements de terre dans les régions sisimques. Bam, une ville iranienne, peut être considérée comme un exemple spécifique illustrant où les principes exposés dans ce mémoire peuvent s'appliquer le plus adéquatement.
Resumo:
Le nombre important de véhicules sur le réseau routier peut entraîner des problèmes d'encombrement et de sécurité. Les usagers des réseaux routiers qui nous intéressent sont les camionneurs qui transportent des marchandises, pouvant rouler avec des véhicules non conformes ou emprunter des routes interdites pour gagner du temps. Le transport de matières dangereuses est réglementé et certains lieux, surtout les ponts et les tunnels, leur sont interdits d'accès. Pour aider à faire appliquer les lois en vigueur, il existe un système de contrôles routiers composé de structures fixes et de patrouilles mobiles. Le déploiement stratégique de ces ressources de contrôle mise sur la connaissance du comportement des camionneurs que nous allons étudier à travers l'analyse de leurs choix de routes. Un problème de choix de routes peut se modéliser en utilisant la théorie des choix discrets, elle-même fondée sur la théorie de l'utilité aléatoire. Traiter ce type de problème avec cette théorie est complexe. Les modèles que nous utiliserons sont tels, que nous serons amenés à faire face à des problèmes de corrélation, puisque plusieurs routes partagent probablement des arcs. De plus, puisque nous travaillons sur le réseau routier du Québec, le choix de routes peut se faire parmi un ensemble de routes dont le nombre est potentiellement infini si on considère celles ayant des boucles. Enfin, l'étude des choix faits par un humain n'est pas triviale. Avec l'aide du modèle de choix de routes retenu, nous pourrons calculer une expression de la probabilité qu'une route soit prise par le camionneur. Nous avons abordé cette étude du comportement en commençant par un travail de description des données collectées. Le questionnaire utilisé par les contrôleurs permet de collecter des données concernant les camionneurs, leurs véhicules et le lieu du contrôle. La description des données observées est une étape essentielle, car elle permet de présenter clairement à un analyste potentiel ce qui est accessible pour étudier les comportements des camionneurs. Les données observées lors d'un contrôle constitueront ce que nous appellerons une observation. Avec les attributs du réseau, il sera possible de modéliser le réseau routier du Québec. Une sélection de certains attributs permettra de spécifier la fonction d'utilité et par conséquent la fonction permettant de calculer les probabilités de choix de routes par un camionneur. Il devient alors possible d'étudier un comportement en se basant sur des observations. Celles provenant du terrain ne nous donnent pas suffisamment d'information actuellement et même en spécifiant bien un modèle, l'estimation des paramètres n'est pas possible. Cette dernière est basée sur la méthode du maximum de vraisemblance. Nous avons l'outil, mais il nous manque la matière première que sont les observations, pour continuer l'étude. L'idée est de poursuivre avec des observations de synthèse. Nous ferons des estimations avec des observations complètes puis, pour se rapprocher des conditions réelles, nous continuerons avec des observations partielles. Ceci constitue d'ailleurs un défi majeur. Nous proposons pour ces dernières, de nous servir des résultats des travaux de (Bierlaire et Frejinger, 2008) en les combinant avec ceux de (Fosgerau, Frejinger et Karlström, 2013). Bien qu'elles soient de nature synthétiques, les observations que nous utilisons nous mèneront à des résultats tels, que nous serons en mesure de fournir une proposition concrète qui pourrait aider à optimiser les décisions des responsables des contrôles routiers. En effet, nous avons réussi à estimer, sur le réseau réel du Québec, avec un seuil de signification de 0,05 les valeurs des paramètres d'un modèle de choix de routes discrets, même lorsque les observations sont partielles. Ces résultats donneront lieu à des recommandations sur les changements à faire dans le questionnaire permettant de collecter des données.
Resumo:
Les proliférations nuisibles de la cyanobactérie filamenteuse benthique Lyngbya wollei qui forme des tapis déposés sur les sédiments ont augmenté en fréquence au cours des 30 dernières années dans les rivières, lacs et sources de l'Amérique du Nord. Lyngbya wollei produit des neurotoxines et des composés organiques volatils (géosmin, 2-méthylisobornéol) qui ont des répercussions sur la santé publique de même que des impacts d'ordre socioéconomiques. Cette cyanobactérie est considérée comme un habitat et une source de nourriture de piètre qualité pour les invertébrés en raison de sa gaine robuste et de sa production de toxines. Les proliférations de L. wollei ont été observées pour la première fois en 2005 dans le fleuve Saint-Laurent (SLR; Québec, Canada). Nous avons jugé important de déterminer sa distribution sur un tronçon de 250 km afin d'élaborer des modèles prédictifs de sa présence et biomasse en se basant sur les caractéristiques chimiques et physiques de l'eau. Lyngbya wollei était généralement observé en aval de la confluence de petits tributaires qui irriguent des terres agricoles. L’écoulement d’eaux enrichies à travers la végétation submergée se traduisait par une diminution de la concentration d’azote inorganique dissous (DIN), alors que les concentrations de carbone organique dissous (DOC) et de phosphore total dissous (TDP) demeuraient élevées, produisant un faible rapport DIN :TDP. Selon nos modèles, DOC (effet positif), TP (effet négatif) et DIN :TDP (effet négatif) sont les variables les plus importantes pour expliquer la répartition de cette cyanobactérie. La probabilité que L. wollei soit présent dans le SLR a été prédite avec exactitude dans 72 % à 92 % des cas pour un ensemble de données indépendantes. Nous avons ensuite examiné si les conditions hydrodynamiques, c'est-à-dire le courant généré par les vagues et l'écoulement du fleuve, contrôlent les variations spatiales et temporelles de biomasse de L. wollei dans un grand système fluvial. Nous avons mesuré la biomasse de L. wollei ainsi que les variables chimiques, physiques et météorologiques durant trois ans à 10 sites le long d'un gradient d'exposition au courant et au vent dans un grand (148 km2) lac fluvial du SLR. L'exposition aux vagues et la vitesse du courant contrôlaient les variations de biomasses spatiales et temporelles. La biomasse augmentait de mai à novembre et persistait durant l'hiver. Les variations interannuelles étaient contrôlées par l'écoulement de la rivière (niveau d'eau) avec la crue printanière qui délogeait les tapis de l'année précédente. Les baisses du niveau d'eau et l'augmentation de l'intensité des tempêtes anticipées par les scénarios de changements climatiques pourraient accroître la superficie colonisée par L. wollei de même que son accumulation sur les berges. Par la suite, nous avons évalué l'importance relative de L. wollei par rapport aux macrophytes et aux épiphytes. Nous avons examiné l'influence structurante de l'échelle spatiale sur les variables environnementales et la biomasse de ces producteurs primaires (PP) benthiques. Nous avons testé si leur biomasse reflétait la nature des agrégats d'habitat basées sur l'écogéomorphologie ou plutôt le continuum fluvial. Pour répondre à ces deux questions, nous avons utilisé un design à 3 échelles spatiales dans le SLR: 1) le long d'un tronçon de 250 km, 2) entre les lacs fluviaux localisés dans ce tronçon, 3) à l'intérieur de chaque lac fluvial. Les facteurs environnementaux (conductivité et TP) et la structure spatiale expliquent 59% de la variation de biomasse des trois PP benthiques. Spécifiquement, les variations de biomasses étaient le mieux expliquées par la conductivité (+) pour les macrophytes, par le ratio DIN:TDP (+) et le coefficient d'extinction lumineuse (+) pour les épiphytes et par le DOC (+) et le NH4+ (-) pour L. wollei. La structure spatiale à l'intérieur des lacs fluviaux était la plus importante composante spatiale pour tous les PP benthiques, suggérant que les effets locaux tels que l'enrichissement par les tributaire plutôt que les gradients amont-aval déterminent la biomasse de PP benthiques. Donc, la dynamique des agrégats d'habitat représente un cadre général adéquat pour expliquer les variations spatiales et la grande variété de conditions environnementales supportant des organismes aquatiques dans les grands fleuves. Enfin, nous avons étudié le rôle écologique des tapis de L. wollei dans les écosystèmes aquatiques, en particulier comme source de nourriture et refuge pour l'amphipode Gammarus fasciatus. Nous avons offert aux amphipodes un choix entre des tapis de L. wollei et soit des chlorophytes filamenteuses ou un tapis artificiel de laine acrylique lors d'expériences en laboratoire. Nous avons aussi reconstitué la diète in situ des amphipodes à l'aide du mixing model (d13C et δ15N). Gammarus fasciatus choisissait le substrat offrant le meilleur refuge face à la lumière (Acrylique>Lyngbya=Rhizoclonium>Spirogyra). La présence de saxitoxines, la composition élémentaire des tissus et l'abondance des épiphytes n'ont eu aucun effet sur le choix de substrat. Lyngbya wollei et ses épiphytes constituaient 36 et 24 % de l'alimentation in situ de G. fasciatus alors que les chlorophytes, les macrophytes et les épiphytes associées représentaient une fraction moins importante de son alimentation. Les tapis de cyanobactéries benthiques devraient être considérés comme un bon refuge et une source de nourriture pour les petits invertébrés omnivores tels que les amphipodes.
Resumo:
Les mollusques sont des indicateurs de perturbations anthropiques et environnementales. Ce groupe de macroinvertébrés représente en outre une source importante de nourriture pour les poissons et les oiseaux aquatiques du littoral. Les hypothèses de cette étude sont que la communauté de mollusques est influencée indirectement par les tributaires agricoles et/ou par des variables environnementales (comme la dessiccation et l'exposition aux vagues) puisque ces perturbations sont susceptibles de modifier leurs sources alimentaires et leur habitat. Les indicateurs de la réponse des mollusques aux agents perturbateurs sont la composition, la diversité, la densité, ainsi que la biomasse des espèces. En septembre 2013, des mesures de paramètres physico-chimiques de l'eau ont été réalisées, et des échantillons de mollusques et de végétation aquatique ont été prélevés à 14 sites le long des rives du lac Saint-Pierre (Fleuve Saint-Laurent, Québec, Canada). Le long de la rive nord, les sites fortement exposés à l'action du vent, situés à de plus grandes élévations, affichaient une plus faible densité, biomasse et richesse spécifique de mollusques que les sites de la rive sud, en milieu plus abrité et profond. Les sites physiquement perturbés étaient caractérisés par de faibles biomasses en macrophytes submergés. Les sphaeriidae apparaissent comme des exceptions à ces patrons, montrant une abondance plus élevée aux sites presque dépourvus de macrophytes. Bien que les variables physiques et l'habitat exercent une influence déterminante sur les communautés de mollusques, les gastéropodes et les moules unionidés étaient également affectés par la dégradation de la qualité de l'eau dans le panache des tributaires agricoles. La richesse, la densité et la biomasse des gastéropodes étaient négativement influencées par des teneurs élevées de matières en suspension et de fer dissous. Les résultats de notre étude montrent que la communauté de mollusques du lac Saint-Pierre est directement affectée par l'émersion périodique, l'exposition au vent, et indirectement par l'effet de ces variables physiques sur les macrophytes qui constituent leur habitat.
Resumo:
Dans ce mémoire, on étudie la désintégration d’un faux vide, c’est-à-dire un vide qui est un minimum relatif d’un potentiel scalaire par effet tunnel. Des défauts topologiques en 1+1 dimension, appelés kinks, apparaissent lorsque le potentiel possède un minimum qui brise spontanément une symétrie discrète. En 3+1 dimensions, ces kinks deviennent des murs de domaine. Ils apparaissent par exemple dans les matériaux magnétiques en matière condensée. Un modèle à deux champs scalaires couplés sera étudié ainsi que les solutions aux équations du mouvement qui en découlent. Ce faisant, on analysera comment l’existence et l’énergie des solutions statiques dépend des paramètres du modèle. Un balayage numérique de l’espace des paramètres révèle que les solutions stables se trouvent entre les zones de dissociation, des régions dans l’espace des paramètres où les solutions stables n’existent plus. Le comportement des solutions instables dans les zones de dissociation peut être très différent selon la zone de dissociation dans laquelle une solution se trouve. Le potentiel consiste, dans un premier temps, en un polynôme d’ordre six, auquel on y rajoute, dans un deuxième temps, un polynôme quartique multiplié par un terme de couplage, et est choisi tel que les extrémités du kink soient à des faux vides distincts. Le taux de désintégration a été estimé par une approximation semi-classique pour montrer l’impact des défauts topologiques sur la stabilité du faux vide. Le projet consiste à déterminer les conditions qui permettent aux kinks de catalyser la désintégration du faux vide. Il appert qu’on a trouvé une expression pour déterminer la densité critique de kinks et qu’on comprend ce qui se passe avec la plupart des termes.
Resumo:
Cette thèse est divisée en trois chapitres. Le premier explique comment utiliser la méthode «level-set» de manière rigoureuse pour faire la simulation de feux de forêt en utilisant comme modèle physique pour la propagation le modèle de l'ellipse de Richards. Le second présente un nouveau schéma semi-implicite avec une preuve de convergence pour la solution d'une équation de type Hamilton-Jacobi anisotrope. L'avantage principal de cette méthode est qu'elle permet de réutiliser des solutions à des problèmes «proches» pour accélérer le calcul. Une autre application de ce schéma est l'homogénéisation. Le troisième chapitre montre comment utiliser les méthodes numériques des deux premiers chapitres pour étudier l'influence de variations à petites échelles dans la vitesse du vent sur la propagation d'un feu de forêt à l'aide de la théorie de l'homogénéisation.
Resumo:
Diverses méthodes ont été utilisées pour étudier les étoiles Wolf-Rayet (WR) dans le but de comprendre les phénomènes physiques variés qui prennent place dans leur vent dense. Pour étudier la variabilité qui n'est pas strictement périodique et ayant des caractéristiques différentes d'une époque à l'autre, il faut observer pendant des périodes de temps suffisamment longues en adopter un échantillonnage temporel élevé pour être en mesure d'identifier les phénomènes physiques sous-jacents. À l'été 2013, des astronomes professionnels et amateurs du monde entier ont contribué à une campagne d'observation de 4 mois, principalement en spectroscopie, mais aussi en photométrie, polarimétrie et en interférométrie, pour observer les 3 premières étoiles Wolf-Rayet découvertes: WR 134 (WN6b), WR 135 (WC8) et WR 137 (WC7pd + O9). Chacune de ces étoiles est intéressante à sa manière, chacune présentant une variété différente de structures dans son vent. Les données spectroscopiques de cette campagne ont été réduites et analysées pour l'étoile présumée simple WR 134 pour mieux comprendre le comportement de sa variabilité périodique à long terme dans le cadre d'une étude des régions d'interactions en corotation (CIRs) qui se retrouvent dans son vent. Les résultats de cette étude sont présentés dans ce mémoire.
Resumo:
L’objectif de ce mémoire est d’acquérir une connaissance détaillée sur l’évolution spatiale de la température de surface du sol (GST) au mont Jacques-Cartier et sur la réponse thermique de son îlot de pergélisol alpin aux changements climatiques passés et futurs. L’étude est basée sur un ensemble de mesures de température (GST, sous-sol) et de neige, ainsi que des modèles spatiaux de distribution potentielle de la GST et des simulations numériques du régime thermique du sol. Les résultats montrent que la distribution de la GST sur le plateau est principalement corrélée avec la répartition du couvert nival. Au-dessus de la limite de la végétation, le plateau est caractérisé par un couvert de neige peu épais et discontinu en hiver en raison de la topographie du site et l’action des forts vents. La GST est alors couplée avec les températures de l’air amenant des conditions froides en surface. Dans les îlots de krummholz et les dépressions topographiques sur les versants SE sous le vent, la neige soufflée du plateau s’accumule en un couvert très épais induisant des conditions de surface beaucoup plus chaude que sur le plateau dû à l’effet isolant de la neige. En raison de la quasi-absence de neige en hiver et de la nature du substrat, la réponse du pergélisol du sommet du mont Jacques-Cartier au signal climatique est très rapide. De 1978 à 2014, la température du sol a augmenté à toutes les profondeurs au niveau du forage suivant la même tendance que les températures de l’air. Si la tendance au réchauffement se poursuit telle que prévue par les simulations climatiques produites par le consortium Ouranos, le pergélisol pourrait disparaître d’ici à 2040-2050.
Resumo:
L’étiquette « homme-orchestre » est apposée à une grande variété de musiciens qui se distinguent en jouant seuls une performance qui est normalement interprétée par plusieurs personnes. La diversité qu’a pu prendre au cours du temps cette forme n’est pas prise en compte par la culture populaire qui propose une image relativement constante de cette figure tel que vue dans les films Mary Poppins (1964) de Walt Disney et One-man Band (2005) de Pixar. Il s’agit d’un seul performeur vêtu d’un costume coloré avec une grosse caisse sur le dos, des cymbales entre les jambes, une guitare ou un autre instrument à cordes dans les mains et un petit instrument à vent fixé assez près de sa bouche pour lui permettre d’alterner le chant et le jeu instrumental. Cette thèse propose une analyse de l’homme-orchestre qui va au-delà de sa simple production musicale en situant le phénomène comme un genre spectaculaire qui transmet un contenu symbolique à travers une relation tripartite entre performance divertissante, spectateur et image. Le contenu symbolique est lié aux idées caractéristiques du Siècle des lumières tels que la liberté, l’individu et une relation avec la technologie. Il est aussi incarné simultanément par les performeurs et par la représentation de l’homme-orchestre dans l’imaginaire collectif. En même temps, chaque performance sert à réaffirmer l’image de l’homme-orchestre, une image qui par répétitions est devenue un lieu commun de la culture, existant au-delà d’un seul performeur ou d’une seule performance. L’aspect visuel de l’homme-orchestre joue un rôle important dans ce processus par une utilisation inattendue du corps, une relation causale entre corps, technologie et production musicale ainsi que par l’utilisation de vêtements colorés et d’accessoires non musicaux tels des marionnettes, des feux d’artifice ou des animaux vivants. Ces éléments spectaculaires divertissent les spectateurs, ce qui se traduit, entre autres, par un gain financier pour le performeur. Le divertissement a une fonction phatique qui facilite la communication du contenu symbolique.
Resumo:
Qu’il ait fallu attendre « Lignes aériennes » (2002) pour que les critiques s’avisent que la poésie de Pierre Nepveu avait quelque chose à dire de la politique et de l’histoire en cours est proprement aberrant. Où regardent-ils donc? Faut-il que le poème exhibe des drapeaux rouges, bleus ou noirs; qu’il vienne d’un écrivain bien connu pour ses positions sociales et dûment affilié au parti dont le commun des publicistes espère qu’il soit; qu’il aragone à tout vent ou soit atteint de la sartrose, cette maladie mal engagée de la foi; que ses vers attestent des affinités militantes, quitte à faire rimer des slogans; que son auteur soit de tel réseau ma chère; faut-il cela pour qu’un poème soit politique ou pour qu’il ait une dimension politique? Sainte-Beuve, décidément, empeste encore, aujourd’hui déguisé en sociologue de rencontre pour département de lettres, prompt à se donner l’illusion d’avoir quelque chose à dire en filant des « postures » et des « stratégies » qui renvoient encore et toujours à des intentions conspiratoires : l’auteur, figurez-vous, est de retour, il n’écrit pas, il fomente pour faire carrière. [Introduction]
Resumo:
Le traumatisme craniocérébral léger (TCCL) a des effets complexes sur plusieurs fonctions cérébrales, dont l’évaluation et le suivi peuvent être difficiles. Les problèmes visuels et les troubles de l’équilibre font partie des plaintes fréquemment rencontrées après un TCCL. En outre, ces problèmes peuvent continuer à affecter les personnes ayant eu un TCCL longtemps après la phase aiguë du traumatisme. Cependant, les évaluations cliniques conventionnelles de la vision et de l’équilibre ne permettent pas, la plupart du temps, d’objectiver ces symptômes, surtout lorsqu’ils s’installent durablement. De plus, il n’existe pas, à notre connaissance, d’étude longitudinale ayant étudié les déficits visuels perceptifs, en tant que tels, ni les troubles de l’équilibre secondaires à un TCCL, chez l’adulte. L’objectif de ce projet était donc de déterminer la nature et la durée des effets d’un tel traumatisme sur la perception visuelle et sur la stabilité posturale, en évaluant des adultes TCCL et contrôles sur une période d’un an. Les mêmes sujets, exactement, ont participé aux deux expériences, qui ont été menées les mêmes jours pour chacun des sujets. L’impact du TCCL sur la perception visuelle de réseaux sinusoïdaux définis par des attributs de premier et de second ordre a d’abord été étudié. Quinze adultes diagnostiqués TCCL ont été évalués 15 jours, 3 mois et 12 mois après leur traumatisme. Quinze adultes contrôles appariés ont été évalués à des périodes identiques. Des temps de réaction (TR) de détection de clignotement et de discrimination de direction de mouvement ont été mesurés. Les niveaux de contraste des stimuli de premier et de second ordre ont été ajustés pour qu’ils aient une visibilité comparable, et les moyennes, médianes, écarts-types (ET) et écarts interquartiles (EIQ) des TR correspondant aux bonnes réponses ont été calculés. Le niveau de symptômes a également été évalué pour le comparer aux données de TR. De façon générale, les TR des TCCL étaient plus longs et plus variables (plus grands ET et EIQ) que ceux des contrôles. De plus, les TR des TCCL étaient plus courts pour les stimuli de premier ordre que pour ceux de second ordre, et plus variables pour les stimuli de premier ordre que pour ceux de second ordre, dans la condition de discrimination de mouvement. Ces observations se sont répétées au cours des trois sessions. Le niveau de symptômes des TCCL était supérieur à celui des participants contrôles, et malgré une amélioration, cet écart est resté significatif sur la période d’un an qui a suivi le traumatisme. La seconde expérience, elle, était destinée à évaluer l’impact du TCCL sur le contrôle postural. Pour cela, nous avons mesuré l’amplitude d’oscillation posturale dans l’axe antéropostérieur et l’instabilité posturale (au moyen de la vitesse quadratique moyenne (VQM) des oscillations posturales) en position debout, les pieds joints, sur une surface ferme, dans cinq conditions différentes : les yeux fermés, et dans un tunnel virtuel tridimensionnel soit statique, soit oscillant de façon sinusoïdale dans la direction antéropostérieure à trois vitesses différentes. Des mesures d’équilibre dérivées de tests cliniques, le Bruininks-Oseretsky Test of Motor Proficiency 2nd edition (BOT-2) et le Balance Error Scoring System (BESS) ont également été utilisées. Les participants diagnostiqués TCCL présentaient une plus grande instabilité posturale (une plus grande VQM des oscillations posturales) que les participants contrôles 2 semaines et 3 mois après le traumatisme, toutes conditions confondues. Ces troubles de l’équilibre secondaires au TCCL n’étaient plus présents un an après le traumatisme. Ces résultats suggèrent également que les déficits affectant les processus d’intégration visuelle mis en évidence dans la première expérience ont pu contribuer aux troubles de l’équilibre secondaires au TCCL. L’amplitude d’oscillation posturale dans l’axe antéropostérieur de même que les mesures dérivées des tests cliniques d’évaluation de l’équilibre (BOT-2 et BESS) ne se sont pas révélées être des mesures sensibles pour quantifier le déficit postural chez les sujets TCCL. L’association des mesures de TR à la perception des propriétés spécifiques des stimuli s’est révélée être à la fois une méthode de mesure particulièrement sensible aux anomalies visuomotrices secondaires à un TCCL, et un outil précis d’investigation des mécanismes sous-jacents à ces anomalies qui surviennent lorsque le cerveau est exposé à un traumatisme léger. De la même façon, les mesures d’instabilité posturale se sont révélées suffisamment sensibles pour permettre de mesurer les troubles de l’équilibre secondaires à un TCCL. Ainsi, le développement de tests de dépistage basés sur ces résultats et destinés à l’évaluation du TCCL dès ses premières étapes apparaît particulièrement intéressant. Il semble également primordial d’examiner les relations entre de tels déficits et la réalisation d’activités de la vie quotidienne, telles que les activités scolaires, professionnelles ou sportives, pour déterminer les impacts fonctionnels que peuvent avoir ces troubles des fonctions visuomotrice et du contrôle de l’équilibre.
Resumo:
Data centre is a centralized repository,either physical or virtual,for the storage,management and dissemination of data and information organized around a particular body and nerve centre of the present IT revolution.Data centre are expected to serve uniinterruptedly round the year enabling them to perform their functions,it consumes enormous energy in the present scenario.Tremendous growth in the demand from IT Industry made it customary to develop newer technologies for the better operation of data centre.Energy conservation activities in data centre mainly concentrate on the air conditioning system since it is the major mechanical sub-system which consumes considerable share of the total power consumption of the data centre.The data centre energy matrix is best represented by power utilization efficiency(PUE),which is defined as the ratio of the total facility power to the IT equipment power.Its value will be greater than one and a large value of PUE indicates that the sub-systems draw more power from the facility and the performance of the data will be poor from the stand point of energy conservation. PUE values of 1.4 to 1.6 are acievable by proper design and management techniques.Optimizing the air conditioning systems brings enormous opportunity in bringing down the PUE value.The air conditioning system can be optimized by two approaches namely,thermal management and air flow management.thermal management systems are now introduced by some companies but they are highly sophisticated and costly and do not catch much attention in the thumb rules.
Resumo:
We report magnetic and magneto-optical measurements of two Mn12 single-molecule magnet derivatives isolated in organic glasses. Field-dependent magnetic circular dichroism (MCD) intensity curves (hysteresis cycles) are found to be essentially identical to superconducting quantum interference device magnetization results and provide experimental evidence for the potential of the optical technique for magnetic characterization. Optical observation of magnetic tunneling has been achieved by studying the decay of the MCD signal at weak applied magnetic field