398 resultados para Puissance émergente


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire explore le lien entre les relations politiques entretenues par l’empire romain et le royaume sassanide et la représentation que faisaient des Perses les auteurs de l’antiquité tardive. Une tradition littéraire défavorable aux orientaux est en effet perceptible tout au long de l’antiquité : les Perses, notamment, sont ainsi cruels, lâches, efféminés, paresseux et perfides. Ces topoi, dont les racines se retrouvent dès le 5e siècle avant J.-C., évoluent-ils à la fin de l’antiquité, lorsque la puissance des Sassanides rivalise avec celle des empereurs? S’appuyant sur les travaux des dernières années sur l’altérité et sur l’ethnographie antique, ce mémoire s’efforce d’autre part de mieux comprendre les Romains en eux-mêmes en faisant l’analyse de leur rapport à leurs voisins.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les défis conjoints du changement climatique d'origine anthropique et la diminution des réserves de combustibles fossiles sont le moteur de recherche intense pour des sources d'énergie alternatives. Une avenue attrayante est d'utiliser un processus biologique pour produire un biocarburant. Parmi les différentes options en matière de biocarburants, le bio-hydrogène gazeux est un futur vecteur énergétique attrayant en raison de son efficacité potentiellement plus élevé de conversion de puissance utilisable, il est faible en génération inexistante de polluants et de haute densité d'énergie. Cependant, les faibles rendements et taux de production ont été les principaux obstacles à l'application pratique des technologies de bio-hydrogène. Des recherches intensives sur bio-hydrogène sont en cours, et dans les dernières années, plusieurs nouvelles approches ont été proposées et étudiées pour dépasser ces inconvénients. À cette fin, l'objectif principal de cette thèse était d'améliorer le rendement en hydrogène moléculaire avec un accent particulier sur l'ingénierie métabolique et l’utilisation de bioprocédés à variables indépendantes. Une de nos hypothèses était que la production d’hydrogène pourrait être améliorée et rendue plus économiquement viable par ingénierie métabolique de souches d’Escherichia coli producteurs d’hydrogène en utilisant le glucose ainsi que diverses autres sources de carbone, y compris les pentoses. Les effets du pH, de la température et de sources de carbone ont été étudiés. La production maximale d'hydrogène a été obtenue à partir de glucose, à un pH initial de 6.5 et une température de 35°C. Les études de cinétiques de croissance ont montré que la μmax était 0.0495 h-1 avec un Ks de 0.0274 g L-1 lorsque le glucose est la seule source de carbone en milieu minimal M9. .Parmi les nombreux sucres et les dérivés de sucres testés, les rendements les plus élevés d'hydrogène sont avec du fructose, sorbitol et D-glucose; 1.27, 1.46 et 1.51 mol H2 mol-1 de substrat, respectivement. En outre, pour obtenir les interactions entre les variables importantes et pour atteindre une production maximale d'hydrogène, un design 3K factoriel complet Box-Behnken et la méthodologie de réponse de surface (RSM) ont été employées pour la conception expérimentale et l'analyse de la souche d'Escherichia coli DJT135. Le rendement en hydrogène molaire maximale de 1.69 mol H2 mol-1 de glucose a été obtenu dans les conditions optimales de 75 mM de glucose, à 35°C et un pH de 6.5. Ainsi, la RSM avec un design Box-Behken était un outil statistique utile pour atteindre des rendements plus élevés d'hydrogène molaires par des organismes modifiés génétiquement. Ensuite, l'expression hétérologue de l’hydrogénases soluble [Ni-Fe] de Ralstonia eutropha H16 (l'hydrogénase SH) a tenté de démontrer que la mise en place d'une voie capable de dériver l'hydrogène à partir de NADH pourrait surpasser le rendement stoechiométrique en hydrogène.. L’expression a été démontrée par des tests in vitro de l'activité enzymatique. Par ailleurs, l'expression de SH a restaurée la croissance en anaérobie de souches mutantes pour adhE, normalement inhibées en raison de l'incapacité de réoxyder le NADH. La mesure de la production d'hydrogène in vivo a montré que plusieurs souches modifiées métaboliquement sont capables d'utiliser l'hydrogénase SH pour dériver deux moles d’hydrogène par mole de glucose consommé, proche du maximum théorique. Une autre stratégie a montré que le glycérol brut pourrait être converti en hydrogène par photofermentation utilisant Rhodopseudomonas palustris par photofermentation. Les effets de la source d'azote et de différentes concentrations de glycérol brut sur ce processus ont été évalués. À 20 mM de glycérol, 4 mM glutamate, 6.1 mol hydrogène / mole de glycérol brut ont été obtenus dans des conditions optimales, un rendement de 87% de la théorie, et significativement plus élevés que ce qui a été réalisé auparavant. En prolongement de cette étude, l'optimisation des paramètres a également été utilisée. Dans des conditions optimales, une intensité lumineuse de 175 W/m2, 30 mM glycérol et 4.5 mM de glutamate, 6.69 mol hydrogène / mole de glycérol brut ont été obtenus, soit un rendement de 96% de la valeur théorique. La détermination de l'activité de la nitrogénase et ses niveaux d'expression ont montré qu'il y avait relativement peu de variation de la quantité de nitrogénase avec le changement des variables alors que l'activité de la nitrogénase variait considérablement, avec une activité maximale (228 nmol de C2H4/ml/min) au point central optimal. Dans la dernière section, la production d'hydrogène à partir du glucose via la photofermentation en une seule étape a été examinée avec la bactérie photosynthétique Rhodobacter capsulatus JP91 (hup-). La méthodologie de surface de réponse avec Box-Behnken a été utilisée pour optimiser les variables expérimentales de façon indépendante, soit la concentration de glucose, la concentration du glutamate et l'intensité lumineuse, ainsi que d'examiner leurs effets interactifs pour la maximisation du rendement en hydrogène moléculaire. Dans des conditions optimales, avec une intensité lumineuse de 175 W/m2, 35 mM de glucose, et 4.5 mM de glutamate,, un rendement maximal d'hydrogène de 5.5 (± 0.15) mol hydrogène /mol glucose, et un maximum d'activité de la nitrogénase de 246 (± 3.5) nmol C2H4/ml/min ont été obtenus. L'analyse densitométrique de l'expression de la protéine-Fe nitrogenase dans les différentes conditions a montré une variation significative de l'expression protéique avec un maximum au point central optimisé. Même dans des conditions optimales pour la production d'hydrogène, une fraction significative de la protéine Fe a été trouvée dans l'état ADP-ribosylée, suggérant que d'autres améliorations des rendements pourraient être possibles. À cette fin, un mutant amtB dérivé de Rhodobacter capsulatus JP91 (hup-) a été créé en utilisant le vecteur de suicide pSUP202. Les résultats expérimentaux préliminaires montrent que la souche nouvellement conçue métaboliquement, R. capsulatus DG9, produit 8.2 (± 0.06) mol hydrogène / mole de glucose dans des conditions optimales de cultures discontinues (intensité lumineuse, 175 W/m2, 35 mM de glucose et 4.5 mM glutamate). Le statut d'ADP-ribosylation de la nitrogénase-protéine Fe a été obtenu par Western Blot pour la souche R. capsulatus DG9. En bref, la production d'hydrogène est limitée par une barrière métabolique. La principale barrière métabolique est due au manque d'outils moléculaires possibles pour atteindre ou dépasser le rendement stochiométrique en bio-hydrogène depuis les dernières décennies en utilisant les microbes. À cette fin, une nouvelle approche d’ingénierie métabolique semble très prometteuse pour surmonter cette contrainte vers l'industrialisation et s'assurer de la faisabilité de la technologie de la production d'hydrogène. Dans la présente étude, il a été démontré que l’ingénierie métabolique de bactéries anaérobiques facultatives (Escherichia coli) et de bactéries anaérobiques photosynthétiques (Rhodobacter capsulatus et Rhodopseudomonas palustris) peuvent produire de l'hydrogène en tant que produit majeur à travers le mode de fermentation par redirection métabolique vers la production d'énergie potentielle. D'autre part, la méthodologie de surface de réponse utilisée dans cette étude représente un outil potentiel pour optimiser la production d'hydrogène en générant des informations appropriées concernant la corrélation entre les variables et des producteurs de bio-de hydrogène modifiés par ingénierie métabolique. Ainsi, un outil d'optimisation des paramètres représente une nouvelle avenue pour faire un pont entre le laboratoire et la production d'hydrogène à l'échelle industrielle en fournissant un modèle mathématique potentiel pour intensifier la production de bio-hydrogène. Par conséquent, il a été clairement mis en évidence dans ce projet que l'effort combiné de l'ingénierie métabolique et la méthodologie de surface de réponse peut rendre la technologie de production de bio-hydrogène potentiellement possible vers sa commercialisation dans un avenir rapproché.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mesures effectuées dans le laboratoire de caractérisation optique des semi-conducteurs du Prof. Richard Leonelli du département de physique de l'université de Montréal. Les nanofils d'InGaN/GaN ont été fournis par le groupe du Prof. Zetian Mi du département de génie électrique et informatique de l'université McGill.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La multiplication des formations professionnelles universitaires (FPU) a poussé plusieurs chercheurs à s’intéresser aux caractéristiques de ces formations, leur perméabilité à une multitude de pressions étant l’une des plus fréquemment relevées. Ainsi, les unités responsables de FPU sont confrontées à des pressions diverses et souvent contradictoires. Si les écrits scientifiques sur les FPU témoignent bien de cette réalité, ceux-ci nous informent moins bien de la manière dont les unités responsables de ce type de formation répondent à ces pressions. Cette thèse a donc fait appel à plusieurs concepts de l’approche institutionnelle issue de la sociologie des organisations pour analyser l’évolution récente de la FPU destinée aux directions d’établissement scolaire (DES) du Québec, un champ qui a connu d’importantes transformations au cours des vingt-cinq dernières années. Construite sur une étude de cas interprétative dite à « unités enchâssées » (Yin, 2003), cette thèse s’est intéressée à l’évolution de cette formation dans deux unités universitaires francophones : le Département d’administration et fondements de l’éducation de l’Université de Montréal et le Département de gestion de l’éducation et de la formation de l’Université de Sherbrooke. Couvrant la période allant des années universitaires 1988-1989 à 2008-2009, elle repose sur une analyse du discours produit par les deux unités sélectionnées, et, dans une moindre mesure, par les organisations qui composent le champ organisationnel de la formation des DES au Québec. Pour ce faire, trois corpus documentaires distincts ont été assemblés et une série d’entrevues (dix par unités) ont été réalisées auprès d’informateurs-clés (doyens, directeurs de département/section, responsables de formation). Les résultats montrent comment ces unités tendent à se rendre isomorphes à leur environnement, et comment cela se fait en réponse à des pressions institutionnelles et de compétition diverses émanant d’un champ organisationnel en pleine transformation. En fait, poussée par des changements plus profonds touchant l’administration scolaire, cette transformation amène un champ organisationnel plus structuré, où les attentes concernant la FPU destinée aux DES sont plus explicites. Cela n’est pas sans conséquence sur l’évolution de la formation dans les deux unités. En effet, celle-ci connaît des changements importants, dont plusieurs convergent autour d’une logique de professionnalisation, d’un archétype spécifique de formation (un continuum de formation de 2e cycle, au cœur duquel se trouve un diplôme de deuxième cycle) et d’outils conséquents (conditions d’admission et populations étudiantes élargies; flexibilité dans la structure du programme et professionnalisation des activités; équipes enseignantes plus diversifiées). Les deux unités n’apparaissent cependant pas impuissantes devant ces pressions. Les résultats témoignent d’un certain niveau d’agence des deux unités, qui déploient un éventail de stratégies en réaction à ces pressions. Ces stratégies évoluent au cours de la période observée et visent surtout à gérer la situation de « pluralisme institutionnel » à laquelle elles sont confrontées, notamment entre les pressions externes de nature plus professionnalisantes, et les pressions intraorganisationnelles de nature plus académisantes. Ainsi, plusieurs des stratégies et tactiques composant la typologie d’Oliver (1991) ont été observées, les stratégies de compromis et de manipulation occupant, dans les deux unités, une place de plus en plus importante au gré de l’évolution du champ. La mise en œuvre de ces stratégies vise surtout à maintenir la légitimité de leur offre de formation devant des pressions plurielles et parfois contradictoires. Les résultats montrent aussi que la nature de l’entrepreneuriat institutionnel en place détermine en grande partie les stratégies qu’elles déploient. Cet « entrepreneuriat » est au cœur de l’évolution de la formation. Cependant, les résultats montrent aussi comment celui-ci est en partie contraint ou, a contrario, stimulé par les choix historiques qui ont été faits par les unités et leur université, et par l’empreinte et les dépendances de sentier qui en découlent. Ces résultats apportent un éclairage « institutionnaliste » sur la manière dont deux unités universitaires ont réagi, à une période donnée, aux pressions diverses provenant de leur environnement. Ils brossent un portrait complexe et nuancé qui vient à la fois (1) approfondir notre compréhension de cette spécificité des FPU, (2) approfondir notre compréhension de l’évolution récente de la FPU destinée aux DES québécoises, et (3) confirmer la puissance d’analyse de plusieurs concepts tirés de l’approche institutionnelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Depuis que le concept d’habilitation (empowerment) a été introduit dans le monde du travail, il est rapidement devenu à la mode dû à ses bénéfices anticipés à la fois pour les organisations et pour les travailleurs. Toutefois, bien que l’état d’habilitation psychologique des travailleurs ainsi que ses déterminants soient bien documentés (Seibert, Wang, & Courtright, 2011), il existe peu d’outils pour évaluer de façon comportementale l’habilitation des travailleurs (Boudrias & Savoie, 2006). Cette réalité nuit aux organisations qui tentent de mettre en place des programmes d’habilitation des employés et qui souhaitent en mesurer leurs effets comportementaux. En 2006, Boudrias et Savoie ont amorcé le travail pour pallier cette lacune en créant un cadre conceptuel de l’habilitation comportementale au travail composé de deux approches distinctes, soit l’approche émergente (comportements discrétionnaires) et l’approche structurelle (implication dans la gestion du travail) et en validant un premier questionnaire permettant de mesurer l’approche émergente. La présente thèse vise à poursuivre le travail amorcé, en instrumentant la seconde approche et en poursuivant la validation du concept d’habilitation comportementale. Plus spécifiquement, la thèse vise à : a) valider un questionnaire qui mesure l’implication des employés dans la gestion de leur travail, en deux versions, à savoir une version auto-rapportée ainsi qu’une version destinée au supérieur hiérarchique; b) établir la structure factorielle de l’habilitation comportementale à l’aide des deux approches opérationnalisées; c) vérifier la spécificité du construit d’habilitation comportementale par rapport à d’autres mesures connexes (p.ex. comportements de citoyenneté organisationnelle, comportements d’innovation, comportements d’auto-leadership et d’autogestion), et d) vérifier un modèle structurel incluant trois déterminants de l’environnement de travail, à savoir le style de supervision, le soutien des collègues et la latitude décisionnelle, comme prédicteur de l’habilitation individuelle au travail, évaluée à l’aide d’une mesure d’habilitation psychologique et des mesures des deux approches d’habilitation comportementale. Pour ce faire, trois études distinctes ont été réalisées auprès de travailleurs variés et quatre échantillons ont été constitués dont trois comprenant uniquement des données auto-rapportées (N = 274, 104, 249) et un quatrième incluant aussi des données rapportées par le supérieur (N = 151). Les résultats des analyses factorielles confirmatoires démontrent que la structure de l’instrument d’implication dans la gestion ainsi que celle de l’habilitation comportementale composée des deux approches sont constantes d’un échantillon à l’autre et dans ses deux versions. De plus, les propriétés métriques du questionnaire validé sont satisfaisantes. D’autre part, les résultats des analyses corrélationnelles indiquent que les mesures d’habilitation comportementale présentent une validité discriminante par rapport à des mesures d’autres construits connexes. Enfin, les analyses acheminatoires pour vérifier le modèle structurel anticipé indiquent que l’habilitation psychologique agit comme variable médiatrice dans les relations entre, d’une part, la latitude décisionnelle et les pratiques de gestion des supérieurs, et, d’autre part, les deux approches d’habilitation comportementale. Le soutien des collègues, de son côté, n’est pas relié à l’habilitation des travailleurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les vagues de bateau ajoutent une pression supplémentaire sur les berges de rivières et doivent être considérées dans les modèles de prédiction des taux de recul des berges. L’objectif de cette étude est d’examiner le rôle des vagues de bateau sur l’écoulement et le transport en suspension le long des berges en milieu fluvial. Pour atteindre cet objectif, nous utilisons un transect perpendiculaire à la berge de quatre courantomètres électromagnétiques (ECMs) mesurant deux dimensions de l’écoulement et deux turbidimètres (OBSs) placés dos à dos, orientés vers la berge et le large pour mesurer les conditions moyennes et turbulentes de l’écoulement longitudinal et vertical ainsi que les flux de sédiments en suspension provoqués par les vagues. Une chaloupe à moteur de 16 pieds, équipée d’un moteur 40 hp, a été utilisée afin de générer des vagues. Nous avons mesuré l’effet de trois distances à partir de la berge (5, 10, 15 m) et trois vitesses de bateau (5, 15 et 25 km/h) et cinq répliques de chaque combinaison de distance et de vitesse ont été réalisées, totalisant 45 passages. Nous avons caractérisé la variabilité des conditions d’écoulement, de vagues et de transport de sédiments et nous avons réalisé des analyses spectrales afin de séparer les portions oscillatoire et turbulente de l’écoulement généré par les vagues de bateau. L’effet de la distance et de la vitesse du bateau sur le transport de sédiments est non-linéaire et la réponse sédimentaire induite par les passages de bateau montre une variabilité importante entre les répliques et les deux sondes OBS, ce qui suggère un changement morphologique induit par les vagues de bateau. Les corrélations entre les variables d’écoulement et de transport montrent l’importance des relations entre le cisaillement et la puissance de la portion turbulente de l’écoulement avec le transport de sédiments. Cette étude a permis de quantifier les relations entre la dynamique des vagues et les flux de concentrations de sédiments en suspension, ce qui représente une contribution importante au développement de mesures de mitigation dans les environnements fluviaux où les berges sont fragilisées par le trafic plaisancier.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Certaines études récentes confirment que les tests de personnalité sont largement utilisés à des fins de sélection dans les organisations nord-américaines et que leur fréquence d’utilisation continue de croître (Boudrias, Pettersen, Longpré, & Plunier, 2008; Rothstein & Goffin, 2006). Or, les résultats des recherches portant sur le lien prévisionnel entre la personnalité et le rendement global au travail sont peu convaincants (Morgeson et al., 2007b; Murphy & Dzieweczynski, 2005). La présente thèse vise à vérifier si une amélioration des liens prédictifs entre la personnalité et le rendement au travail pourrait être obtenue en modifiant la façon d’opérationnaliser les variables prévisionnelles issues des inventaires de personnalité et en précisant les critères à prédire de manière à les rendre plus spécifiques et mieux arrimés. Pour ce faire, la capacité prévisionnelle d’une approche centrée sur le critère, c’est-à-dire l’utilisation de composites de traits de personnalité, est comparée à l’approche traditionnelle centrée sur le prédicteur, dans ce cas-ci, les cinq grands facteurs de personnalité (Big Five). D’autre part, le rendement au travail est opérationnalisé sous l’angle des compétences en emploi, ce qui permet d’en différencier les dimensions et d’augmenter la spécificité des critères. Des hypothèses précisant les facteurs de personnalité qui devraient permettre de prédire chacune des compétences évaluées sont testées. De plus, des hypothèses précisant les traits de personnalité servant à créer les variables composites sont aussi testées. Finalement, une hypothèse portant sur la comparaison de la puissance prévisionnelle des deux approches est mise à l’épreuve. L’échantillon de la recherche est composé de 225 employés occupant divers emplois au sein d’une grande organisation québécoise. Ils ont complété un inventaire de personnalité au travail dans le cadre des processus de sélection de l’organisation. Leur supérieur immédiat a effectué une évaluation de leurs compétences et de leur rendement au moins six (6) mois après leur embauche. Les résultats démontrent que la maîtrise des compétences est mieux prédite par une approche centrée sur le prédicteur (c’est-à-dire les Big Five) que par une approche centrée sur le critère (c’est-à-dire les variables composites). En effet, seules trois hypothèses portant sur le lien entre certains facteurs de personnalité et les compétences se sont avérées partiellement soutenues. Les résultats d’analyses statistiques supplémentaires, réalisées a posteriori afin de mieux comprendre les résultats, laissent supposer la présence de variables modératrices, dont, notamment, les caractéristiques situationnelles. En somme, il nous semble plus probable d’arriver, dans le futur, à trouver une méthode structurée de création des variables composites qui permettrait d’obtenir des liens prévisionnels plus puissants que de découvrir des variables composites qui seraient elles-mêmes généralisables à tous les emplois et à toutes les organisations. Par ailleurs, nous encourageons les praticiens à porter attention à la façon d’utiliser les données de personnalité. Pour le moment, il semble que les facteurs de personnalité permettent de prédire, en partie, le rendement futur en emploi. Or, les preuves empiriques concernant l’efficacité d’autres approches demeurent relativement rares et, surtout, insuffisantes pour guider fidèlement les praticiens à travers les choix nécessaires à leur utilisation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die morawische Nacht (2008) de Peter Handke représente un tournant: l’auteur y renonce à son engagement politique concernant les Balkans et il revient au « royaume de la poésie ». En reprenant des concepts de la théorie de l’espace dans les études culturelles, cette étude examine les moyens narratifs à partir desquels Handke projette une nouvelle image des Balkans. L’écrivain autrichien déconstruit son propre mythe du « Neuvième Pays » (Die Wiederholung, 1986), dont il a sans cesse défendu le concept dans les années 1990 (Eine winterliche Reise, 1996; Zurüstungen für die Unsterblichkeit, 1997; Die Fahrt im Einbaum, 1999; Unter Tränen fragend, 1999). Dans Die morawische Nacht, de fréquentes allusions et connotations nous ramènent aux œuvres antérieures, mentionnées ci-dessus. La signification et la fonction des nouvelles images des Balkans ne sont pas comprises que dans le cadre des références intertextuelles. Par l’entremise d’un maniement raffiné et ludique de l’ancien contenu et des vieilles structures, objets d’un nouvel usage, la poétique de Handke, toujours basée sur les soi-disant « Zwischenräume » (espaces intermédiaires) prouve toute sa puissance. Même si les Balkans perdent leur caractère absolu, ils continuent cependant à servir comme moyen de critique de la société moderne qui aspire cette fois à la mondialisation. Pendant que Handke réfute ironiquement sa naïveté de rechercher l’absolu dans le monde extérieur, le récit se révèle être le seul royaume où la paix et l’harmonie peuvent être créées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'élastographie ultrasonore est une technique d'imagerie émergente destinée à cartographier les paramètres mécaniques des tissus biologiques, permettant ainsi d’obtenir des informations diagnostiques additionnelles pertinentes. La méthode peut ainsi être perçue comme une extension quantitative et objective de l'examen palpatoire. Diverses techniques élastographiques ont ainsi été proposées pour l'étude d'organes tels que le foie, le sein et la prostate et. L'ensemble des méthodes proposées ont en commun une succession de trois étapes bien définies: l'excitation mécanique (statique ou dynamique) de l'organe, la mesure des déplacements induits (réponse au stimulus), puis enfin, l'étape dite d'inversion, qui permet la quantification des paramètres mécaniques, via un modèle théorique préétabli. Parallèlement à la diversification des champs d'applications accessibles à l'élastographie, de nombreux efforts sont faits afin d'améliorer la précision ainsi que la robustesse des méthodes dites d'inversion. Cette thèse regroupe un ensemble de travaux théoriques et expérimentaux destinés à la validation de nouvelles méthodes d'inversion dédiées à l'étude de milieux mécaniquement inhomogènes. Ainsi, dans le contexte du diagnostic du cancer du sein, une tumeur peut être perçue comme une hétérogénéité mécanique confinée, ou inclusion, affectant la propagation d'ondes de cisaillement (stimulus dynamique). Le premier objectif de cette thèse consiste à formuler un modèle théorique capable de prédire l'interaction des ondes de cisaillement induites avec une tumeur, dont la géométrie est modélisée par une ellipse. Après validation du modèle proposé, un problème inverse est formulé permettant la quantification des paramètres viscoélastiques de l'inclusion elliptique. Dans la continuité de cet objectif, l'approche a été étendue au cas d'une hétérogénéité mécanique tridimensionnelle et sphérique avec, comme objectifs additionnels, l'applicabilité aux mesures ultrasonores par force de radiation, mais aussi à l'estimation du comportement rhéologique de l'inclusion (i.e., la variation des paramètres mécaniques avec la fréquence d'excitation). Enfin, dans le cadre de l'étude des propriétés mécaniques du sang lors de la coagulation, une approche spécifique découlant de précédents travaux réalisés au sein de notre laboratoire est proposée. Celle-ci consiste à estimer la viscoélasticité du caillot sanguin via le phénomène de résonance mécanique, ici induit par force de radiation ultrasonore. La méthode, dénommée ARFIRE (''Acoustic Radiation Force Induced Resonance Elastography'') est appliquée à l'étude de la coagulation de sang humain complet chez des sujets sains et sa reproductibilité est évaluée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En tant que levier de pouvoir du capitalisme contemporain, la gestion des ressources humaines est un paradigme polymorphe, omniprésent et en constante expansion dans les organisations nord-américaines. À la fois métier pratique d’assistance du monde des affaires, fonction de contrôle thérapeutique du travail et champ de savoirs psycho-administratifs, la gestion des ressources humaines façonne depuis plus d’un siècle un humain travailleur conforme aux exigences du capitalisme libéral. La présente thèse cherche à comprendre le pouvoir et la pérennité du paradigme ressources humaines en pénétrant par l’ethnographie dans l’expérience des professionnels, experts et managers qui en sont les protagonistes. À travers le sens que ces derniers donnent à leur rôle, à travers leurs aspirations et leurs rationalisations, c’est la nature politique du phénomène managérial qui se rend visible. Cette nature consiste en l’utilisation paradoxale de la force du conflit : les gestionnaires de ressources humaines se positionnent comme les spécialistes de l’élimination de la conflictualité dans l’espace du travail, tout en entretenant dans leurs discours, savoirs, légitimations, pratiques et logiques les formes mêmes de dissonances qu’ils proposent d’éliminer. « Humanisateur » du travail autant que gardien de l’ordre en place, le paradigme ressources humaines sert le capitalisme contemporain en en absorbant, brouillant et finalement estompant les contradictions fondamentales. Et parce que la puissance du dispositif gestionnaire réside précisément dans sa capacité à dissoudre ses oppositions, la présente thèse se veut aussi une réflexion sur les conditions, limites et possibilités de la critique en anthropologie des subjectivations contemporaines.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: Les stratégies d’optimisation de la performance chez les athlètes sont de plus en plus exploitées par les entraîneurs et préparateurs physiques. La potentialisation de post- activation (PAP) est reconnue comme étant un phénomène pouvant mener à une augmentation des performances. L’objectif de la présente étude était de donc décrire les effets d’une pré-sollicitation à la hanche sur la coordination inter-musculaire et la performance au cours d’un exercice épuisant. Méthodes: Six athlètes de patins de vitesse de courte piste (3 de sexe masculin et 3 de sexe féminin; âge: 20.2 ± 2.8 ans; moyenne±écart-type) ont exécuté aléatoirement un exercice qui consistait en 2 séries de 9 blocs de squats sautés maximaux, entre-coupés d’un squat isométrique d’une durée de 5 secondes sans pré-sollicitation préalable (CON) et avec une tâche de pré-sollicitation unilatérale de squat isométrique (EXP) contre une barre fixe de 2x3 secondes. Le pic de puissance moyen, l’amplitude et la fréquence moyenne d’EMG, et la vitesse et l’accélération angulaires des premiers et derniers blocs étaient enregistrés. Résultats: La pré-sollicitation isométrique maximale des membres inférieurs n’a pas amélioré de manière significative la performance de sauts et la coordination des muscles stabilisateurs à la hanche. La fréquence spectrale moyenne a néanmoins témoigné de l’implication de stratégies compensatoires du membre inférieur gauche en réponse à la fatigue. Conclusion: La pré-sollicitation des stabilisateurs à la hanche n’augmenterait pas la performance de squats répétés. Par contre, la fréquence moyenne du grand fessier et du tibial antérieur gauche ont suggéré meilleure résistance à la fatigue des muscles du membre inférieur non-dominant avec une pré-sollicitation. Les résultats de la présente étude indiquent donc la pertinence de considérer la pré-sollicitation dans un objectif de performance et de réadaptation sachant que l’asymétrie est omniprésente chez les athlètes et qu’elle est impliquée dans le taux élevé de blessures enregistré chez cette population.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les données provenant de l'échantillonnage fin d'un processus continu (champ aléatoire) peuvent être représentées sous forme d'images. Un test statistique permettant de détecter une différence entre deux images peut être vu comme un ensemble de tests où chaque pixel est comparé au pixel correspondant de l'autre image. On utilise alors une méthode de contrôle de l'erreur de type I au niveau de l'ensemble de tests, comme la correction de Bonferroni ou le contrôle du taux de faux-positifs (FDR). Des méthodes d'analyse de données ont été développées en imagerie médicale, principalement par Keith Worsley, utilisant la géométrie des champs aléatoires afin de construire un test statistique global sur une image entière. Il s'agit d'utiliser l'espérance de la caractéristique d'Euler de l'ensemble d'excursion du champ aléatoire sous-jacent à l'échantillon au-delà d'un seuil donné, pour déterminer la probabilité que le champ aléatoire dépasse ce même seuil sous l'hypothèse nulle (inférence topologique). Nous exposons quelques notions portant sur les champs aléatoires, en particulier l'isotropie (la fonction de covariance entre deux points du champ dépend seulement de la distance qui les sépare). Nous discutons de deux méthodes pour l'analyse des champs anisotropes. La première consiste à déformer le champ puis à utiliser les volumes intrinsèques et les compacités de la caractéristique d'Euler. La seconde utilise plutôt les courbures de Lipschitz-Killing. Nous faisons ensuite une étude de niveau et de puissance de l'inférence topologique en comparaison avec la correction de Bonferroni. Finalement, nous utilisons l'inférence topologique pour décrire l'évolution du changement climatique sur le territoire du Québec entre 1991 et 2100, en utilisant des données de température simulées et publiées par l'Équipe Simulations climatiques d'Ouranos selon le modèle régional canadien du climat.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de ce mémoire de maîtrise est de caractériser la distribution axiale des plasmas tubulaires à la pression atmosphérique créés et entretenus par une onde électromagnétique de surface ainsi que d’explorer le potentiel de ces sources pour la synthèse de matériaux et de nanomatériaux. Un précédent travail de thèse, qui avait pour objectif de déterminer les mécanismes à l’origine de la contraction radiale du plasma créé dans des gaz rares, a mis en lumière un phénomène jusque-là inconnu dans les plasmas d’onde de surface (POS). En effet, la distribution axiale varie différemment selon la puissance incidente ce qui constitue une différence majeure par rapport aux plasmas à pression réduite. Dans ce contexte, nous avons réalisé une étude paramétrique des POS à la pression atmosphérique dans l’Ar. À partir de nos mesures de densité électronique, de température d’excitation et de densité d’atomes d’Ar dans un niveau métastable (Ar 3P2), résolues axialement, nous avons conclu que le comportement axial de l’intensité lumineuse avec la puissance n’est pas lié à un changement de la cinétique de la décharge (qui est dépendante de la température des électrons et de la densité d’atomes d’Ar métastables), mais plutôt à une distribution anormale de dissipation de puissance dans le plasma (reliée à la densité d’électrons). Plus précisément, nos résultats suggèrent que ce dépôt anormal de puissance provient d’une réflexion de l’onde dans le fort gradient de densité de charges en fin de colonne, un effet plus marqué pour de faibles longueurs de colonnes à plasma. Ensuite, nous avons effectué une étude spectroscopique du plasma en présence de précurseurs organiques, en particulier le HMDSO pour la synthèse de matériaux organosiliciés et l’IPT pour la synthèse de matériaux organotitaniques. Les POS à la PA sont caractérisés par des densités de charges très élevées (>10^13 cm^-3), permettant ainsi d’atteindre des degrés de dissociation des précurseurs nettement plus élevés que ceux d'autres plasmas froids à la pression atmosphérique comme les décharges à barrière diélectrique. Dans de tels cas, les matériaux synthétisés prennent la forme de nanopoudres organiques de taille inférieure à 100 nm. En présence de faibles quantités d’oxygène dans le plasma, nous obtenons plutôt des nanopoudres à base d’oxyde de silicium (HMDSO) ou à base de titanate de silicium (IPT), avec très peu de carbone.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les penseurs de l’herméneutique du XXe siècle ont redéfini essentiellement l’humain comme un être en quête de sens, interprétant sans cesse le ‘monde’ à travers ‘son propre monde’, cette compréhension transformante contribuant à son devenir. Serait-il pertinent dans une recherche de sens qui caractérise une démarche de foi, d’utiliser des outils herméneutiques ouvrant les Écritures sur d’autres possibles que ce que la Tradition chrétienne propose aujourd’hui ? Le présent mémoire veut répondre par l’affirmative à ce défi, en appliquant une approche processuelle sur le chapitre 16 du livre d’Ézéchiel, un prophète avec lequel la tradition juive a gardé une certaine prudence et un texte particulièrement osé que la pastorale chrétienne a ignoré. Après une mise en situation qui trace les paramètres fondamentaux de la démarche entreprise dans ce mémoire (chapitre 1), une traduction littérale du texte hébreu est proposée, faisant ressortir les nuances que suggèrent les formes verbales et les éléments particuliers que révèle une analyse macro-syntaxique (chapitre 2); la méthode d’analyse processuelle choisie pour interpréter le texte est inédite dans le monde francophone, tout comme la perspective processuelle de l’étude telle qu’elle se déploie dans les chapitres 3 et 4 du mémoire. L’analyse débouche sur des propositions théologiques originales, redéfinissant notamment la Toute-Puissance divine comme un entêtement qui cherche à convaincre, et inscrivant le pardon divin au creux de la liberté et de la responsabilité humaines.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le réseau magnétique consiste en un ensemble de petites concentrations de flux magnétique sur la photosphère solaire. Vu sa petite échelle de taille et de flux, à la limite de détection, son comportement n'est connu que depuis récemment. Les interactions du réseau sont pourtant cruciales afin de comprendre la dynamo et l'irradiance solaires, car beaucoup de caractérisques du réseau dépendent de ces interactions. De plus, le réseau est la principale contribution magnétique surfacique à l'irradiance solaire. Les modèles existants du réseau ne tenaient jusqu'à maintenant pas compte des interactions du réseau. Nous avons tenté de combler cette lacune avec notre modèle. Nos simulations impliquent une marche aléatoire en 2D de tubes de flux magnétiques sur la photosphère solaire. Les tubes de flux sont injectés puis soumis à des règles de déplacement et d'interaction. L'injection se fait à deux échelles, respectivement la plus petite et la plus grande observables: les tubes de flux élémentaires et les taches solaires. Des processus de surface imitant ceux observés sont inclus, et consistent en l'émergence, la coalescence, l'annulation et la submergence de flux. La fragmentation des concentrations n'est présente que pour les taches, sous forme de désintégration libérant des tubes de flux. Le modèle est appliqué au cycle solaire 21 (1976-1986, le mieux documenté en termes de caractéristiques de taches solaires. Il en résulte des réponses à deux questions importantes en physique solaire. La première est: l'injection de flux magnétique à deux échelles très distinctes peut-elle conduire à une distribution de flux en loi de puissance comme on l'observe, si l'on inclut des processus de surface qui retraitent le flux? Cette question est étroitement liée à l'origine de la dynamo solaire, qui pourrait produire ladite distribution. Nous trouvons qu'on peut effectivement produire une telle distribution avec ce type d'injection et ce type de processus de surface. Cela implique que la distribution de flux observée ne peut servir à déterminer quel type de dynamo opère dans le Soleil. La deuxième question à laquelle nous avons apporté un élément de réponse est celle à savoir combien de temps il faut au réseau pour retrouver son état d'activité de base. Cet état a été observé lors du minimum de Maunder en 1645-1715 et touche de près la question de l'influence de l'activité solaire sur le climat terrestre. Le récent minimum d'activité est considéré par certains comme ayant atteint cet état. Nous trouvons plutôt que ça n'a pas été le cas. En effet, le temps de relaxation du réseau que nous avons calculé est supérieur au temps écoulé entre la fin du dernier cycle solaire d'activité et celui de l'amorce du présent cycle.