827 resultados para Puissance moyenne
Resumo:
Quoique très difficile à résoudre, le problème de satisfiabilité Booléenne (SAT) est fréquemment utilisé lors de la modélisation d’applications industrielles. À cet effet, les deux dernières décennies ont vu une progression fulgurante des outils conçus pour trouver des solutions à ce problème NP-complet. Deux grandes avenues générales ont été explorées afin de produire ces outils, notamment l’approche logicielle et matérielle. Afin de raffiner et améliorer ces solveurs, de nombreuses techniques et heuristiques ont été proposées par la communauté de recherche. Le but final de ces outils a été de résoudre des problèmes de taille industrielle, ce qui a été plus ou moins accompli par les solveurs de nature logicielle. Initialement, le but de l’utilisation du matériel reconfigurable a été de produire des solveurs pouvant trouver des solutions plus rapidement que leurs homologues logiciels. Cependant, le niveau de sophistication de ces derniers a augmenté de telle manière qu’ils restent le meilleur choix pour résoudre SAT. Toutefois, les solveurs modernes logiciels n’arrivent toujours pas a trouver des solutions de manière efficace à certaines instances SAT. Le but principal de ce mémoire est d’explorer la résolution du problème SAT dans le contexte du matériel reconfigurable en vue de caractériser les ingrédients nécessaires d’un solveur SAT efficace qui puise sa puissance de calcul dans le parallélisme conféré par une plateforme FPGA. Le prototype parallèle implémenté dans ce travail est capable de se mesurer, en termes de vitesse d’exécution à d’autres solveurs (matériels et logiciels), et ce sans utiliser aucune heuristique. Nous montrons donc que notre approche matérielle présente une option prometteuse vers la résolution d’instances industrielles larges qui sont difficilement abordées par une approche logicielle.
Resumo:
L’observation de l’exécution d’applications JavaScript est habituellement réalisée en instrumentant une machine virtuelle (MV) industrielle ou en effectuant une traduction source-à-source ad hoc et complexe. Ce mémoire présente une alternative basée sur la superposition de machines virtuelles. Notre approche consiste à faire une traduction source-à-source d’un programme pendant son exécution pour exposer ses opérations de bas niveau au travers d’un modèle objet flexible. Ces opérations de bas niveau peuvent ensuite être redéfinies pendant l’exécution pour pouvoir en faire l’observation. Pour limiter la pénalité en performance introduite, notre approche exploite les opérations rapides originales de la MV sous-jacente, lorsque cela est possible, et applique les techniques de compilation à-la-volée dans la MV superposée. Notre implémentation, Photon, est en moyenne 19% plus rapide qu’un interprète moderne, et entre 19× et 56× plus lente en moyenne que les compilateurs à-la-volée utilisés dans les navigateurs web populaires. Ce mémoire montre donc que la superposition de machines virtuelles est une technique alternative compétitive à la modification d’un interprète moderne pour JavaScript lorsqu’appliqué à l’observation à l’exécution des opérations sur les objets et des appels de fonction.
Resumo:
Ce mémoire explore le lien entre les relations politiques entretenues par l’empire romain et le royaume sassanide et la représentation que faisaient des Perses les auteurs de l’antiquité tardive. Une tradition littéraire défavorable aux orientaux est en effet perceptible tout au long de l’antiquité : les Perses, notamment, sont ainsi cruels, lâches, efféminés, paresseux et perfides. Ces topoi, dont les racines se retrouvent dès le 5e siècle avant J.-C., évoluent-ils à la fin de l’antiquité, lorsque la puissance des Sassanides rivalise avec celle des empereurs? S’appuyant sur les travaux des dernières années sur l’altérité et sur l’ethnographie antique, ce mémoire s’efforce d’autre part de mieux comprendre les Romains en eux-mêmes en faisant l’analyse de leur rapport à leurs voisins.
Resumo:
Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.
Resumo:
Les défis conjoints du changement climatique d'origine anthropique et la diminution des réserves de combustibles fossiles sont le moteur de recherche intense pour des sources d'énergie alternatives. Une avenue attrayante est d'utiliser un processus biologique pour produire un biocarburant. Parmi les différentes options en matière de biocarburants, le bio-hydrogène gazeux est un futur vecteur énergétique attrayant en raison de son efficacité potentiellement plus élevé de conversion de puissance utilisable, il est faible en génération inexistante de polluants et de haute densité d'énergie. Cependant, les faibles rendements et taux de production ont été les principaux obstacles à l'application pratique des technologies de bio-hydrogène. Des recherches intensives sur bio-hydrogène sont en cours, et dans les dernières années, plusieurs nouvelles approches ont été proposées et étudiées pour dépasser ces inconvénients. À cette fin, l'objectif principal de cette thèse était d'améliorer le rendement en hydrogène moléculaire avec un accent particulier sur l'ingénierie métabolique et l’utilisation de bioprocédés à variables indépendantes. Une de nos hypothèses était que la production d’hydrogène pourrait être améliorée et rendue plus économiquement viable par ingénierie métabolique de souches d’Escherichia coli producteurs d’hydrogène en utilisant le glucose ainsi que diverses autres sources de carbone, y compris les pentoses. Les effets du pH, de la température et de sources de carbone ont été étudiés. La production maximale d'hydrogène a été obtenue à partir de glucose, à un pH initial de 6.5 et une température de 35°C. Les études de cinétiques de croissance ont montré que la μmax était 0.0495 h-1 avec un Ks de 0.0274 g L-1 lorsque le glucose est la seule source de carbone en milieu minimal M9. .Parmi les nombreux sucres et les dérivés de sucres testés, les rendements les plus élevés d'hydrogène sont avec du fructose, sorbitol et D-glucose; 1.27, 1.46 et 1.51 mol H2 mol-1 de substrat, respectivement. En outre, pour obtenir les interactions entre les variables importantes et pour atteindre une production maximale d'hydrogène, un design 3K factoriel complet Box-Behnken et la méthodologie de réponse de surface (RSM) ont été employées pour la conception expérimentale et l'analyse de la souche d'Escherichia coli DJT135. Le rendement en hydrogène molaire maximale de 1.69 mol H2 mol-1 de glucose a été obtenu dans les conditions optimales de 75 mM de glucose, à 35°C et un pH de 6.5. Ainsi, la RSM avec un design Box-Behken était un outil statistique utile pour atteindre des rendements plus élevés d'hydrogène molaires par des organismes modifiés génétiquement. Ensuite, l'expression hétérologue de l’hydrogénases soluble [Ni-Fe] de Ralstonia eutropha H16 (l'hydrogénase SH) a tenté de démontrer que la mise en place d'une voie capable de dériver l'hydrogène à partir de NADH pourrait surpasser le rendement stoechiométrique en hydrogène.. L’expression a été démontrée par des tests in vitro de l'activité enzymatique. Par ailleurs, l'expression de SH a restaurée la croissance en anaérobie de souches mutantes pour adhE, normalement inhibées en raison de l'incapacité de réoxyder le NADH. La mesure de la production d'hydrogène in vivo a montré que plusieurs souches modifiées métaboliquement sont capables d'utiliser l'hydrogénase SH pour dériver deux moles d’hydrogène par mole de glucose consommé, proche du maximum théorique. Une autre stratégie a montré que le glycérol brut pourrait être converti en hydrogène par photofermentation utilisant Rhodopseudomonas palustris par photofermentation. Les effets de la source d'azote et de différentes concentrations de glycérol brut sur ce processus ont été évalués. À 20 mM de glycérol, 4 mM glutamate, 6.1 mol hydrogène / mole de glycérol brut ont été obtenus dans des conditions optimales, un rendement de 87% de la théorie, et significativement plus élevés que ce qui a été réalisé auparavant. En prolongement de cette étude, l'optimisation des paramètres a également été utilisée. Dans des conditions optimales, une intensité lumineuse de 175 W/m2, 30 mM glycérol et 4.5 mM de glutamate, 6.69 mol hydrogène / mole de glycérol brut ont été obtenus, soit un rendement de 96% de la valeur théorique. La détermination de l'activité de la nitrogénase et ses niveaux d'expression ont montré qu'il y avait relativement peu de variation de la quantité de nitrogénase avec le changement des variables alors que l'activité de la nitrogénase variait considérablement, avec une activité maximale (228 nmol de C2H4/ml/min) au point central optimal. Dans la dernière section, la production d'hydrogène à partir du glucose via la photofermentation en une seule étape a été examinée avec la bactérie photosynthétique Rhodobacter capsulatus JP91 (hup-). La méthodologie de surface de réponse avec Box-Behnken a été utilisée pour optimiser les variables expérimentales de façon indépendante, soit la concentration de glucose, la concentration du glutamate et l'intensité lumineuse, ainsi que d'examiner leurs effets interactifs pour la maximisation du rendement en hydrogène moléculaire. Dans des conditions optimales, avec une intensité lumineuse de 175 W/m2, 35 mM de glucose, et 4.5 mM de glutamate,, un rendement maximal d'hydrogène de 5.5 (± 0.15) mol hydrogène /mol glucose, et un maximum d'activité de la nitrogénase de 246 (± 3.5) nmol C2H4/ml/min ont été obtenus. L'analyse densitométrique de l'expression de la protéine-Fe nitrogenase dans les différentes conditions a montré une variation significative de l'expression protéique avec un maximum au point central optimisé. Même dans des conditions optimales pour la production d'hydrogène, une fraction significative de la protéine Fe a été trouvée dans l'état ADP-ribosylée, suggérant que d'autres améliorations des rendements pourraient être possibles. À cette fin, un mutant amtB dérivé de Rhodobacter capsulatus JP91 (hup-) a été créé en utilisant le vecteur de suicide pSUP202. Les résultats expérimentaux préliminaires montrent que la souche nouvellement conçue métaboliquement, R. capsulatus DG9, produit 8.2 (± 0.06) mol hydrogène / mole de glucose dans des conditions optimales de cultures discontinues (intensité lumineuse, 175 W/m2, 35 mM de glucose et 4.5 mM glutamate). Le statut d'ADP-ribosylation de la nitrogénase-protéine Fe a été obtenu par Western Blot pour la souche R. capsulatus DG9. En bref, la production d'hydrogène est limitée par une barrière métabolique. La principale barrière métabolique est due au manque d'outils moléculaires possibles pour atteindre ou dépasser le rendement stochiométrique en bio-hydrogène depuis les dernières décennies en utilisant les microbes. À cette fin, une nouvelle approche d’ingénierie métabolique semble très prometteuse pour surmonter cette contrainte vers l'industrialisation et s'assurer de la faisabilité de la technologie de la production d'hydrogène. Dans la présente étude, il a été démontré que l’ingénierie métabolique de bactéries anaérobiques facultatives (Escherichia coli) et de bactéries anaérobiques photosynthétiques (Rhodobacter capsulatus et Rhodopseudomonas palustris) peuvent produire de l'hydrogène en tant que produit majeur à travers le mode de fermentation par redirection métabolique vers la production d'énergie potentielle. D'autre part, la méthodologie de surface de réponse utilisée dans cette étude représente un outil potentiel pour optimiser la production d'hydrogène en générant des informations appropriées concernant la corrélation entre les variables et des producteurs de bio-de hydrogène modifiés par ingénierie métabolique. Ainsi, un outil d'optimisation des paramètres représente une nouvelle avenue pour faire un pont entre le laboratoire et la production d'hydrogène à l'échelle industrielle en fournissant un modèle mathématique potentiel pour intensifier la production de bio-hydrogène. Par conséquent, il a été clairement mis en évidence dans ce projet que l'effort combiné de l'ingénierie métabolique et la méthodologie de surface de réponse peut rendre la technologie de production de bio-hydrogène potentiellement possible vers sa commercialisation dans un avenir rapproché.
Resumo:
Les biphényles polychlorés (BPC) sont des contaminants de l’environnement, omniprésents dans la chaîne alimentaire, qui ont une propension à la bioaccumulation dans le corps humain. Ils traversent la barrière placentaire et sont suspectés d’induire des altérations du développement mental ou moteur chez des enfants exposés aux BPC pendant la vie intrautérine. Ces effets s’expliqueraient notamment par la capacité des BPC à perturber l’homéostasie de la fonction thyroïdienne chez la femme enceinte ou le nouveau-né. Malgré le nombre considérable d’études épidémiologiques réalisées, la relation entre l’exposition prénatale aux BPC et les altérations du développement mental et moteur ou de la fonction thyroïdienne n’a pas encore été clairement établie ; d’une part, différents bioindicateurs de l’exposition ont été employés (différents congénères de BPC mesurés et différentes matrices biologiques ou unités de mesure) limitant la comparaison directe entre les études et, d’autre part, le lien de causalité entre les BPC et les effets ciblés n’a pas été vérifié avec des critères épidémiologiques reconnus. Cette étude a été réalisée afin d’analyser la relation « concentration biologique de BPC – effet » entre l'exposition aux BPC de la mère pendant la grossesse et le développement mental et moteur de l’enfant ainsi que les paramètres de la fonction thyroïdienne chez la femme enceinte et le nouveau-né à partir d’une analyse systématique des études épidémiologiques disponibles en standardisant les données biologiques entre les études. Sur la base de considérations toxicocinétiques et en appliquant des facteurs de conversion établis à partir de la littérature épidémiologique publiée, les concentrations des BPC rapportées dans les différentes études revues ont été standardisées en termes d’équivalent de BPC totaux par kilogramme de lipides dans le plasma maternel (µg PCBMPEQ/kg de lipides). Afin d’analyser la possibilité d’une association causale entre l’exposition aux BPC et les effets d’intérêt, les critères de Hill ont été appliqués systématiquement à l’ensemble des associations « concentrations biologiques standardisées – effet ciblés ». En appliquant cette approche aux données publiées de 20 études épidémiologiques sur la relation entre les BPC et le poids à la naissance, l’exposition prénatale aux BPC, aux niveaux décrits (moyenne < 1920 µg PCBMPEQ/kg de lipides), n’apparaît pas associée de manière significative à un poids à la naissance inférieur à 2500 g dans les populations étudiées. Par ailleurs, en considérant des études menées sur le suivi de neuf cohortes d’enfants, la probabilité qu’une altération cognitive ou motrice cliniquement significative, qui persiste entre la naissance et l’âge scolaire, soit observée à des concentrations de BPC totaux inférieures à 1000 µg PCBMPEQ/kg de lipides semble faible. Aussi, à partir de l’analyse systématique des données de 17 études épidémiologiques, l’exposition aux BPC aux niveaux standardisés décrits (moyenne < 1000 µg PCBMPEQ/kg de lipides) ne semble pas induire de variation des hormones thyroïdiennes ou de TSH en dehors des intervalles physiologiques reconnus chez la femme enceinte et le nouveau-né. Ainsi, la valeur biologique de référence établie à 1000 µg PCBMPEQ/kg de lipides pour prévenir les effets sur le développement devrait aussi prévenir les effets sur le poids à la naissance et la fonction thyroïdienne chez la femme enceinte ou le nouveau-né. Les résultats présentés dans cette thèse fournissent aux autorités de santé publique responsables de l’établissement de directives et des normes de l’information utile à la révision des critères sanitaires visant à protéger des effets des BPC sur le développement de l’enfant et la fonction thyroïdienne chez la femme enceinte et le nouveau-né.
Resumo:
La vie des femmes du continent africain et de leurs enfants continue d’être mise en danger lors de chaque accouchement car les risques de décès maternels et infantiles sont encore très élevés. Il est estimé chaque année à environ le quart du million le nombre de décès maternel et de près de quatre millions celui des enfants de moins de cinq ans. La comparaison de la situation sanitaire avec d’autres contextes permet de mieux cerner l’ampleur du problème : en Afrique sub-Saharienne, le risque de décès lié à la grossesse est de l’ordre de 1 pour 31, alors qu’il n’est que de 1 pour 4300 dans les pays industrialisés. Cette situation est évitable et, le plus souvent, résulte de la sous ou non-utilisation des services de santé maternelle, du manque de structures adéquates de soins ou de personnel de santé qualifié. Notre thèse cherche à comprendre la manière dont les inégalités de genre au sein du ménage et dans la communauté renforcent les inégalités quant à l’utilisation des services de santé maternelle, ainsi qu’aux relations empiriques qui lient les différents recours aux soins. Concrètement, elle vise à 1) proposer une mesure des normes de genre favorables à la violence contre les femmes et à analyser son influence sur leur prise de décision au sein du ménage, 2) analyser simultanément l’influence de ces normes et de l’autonomie des femmes sur le recours aux soins prénatals et à l’accouchement assisté et finalement, 3) cerner l’influence des soins prénatals sur le recours à l’accouchement assisté. Chacun de ces objectifs se heurte à un problème méthodologique substantiel, soit de mesure ou de biais de sélection, auxquels l’approche par modèles d’équations structurelles que nous avons adoptée permet de remédier. Les résultats de nos analyses, présentés sous forme d’articles scientifiques, s’appuient sur les données issues des Enquêtes Démographiques et de Santé (EDS) du Ghana, du Kenya, de l’Ouganda et de la Tanzanie et concernent les femmes vivant en milieu rural. Notre premier article propose une mesure des normes de genre et, plus exactement, celles liées à la violence contre les femmes en recourant à l’approche des variables latentes. Les cinq questions des EDS relatives à l’attitude des femmes sur la légitimation de la violence ont permis de saisir cette mesure au niveau contextuel. Les résultats suggèrent d’une part que cette mesure a de bons critères de validité puisque l’Alpha de Cronbach varie de 0.85 pour le Kenya à 0.94 pour le Ghana; les chi-deux sont non significatifs partout; le RMSEA est en dessous de 0.05; le CFI supérieur à 0.96 et les saturations sont pour la plupart supérieures à 0.7 dans tous les pays. D’autre part, à l’aide du modèle d’équations structurelles multiniveaux, nous avons trouvé qu’au-delà de leur propre attitude envers la violence contre les femmes, celles qui vivent dans un milieu où les normes de genres sont plus favorables à la violence ont plus de chances d’être de faible autonomie ou sans autonomie (comparativement à forte autonomie) dans l’ensemble des pays étudiés. Le second article documente l’influence des inégalités de genre, cernées au niveau contextuel par les normes favorables à la violence contre les femmes et au niveau individuel par l’autonomie de prise de décision au sein du ménage, sur la survenue des soins prénatals au cours du premier trimestre et sur les recours à au moins 4 consultations prénatales et à l’accouchement assisté. En utilisant également les modèles d’équations structurelles multiniveaux sur les mêmes données du premier article, nous constatons que chacune de ces variables dépendantes est fortement influencée par la grappe dans laquelle la femme vit. En d’autres mots, son lieu de résidence détermine le comportement de santé maternelle que l’on adopte. De même, en contrôlant pour les autres variables explicatives, nos résultats montrent que les femmes qui vivent dans un milieu où les normes de genre liées à la violence contre les femmes sont élevées ont, en moyenne, une plus grande chance de ne pas accoucher auprès d’un personnel qualifié au Ghana et en Ouganda, de ne pas débuter leurs soins prénatals dans le premier trimestre dans les mêmes pays, et de ne pas recourir à au moins quatre consultations prénatales en Tanzanie. Par contre, cette variable contextuelle n’influence pas significativement le recours aux soins de santé maternelle au Kenya. Enfin, les résultats montrent que les normes de genre favorables à la violence contre les femmes sont plus déterminantes pour comprendre le recours aux soins de santé maternelle dans les pays étudiés que l’autonomie de prise de décision de la femme. Dans le cadre du troisième et dernier article empirique de la thèse, nous nous sommes intéressés à l’importance des soins prénatals dans le processus de recours à l’accouchement assisté et à la place du contenu des soins reçus avant l’accouchement dans cette relation. Cet article met en exergue l’existence de biais d’endogénéité au Kenya et en Tanzanie, où sans sa prise en compte, l’effet des soins prénatals sur le recours à l’accouchement auprès d’un personnel qualifié serait fortement biaisé. De plus, il ressort qu’à l’exception du Ghana et dans une moindre mesure de la Tanzanie, cet effet est totalement médiatisé par le contenu des soins prénatals que les femmes reçoivent. L’article met ainsi en relief le rôle des prestataires de soins qui pour atteindre plus efficacement les populations doivent agir en tant que leaders au sein de leur communauté.
Resumo:
Les silhouettes ambiguës, comme celle du lapin/canard (Jastrow, 1899), ont été étudiées selon plusieurs approches. Toutefois, les figures prises en exemples dans la large majorité des études sont généralement les mêmes. Cette redondance des images ambiguës utilisées pousse à croire qu'elles sont peut-être assez rares. Certaines observations anecdotiques suggèrent cependant qu’elles seraient au contraire relativement fréquentes. C'est ce que cherche à déterminer cette expérience. Nous avons utilisé des modèles tridimensionnels d'animaux projetés de façon aléatoire afin d'en extraire les silhouettes dont la complexité périmétrique a ensuite été modifiée par lissage. Treize sujets ont dû indiquer ce qu'ils percevaient dans l'image. Nous démontrons qu’une silhouette est classée en moyenne dans 1.9079 catégories de base. Nous avons également démontré qu’une diminution de la complexité périmétrique rend d’abord une silhouette plus ambiguë pour éventuellement atteindre un sommet (équivalent à environ six fois la complexité périmétrique d’un disque) à la suite duquel l’ambiguïté chute.
Resumo:
Mesures effectuées dans le laboratoire de caractérisation optique des semi-conducteurs du Prof. Richard Leonelli du département de physique de l'université de Montréal. Les nanofils d'InGaN/GaN ont été fournis par le groupe du Prof. Zetian Mi du département de génie électrique et informatique de l'université McGill.
Resumo:
La multiplication des formations professionnelles universitaires (FPU) a poussé plusieurs chercheurs à s’intéresser aux caractéristiques de ces formations, leur perméabilité à une multitude de pressions étant l’une des plus fréquemment relevées. Ainsi, les unités responsables de FPU sont confrontées à des pressions diverses et souvent contradictoires. Si les écrits scientifiques sur les FPU témoignent bien de cette réalité, ceux-ci nous informent moins bien de la manière dont les unités responsables de ce type de formation répondent à ces pressions. Cette thèse a donc fait appel à plusieurs concepts de l’approche institutionnelle issue de la sociologie des organisations pour analyser l’évolution récente de la FPU destinée aux directions d’établissement scolaire (DES) du Québec, un champ qui a connu d’importantes transformations au cours des vingt-cinq dernières années. Construite sur une étude de cas interprétative dite à « unités enchâssées » (Yin, 2003), cette thèse s’est intéressée à l’évolution de cette formation dans deux unités universitaires francophones : le Département d’administration et fondements de l’éducation de l’Université de Montréal et le Département de gestion de l’éducation et de la formation de l’Université de Sherbrooke. Couvrant la période allant des années universitaires 1988-1989 à 2008-2009, elle repose sur une analyse du discours produit par les deux unités sélectionnées, et, dans une moindre mesure, par les organisations qui composent le champ organisationnel de la formation des DES au Québec. Pour ce faire, trois corpus documentaires distincts ont été assemblés et une série d’entrevues (dix par unités) ont été réalisées auprès d’informateurs-clés (doyens, directeurs de département/section, responsables de formation). Les résultats montrent comment ces unités tendent à se rendre isomorphes à leur environnement, et comment cela se fait en réponse à des pressions institutionnelles et de compétition diverses émanant d’un champ organisationnel en pleine transformation. En fait, poussée par des changements plus profonds touchant l’administration scolaire, cette transformation amène un champ organisationnel plus structuré, où les attentes concernant la FPU destinée aux DES sont plus explicites. Cela n’est pas sans conséquence sur l’évolution de la formation dans les deux unités. En effet, celle-ci connaît des changements importants, dont plusieurs convergent autour d’une logique de professionnalisation, d’un archétype spécifique de formation (un continuum de formation de 2e cycle, au cœur duquel se trouve un diplôme de deuxième cycle) et d’outils conséquents (conditions d’admission et populations étudiantes élargies; flexibilité dans la structure du programme et professionnalisation des activités; équipes enseignantes plus diversifiées). Les deux unités n’apparaissent cependant pas impuissantes devant ces pressions. Les résultats témoignent d’un certain niveau d’agence des deux unités, qui déploient un éventail de stratégies en réaction à ces pressions. Ces stratégies évoluent au cours de la période observée et visent surtout à gérer la situation de « pluralisme institutionnel » à laquelle elles sont confrontées, notamment entre les pressions externes de nature plus professionnalisantes, et les pressions intraorganisationnelles de nature plus académisantes. Ainsi, plusieurs des stratégies et tactiques composant la typologie d’Oliver (1991) ont été observées, les stratégies de compromis et de manipulation occupant, dans les deux unités, une place de plus en plus importante au gré de l’évolution du champ. La mise en œuvre de ces stratégies vise surtout à maintenir la légitimité de leur offre de formation devant des pressions plurielles et parfois contradictoires. Les résultats montrent aussi que la nature de l’entrepreneuriat institutionnel en place détermine en grande partie les stratégies qu’elles déploient. Cet « entrepreneuriat » est au cœur de l’évolution de la formation. Cependant, les résultats montrent aussi comment celui-ci est en partie contraint ou, a contrario, stimulé par les choix historiques qui ont été faits par les unités et leur université, et par l’empreinte et les dépendances de sentier qui en découlent. Ces résultats apportent un éclairage « institutionnaliste » sur la manière dont deux unités universitaires ont réagi, à une période donnée, aux pressions diverses provenant de leur environnement. Ils brossent un portrait complexe et nuancé qui vient à la fois (1) approfondir notre compréhension de cette spécificité des FPU, (2) approfondir notre compréhension de l’évolution récente de la FPU destinée aux DES québécoises, et (3) confirmer la puissance d’analyse de plusieurs concepts tirés de l’approche institutionnelle.
Resumo:
Les entraîneurs en sports acrobatiques disposent de peu d’outils permettant d’améliorer leur compréhension des saltos vrillés et la performance des athlètes. L’objectif de ce mémoire était de développer un environnement graphique de simulation numérique réaliste et utile des acrobaties aériennes. Un modèle composé de 17 segments et de 42 degrés de liberté a été développé et personnalisé à une athlète de plongeon. Un système optoélectronique échantillonné à 300 Hz a permis l’acquisition de huit plongeons en situation réelle d’entraînement. La cinématique articulaire reconstruite avec un filtre de Kalman étendu a été utilisée comme entrée du modèle. Des erreurs quadratiques moyennes de 20° (salto) et de 9° (vrille) entre les performances simulées et réelles ont permis de valider le modèle. Enfin, une formation basée sur le simulateur a été offerte à 14 entraîneurs en sports acrobatiques. Une augmentation moyenne de 11 % des résultats aux questionnaires post-test a permis de constater le potentiel pédagogique de l’outil pour la formation.
Resumo:
Mon étude vise à évaluer la propagation d’une zoonose en émergence au Québec, la maladie de Lyme, en conséquence du réchauffement climatique. Le pathogène responsable de cette infection, Borrelia burgdorferi, est transmis par l’intermédiaire d’une tique parasite, Ixodes scapularis, de plus en plus commune au Québec en raison de l’augmentation de la température moyenne du climat depuis les dernières décennies. Puisque la tique a une capacité de déplacement très restreinte, on s'attend à ce que sa dispersion soit liée à celle de son hôte primaire, soit la souris à pattes blanches (Peromyscus leucopus). Je décrirai donc d’abord les espèces impliquées, leur écologie et leur rôle dans ce système à trois niveaux (hôte/pathogène/vecteur). Puis, à l’aide de séquences d’ADN mitochondrial, je comparerai la phylogéographie des deux principales espèces de souris au Québec, la souris à pattes blanches et la souris sylvestre (P. maniculatus). Des analyses d’arbres et de réseaux d’haplotypes ont révélé des différences significatives dans la structure génétique et ainsi montré que les populations de P. leucopus seraient en expansion dans le sud du Québec. Cette étude nous a finalement permis d’émettre des hypothèses sur le patron d’établissement de la maladie de Lyme au Québec.
Resumo:
Les vagues de bateau ajoutent une pression supplémentaire sur les berges de rivières et doivent être considérées dans les modèles de prédiction des taux de recul des berges. L’objectif de cette étude est d’examiner le rôle des vagues de bateau sur l’écoulement et le transport en suspension le long des berges en milieu fluvial. Pour atteindre cet objectif, nous utilisons un transect perpendiculaire à la berge de quatre courantomètres électromagnétiques (ECMs) mesurant deux dimensions de l’écoulement et deux turbidimètres (OBSs) placés dos à dos, orientés vers la berge et le large pour mesurer les conditions moyennes et turbulentes de l’écoulement longitudinal et vertical ainsi que les flux de sédiments en suspension provoqués par les vagues. Une chaloupe à moteur de 16 pieds, équipée d’un moteur 40 hp, a été utilisée afin de générer des vagues. Nous avons mesuré l’effet de trois distances à partir de la berge (5, 10, 15 m) et trois vitesses de bateau (5, 15 et 25 km/h) et cinq répliques de chaque combinaison de distance et de vitesse ont été réalisées, totalisant 45 passages. Nous avons caractérisé la variabilité des conditions d’écoulement, de vagues et de transport de sédiments et nous avons réalisé des analyses spectrales afin de séparer les portions oscillatoire et turbulente de l’écoulement généré par les vagues de bateau. L’effet de la distance et de la vitesse du bateau sur le transport de sédiments est non-linéaire et la réponse sédimentaire induite par les passages de bateau montre une variabilité importante entre les répliques et les deux sondes OBS, ce qui suggère un changement morphologique induit par les vagues de bateau. Les corrélations entre les variables d’écoulement et de transport montrent l’importance des relations entre le cisaillement et la puissance de la portion turbulente de l’écoulement avec le transport de sédiments. Cette étude a permis de quantifier les relations entre la dynamique des vagues et les flux de concentrations de sédiments en suspension, ce qui représente une contribution importante au développement de mesures de mitigation dans les environnements fluviaux où les berges sont fragilisées par le trafic plaisancier.
Resumo:
Certaines études récentes confirment que les tests de personnalité sont largement utilisés à des fins de sélection dans les organisations nord-américaines et que leur fréquence d’utilisation continue de croître (Boudrias, Pettersen, Longpré, & Plunier, 2008; Rothstein & Goffin, 2006). Or, les résultats des recherches portant sur le lien prévisionnel entre la personnalité et le rendement global au travail sont peu convaincants (Morgeson et al., 2007b; Murphy & Dzieweczynski, 2005). La présente thèse vise à vérifier si une amélioration des liens prédictifs entre la personnalité et le rendement au travail pourrait être obtenue en modifiant la façon d’opérationnaliser les variables prévisionnelles issues des inventaires de personnalité et en précisant les critères à prédire de manière à les rendre plus spécifiques et mieux arrimés. Pour ce faire, la capacité prévisionnelle d’une approche centrée sur le critère, c’est-à-dire l’utilisation de composites de traits de personnalité, est comparée à l’approche traditionnelle centrée sur le prédicteur, dans ce cas-ci, les cinq grands facteurs de personnalité (Big Five). D’autre part, le rendement au travail est opérationnalisé sous l’angle des compétences en emploi, ce qui permet d’en différencier les dimensions et d’augmenter la spécificité des critères. Des hypothèses précisant les facteurs de personnalité qui devraient permettre de prédire chacune des compétences évaluées sont testées. De plus, des hypothèses précisant les traits de personnalité servant à créer les variables composites sont aussi testées. Finalement, une hypothèse portant sur la comparaison de la puissance prévisionnelle des deux approches est mise à l’épreuve. L’échantillon de la recherche est composé de 225 employés occupant divers emplois au sein d’une grande organisation québécoise. Ils ont complété un inventaire de personnalité au travail dans le cadre des processus de sélection de l’organisation. Leur supérieur immédiat a effectué une évaluation de leurs compétences et de leur rendement au moins six (6) mois après leur embauche. Les résultats démontrent que la maîtrise des compétences est mieux prédite par une approche centrée sur le prédicteur (c’est-à-dire les Big Five) que par une approche centrée sur le critère (c’est-à-dire les variables composites). En effet, seules trois hypothèses portant sur le lien entre certains facteurs de personnalité et les compétences se sont avérées partiellement soutenues. Les résultats d’analyses statistiques supplémentaires, réalisées a posteriori afin de mieux comprendre les résultats, laissent supposer la présence de variables modératrices, dont, notamment, les caractéristiques situationnelles. En somme, il nous semble plus probable d’arriver, dans le futur, à trouver une méthode structurée de création des variables composites qui permettrait d’obtenir des liens prévisionnels plus puissants que de découvrir des variables composites qui seraient elles-mêmes généralisables à tous les emplois et à toutes les organisations. Par ailleurs, nous encourageons les praticiens à porter attention à la façon d’utiliser les données de personnalité. Pour le moment, il semble que les facteurs de personnalité permettent de prédire, en partie, le rendement futur en emploi. Or, les preuves empiriques concernant l’efficacité d’autres approches demeurent relativement rares et, surtout, insuffisantes pour guider fidèlement les praticiens à travers les choix nécessaires à leur utilisation.
Resumo:
Die morawische Nacht (2008) de Peter Handke représente un tournant: l’auteur y renonce à son engagement politique concernant les Balkans et il revient au « royaume de la poésie ». En reprenant des concepts de la théorie de l’espace dans les études culturelles, cette étude examine les moyens narratifs à partir desquels Handke projette une nouvelle image des Balkans. L’écrivain autrichien déconstruit son propre mythe du « Neuvième Pays » (Die Wiederholung, 1986), dont il a sans cesse défendu le concept dans les années 1990 (Eine winterliche Reise, 1996; Zurüstungen für die Unsterblichkeit, 1997; Die Fahrt im Einbaum, 1999; Unter Tränen fragend, 1999). Dans Die morawische Nacht, de fréquentes allusions et connotations nous ramènent aux œuvres antérieures, mentionnées ci-dessus. La signification et la fonction des nouvelles images des Balkans ne sont pas comprises que dans le cadre des références intertextuelles. Par l’entremise d’un maniement raffiné et ludique de l’ancien contenu et des vieilles structures, objets d’un nouvel usage, la poétique de Handke, toujours basée sur les soi-disant « Zwischenräume » (espaces intermédiaires) prouve toute sa puissance. Même si les Balkans perdent leur caractère absolu, ils continuent cependant à servir comme moyen de critique de la société moderne qui aspire cette fois à la mondialisation. Pendant que Handke réfute ironiquement sa naïveté de rechercher l’absolu dans le monde extérieur, le récit se révèle être le seul royaume où la paix et l’harmonie peuvent être créées.