513 resultados para Théorie des matrices aléatoires
Resumo:
La présente étude visait à développer un protocole de fixation et d'échantillonnage pour le poumon équin suivant les directives publiées sur l’utilisation d’une approche stéréologique de type « design-based ». Les poumons gauches de chevaux contrôles et atteints du souffle ont été fixés avec du formaldéhyde 10% pendant 48h à une pression constante de 25-30 cm d’H2O. Les poumons ont été sectionnés en 20-21 tranches d’une épaisseur d'environ 2,5 cm chacune; de 10-11 tranches ont été sélectionnées de façon aléatoire et systématique pour la mesure du volume de référence avec la méthode de Cavalieri. Un protocole d’échantillonnage systématique, aléatoire et uniforme utilisant le principe du « smooth fractionator » et un poinçon à biopsie de 17 mm ont été utilisés pour échantillonner une fraction représentative de chaque poumon. Les méthodes d’échantillonnage de sections verticales, uniformes et aléatoires (VUR) et d’échantillonnage isotropique, uniforme et aléatoire (IUR) ont toutes deux été effectuées pour comparer le nombre de voies respiratoires en coupe perpendiculaire obtenues à partir de chaque méthode. L'architecture globale et la qualité des tissus fixés ont également été évaluées. Des spécimens pulmonaires équins ont été échantillonnés avec succès selon un protocole visant à produire des données morphométriques valides. Les tissus ont été fixés avec un minimum d'artéfacts et contenaient une quantité suffisante de voies respiratoires en coupe perpendiculaire dans les deux types d’échantillons. En conclusion, un protocole de fixation et d'échantillonnage adapté au poumon équin permettant l'utilisation d'une approche stéréologique de type « design-based » a été élaboré pour l’étude du remodelage des voies respiratoires.
Resumo:
Les mesures cosmologiques les plus récentes ont montré la présence d’un type de matière exotique constituant 85% de la masse de l’univers. Ce type de matière non baryonique serait formé de particules neutres, non relativistes, massives et interagissant faiblement avec la matière baryonique. L’ensemble des candidats est regroupé sous le nom générique WIMP (Weakly Interactive Massive Particles). L’expérience PICASSO (Projet d’Identification des CAndidats Supersymétriques de la matière SOmbre) est une expérience utilisant des détecteurs à seuil d’énergie contenant des gouttelettes surchauffées constituées de C4F10. Cette technique de détection est basée sur le principe de la chambre à bulles. Le projet PICASSO a pour but de détecter directement une particule de matière sombre. Le principe de détection est qu’une particule de matière sombre interagissant avec le liquide actif engendre un recul nucléaire du 19F. L’énergie de recul serait suffisante pour engendrer une transition de phase accompagnée d’un signal acoustique enregistrée par des senseurs piézoélectriques. Dans le cadre de ce mémoire, une simulation du taux de comptage de l’étalonnage des détecteurs PICASSO soumis à des neutrons monoénergétiques a été effectuée en utilisant la théorie de Seitz qui décrit les critères pour qu’une transition de phase ait lieu pour un liquide en état de surchauffe. De plus, un modèle calculant le signal acoustique émis lors d’une transition de phase engendré par différents types de radiations a été créé permettant de caractériser la discrimination entre différents bruits de fond en fonction de l’énergie de seuil. Finalement, un outil d’analyse, la localisation des évènements, a été utilisé pour appliquer des coupures sur le volume dans le but d’améliorer la discrimination alpha-neutron.
Resumo:
L’apport disproportionné aux taux de criminalité des membres des gangs de rue est, nul doute, une proposition empirique robuste. De nombreuses études ont conclu que l’association aux gangs de rue est un facteur de risque supplémentaire à celui que constitue déjà la fréquentation de pairs délinquants au nombre des meilleurs prédicteurs de la délinquance avec les antécédents criminels et les traits antisociaux de la personnalité. Pourtant, la contribution spécifique de l’association aux gangs de rue à l’explication de la délinquance est largement méconnue. Au nombre des variables les plus souvent citées pour l’expliquer figure néanmoins le concept de l’adhésion à la culture de gang qui n’a toutefois jamais été spécifiquement opérationnalisé. Le but de la thèse est d’étudier la contribution spécifique de l’adhésion d’un contrevenant à la culture des gangs de rue à l’explication de la délinquance. Plus précisément, elle a comme objectifs de définir la culture des gangs de rue, d’opérationnaliser l’adhésion à la culture des gangs de rue, d’examiner la fidélité de la mesure de l’adhésion à la culture de gang et d’étudier sa relation avec la nature, la variété et la fréquence des conduites délinquantes de contrevenants placés sous la responsabilité des centres jeunesse et des services correctionnels du Québec. Trois articles scientifiques, auxquels un chapitre régulier est joint, ont servi la démonstration de la thèse. D’abord, le premier article présente les démarches relatives au développement de la première Mesure de l’adhésion à la culture de gang, la MACg. Plus précisément, l’article présente la recension des écrits qui a permis de proposer une première définition de la culture de gang et d’opérationnaliser le concept. Il fait aussi état de la démarche de la validation de la pertinence de son contenu et des données préliminaires qui révèlent la très bonne cohérence interne de la MACg. Cette première étude est suivie de la présentation, dans le cadre d’un chapitre régulier, des résultats de l’examen de la cotation des principaux indicateurs de la culture de gang. Cette démarche constitue un complément nécessaire à l’examen de la validité apparente de la MACg. Les résultats révèlent des degrés de concordance très satisfaisants entre les observations de divers professionnels des centres jeunesse et des services correctionnels du Québec qui ont été invités à coter les indicateurs de la culture de gang à partir de deux histoires fictives d’un contrevenant mineur et d’un second d’âge adulte. Puis, le deuxième article présente les résultats d’un premier examen de la fidélité de la MACg à l’aide du modèle de Rasch de la Théorie de la réponse aux items. Ses résultats soutiennent l’unidimensionnalité de la MACg et sa capacité à distinguer des groupes d’items et de personnes le long d’un continuum de gravité d’adhésion à la culture de gang. Par contre, le fonctionnement différentiel et le mauvais ajustement de certains items sont observés, ainsi que l’inadéquation de la structure de réponses aux items (de type Likert) privilégiée lors de l’élaboration de la MACg. Une version réaménagée de cette dernière est donc proposée. Enfin, le troisième et dernier article présente les résultats de l’examen de la relation entre la délinquance et l’adhésion d’un contrevenant à la culture de gang telle que mesurée par la MACg. Les résultats soutiennent l’apport unique de l’adhésion d’un contrevenant à la culture de gang à la diversité et à la fréquence des conduites délinquantes auto-rapportées par des contrevenants placés sous la responsabilité des centres jeunesse et des services correctionnels du Québec. Le score à l’échelle originale et réaménagée de la MACg s’avère, d’ailleurs, un facteur explicatif plus puissant que l’âge, la précocité criminelle, les pairs délinquants et la psychopathie au nombre des meilleurs prédicteurs de la délinquance. L’étude met aussi en lumière l’étroite relation entre une forte adhésion à la culture de gang et la présence marquée de traits psychopathiques annonciatrice de problèmes particulièrement sérieux. Malgré ses limites, la thèse contribuera significativement aux développements des bases d’un nouveau modèle explicatif de l’influence de l’association aux gangs de rue sur les conduites des personnes. La MACg pourra aussi servir à l’évaluation des risques des hommes contrevenants placés sous la responsabilité du système de justice pénale et à l’amélioration de la qualité des interventions qui leur sont dédiées.
Resumo:
L’infarctus du myocarde est une des conséquences possibles de l’ischémie cardiaque; il se traduit par la mort des cardiomyocytes se situant en aval du blocus coronaire, puis par la formation d’une cicatrice formée essentiellement de dépôts de matrices extracellulaires sécrétées par les myofibroblastes. Nestine est une protéine filamenteuse intermédiaire de classe VI couramment associée à la prolifération et à la migration cellulaire. Chez l’homme et les rongeurs, à la suite d’un infarctus du myocarde, une sous-population de cardiomyocytes localisée à la zone infarcie/péri-infarcie exprimait la forme striée de nestine. Le but principal de cette étude était de déterminer la source cellulaire des cardiomyocytes nestine (+) observée dans le cœur infarci ainsi que le mécanisme de signalisation cellulaire sous-jacent impliqué dans l’expression de nestine. L’utilisation de souris transgénique a révélé que l’augmentation des cardiomyocytes nestine (+) dans le cœur infarci des souris n’était pas attribuable à la différenciation de cellules souches/progénitrices nestine (+) en cardiomyocytes nestine (+). Le traitement des cardiomyocytes ventriculaires de rats néonataux avec l’activateur des protéines kinases C PDBu et l’inhibition concomitante des voies p38 MAPK a mené à l’augmentation du nombre de ces cellules exprimant nestine. De plus, une population importante de cardiomyocytes ventriculaires de rats néonataux a incorporé la bromodéxoxyuridine, signe d’une capacité à réentrer dans le cycle cellulaire et à synthétiser de l’ADN. Sur la base de ces observations, l’apparition de cardiomyocytes nestine (+) dans le cœur infarci des rongeurs et des hommes pourrait possiblement refléter une sous-population de cardiomyocytes en prolifération tentant de régénérer le cœur infarci.
Resumo:
Les pyréthrinoïdes sont des insecticides largement utilisés. La population générale y est exposée par l’alimentation tandis que les travailleurs agricoles y sont exposés lors de tâches diverses en champs. Leurs effets neurotoxiques, immunitaires et endocriniens potentiels en font des composés à surveiller pour assurer la santé de la population. La mesure de biomarqueurs d’exposition, qui consiste à quantifier la concentration dans l’organisme d’une substance ou de ses métabolites, permet d’estimer les doses absorbées. Les biomarqueurs peuvent également être des molécules répondant à un stress physiologique, identifiées comme des biomarqueurs d’effets. Pour raffiner les stratégies de biosurveillance de l’exposition, on se doit de bien connaître la toxicocinétique d’un xénobiotique; actuellement, les études de biosurveillance considèrent rarement la variabilité temporelle, intra-invidivuelle et inter-individuelle, qui pourrait influencer l’estimation de l’exposition. L’objectif de la thèse est donc d’appliquer une approche cinétique pour l’évaluation de l’exposition aux pyréthrinoïdes en conditions contrôlées et en milieu de travail. Dans un volet exploratoire, l’effet de cette exposition sur des changements métaboliques précoces a également évalué. Trois métabolites finaux (cis-DCCA, trans-DCCA et 3-PBA) de deux pyréthrinoïdes les plus utilisés, soient la perméthrine et la cyperméthrine, ont été mesurés dans le plasma et l’urine de six volontaires oralement exposés à une dose équivalente à la dose de référence. Une demi-vie moyenne (t½) d’élimination apparente du trans-DCCA, cis-DCCA et 3-PBA dans le plasma de 5,1, 6,9 et 9,2 h, respectivement, a été obtenue après exposition orale à la cyperméthrine, comparativement à 7,1, 6,2 et 6,5 h après exposition à la perméthrine. Dans l’urine, la demi-vie d'élimination apparente (t½) était de 6,3, 6,4 et 6,4 h pour le trans-DCCA, cis-DCCA et 3-PBA, respectivement, après administration de la cyperméthrine comparé à 5,4, 4,5 et 5,7 h après administration de la perméthrine. Les profils temporels étaient semblables suite à l’exposition à la cyperméthrine et perméthrine. Ensuite, une étude en milieu agricole a été réalisée avec la participation de travailleurs pour évaluer leur exposition et raffiner les stratégies de biosurveillance. La variabilité intra-individuelle dans les niveaux de biomarqueurs d’exposition chez plusieurs travailleurs était plus importante que la variabilité inter-individuelle. Les échantillons urinaires ont également été utilisés pour identifier des modifications du métabolome pouvant fournir de nouveaux biomarqueurs d’effets précoces. Chez les travailleurs, une augmentation de l'hippurate urinaire (p <0,0001) a été observée après exposition aux pyréthrinoïdes, un biomarqueur de la conjugaison de l’acide benzoïque. En conclusion, cette étude a permis de mieux documenter la cinétique de biomarqueurs d’exposition aux pyréthrinoïdes dans des conditions contrôlées et réelles afin de raffiner les stratégies de biosurveillance. Elle a aussi contribué à renseigner sur les niveaux d’exposition agricole québécois et sur les paramètres professionnels associés à une plus forte exposition. Ce projet s’insère dans une démarche d’analyse de risque en santé au travail.
Resumo:
La présente thèse porte sur les calculs utilisant la théorie de la fonctionnelle de la densité (DFT) pour simuler des systèmes dans lesquels les effets à longue portée sont importants. Une emphase particulière est mise sur les calculs des énergies d’excitations, tout particulièrement dans le cadre des applications photovoltaïques. Cette thèse aborde ces calculs sous deux angles. Tout d’abord, des outils DFT déjà bien établis seront utilisés pour simuler des systèmes d’intérêt expérimental. Par la suite, la théorie sous-jacente à la DFT sera explorée, ses limites seront identifiées et de nouveaux développements théoriques remédiant à ceux-ci seront proposés. Ainsi, dans la première partie de cette thèse, des calculs numériques utilisant la DFT et la théorie de la fonctionnelle de la densité dépendante du temps (TDDFT) telles qu’implémentées dans le logiciel Gaussian [1] sont faits avec des fonctionnelles courantes sur des molécules et des polymères d’intérêt expérimental. En particulier, le projet présenté dans le chapitre 2 explore l’utilisation de chaînes latérales pour optimiser les propriétés électroniques de polymères déjà couramment utilisés en photovoltaïque organique. Les résultats obtenus montrent qu’un choix judicieux de chaînes latérales permet de contrôler les propriétés électroniques de ces polymères et d’augmenter l’efficacité des cellules photovoltaïques les utilisant. Par la suite, le projet présenté dans le chapitre 3 utilise la TDDFT pour explorer les propriétés optiques de deux polymères, le poly-3-hexyl-thiophène (P3HT) et le poly-3-hexyl- sélénophène (P3HS), ainsi que leur mélange, dans le but d’appuyer les observations expérimentales indiquant la formation d’exciplexe dans ces derniers. Les calculs numériques effectués dans la première partie de cette thèse permettent de tirer plusieurs conclusions intéressantes, mais mettent également en évidence certaines limites de la DFT et de la TDDFT pour le traitement des états excités, dues au traitement approximatif de l’interaction coulombienne à longue portée. Ainsi, la deuxième partie de cette thèse revient aux fondements théoriques de la DFT. Plus précisément, dans le chapitre 4, une série de fonctionnelles modélisant plus précisément l’interaction coulombienne à longue portée grâce à une approche non-locale est élaborée. Ces fonctionnelles sont basées sur la WDA (weighted density approximation), qui est modifiée afin d’imposer plusieurs conditions exactes qui devraient être satisfaites par le trou d’échange. Ces fonctionnelles sont ensuite implémentées dans le logiciel Gaussian [1] et leurs performances sont évaluées grâce à des tests effectués sur une série de molécules et d’atomes. Les résultats obtenus indiquent que plusieurs de ces fonctionnelles donnent de meilleurs résultats que la WDA. De plus, ils permettrent de discuter de l’importance relative de satisfaire chacune des conditions exactes.
Resumo:
Cette thèse est divisée en cinq parties portant sur les thèmes suivants: l’interprétation physique et algébrique de familles de fonctions orthogonales multivariées et leurs applications, les systèmes quantiques superintégrables en deux et trois dimensions faisant intervenir des opérateurs de réflexion, la caractérisation de familles de polynômes orthogonaux appartenant au tableau de Bannai-Ito et l’examen des structures algébriques qui leurs sont associées, l’étude de la relation entre le recouplage de représentations irréductibles d’algèbres et de superalgèbres et les systèmes superintégrables, ainsi que l’interprétation algébrique de familles de polynômes multi-orthogonaux matriciels. Dans la première partie, on développe l’interprétation physico-algébrique des familles de polynômes orthogonaux multivariés de Krawtchouk, de Meixner et de Charlier en tant qu’éléments de matrice des représentations unitaires des groupes SO(d+1), SO(d,1) et E(d) sur les états d’oscillateurs. On détermine les amplitudes de transition entre les états de l’oscillateur singulier associés aux bases cartésienne et polysphérique en termes des polynômes multivariés de Hahn. On examine les coefficients 9j de su(1,1) par le biais du système superintégrable générique sur la 3-sphère. On caractérise les polynômes de q-Krawtchouk comme éléments de matrices des «q-rotations» de U_q(sl_2). On conçoit un réseau de spin bidimensionnel qui permet le transfert parfait d’états quantiques à l’aide des polynômes de Krawtchouk à deux variables et on construit un modèle discret de l’oscillateur quantique dans le plan à l’aide des polynômes de Meixner bivariés. Dans la seconde partie, on étudie les systèmes superintégrables de type Dunkl, qui font intervenir des opérateurs de réflexion. On examine l’oscillateur de Dunkl en deux et trois dimensions, l’oscillateur singulier de Dunkl dans le plan et le système générique sur la 2-sphère avec réflexions. On démontre la superintégrabilité de chacun de ces systèmes. On obtient leurs constantes du mouvement, on détermine leurs algèbres de symétrie et leurs représentations, on donne leurs solutions exactes et on détaille leurs liens avec les polynômes orthogonaux du tableau de Bannai-Ito. Dans la troisième partie, on caractérise deux familles de polynômes du tableau de Bannai-Ito: les polynômes de Bannai-Ito complémentaires et les polynômes de Chihara. On montre également que les polynômes de Bannai-Ito sont les coefficients de Racah de la superalgèbre osp(1,2). On détermine l’algèbre de symétrie des polynômes duaux -1 de Hahn dans le cadre du problème de Clebsch-Gordan de osp(1,2). On propose une q - généralisation des polynômes de Bannai-Ito en examinant le problème de Racah pour la superalgèbre quantique osp_q(1,2). Finalement, on montre que la q -algèbre de Bannai-Ito sert d’algèbre de covariance à osp_q(1,2). Dans la quatrième partie, on détermine le lien entre le recouplage de représentations des algèbres su(1,1) et osp(1,2) et les systèmes superintégrables du deuxième ordre avec ou sans réflexions. On étudie également les représentations des algèbres de Racah-Wilson et de Bannai-Ito. On montre aussi que l’algèbre de Racah-Wilson sert d’algèbre de covariance quadratique à l’algèbre de Lie sl(2). Dans la cinquième partie, on construit deux familles explicites de polynômes d-orthogonaux basées sur su(2). On étudie les états cohérents et comprimés de l’oscillateur fini et on caractérise une famille de polynômes multi-orthogonaux matriciels.
Resumo:
Suivant les violences du sud du Kirghizistan en 2010, plusieurs auteurs de même que des médias ont décrit les affrontements entre les Ouzbèks et les Kirghizes comme étant dûs à des manipulations de l’ethnicité par les élites de la région. Ce travail de mémoire de maîtrise analyse l’influence des élites dans la société kirghize, elle évalue la capacité de celles-ci à mobiliser les gens pour quelque chose d’aussi radical que des violences ethniques. L’emprise politique et économique des élites kirghizes et ouzbèkes sur la société est donc confrontée à des facteurs de mobilisation plus émotifs. La théorie de Scott Radnitz sur le clientélisme et sur la capacité qu’ont les élites à réunir une foule majeure pour des regroupements publics sera notamment examinée et mise en opposition à des théories qui attribuent des causes plus émotionnelles aux affrontements. Cette analyse démontre que la théorie de Scott Radnitz indique une bonne première piste à suivre pour l’étude de toute mobilisation au Kirghizistan. Cependant, pour la mobilisation menant à des violences ethniques, il faut apporter une petite nuance afin d’incorporer les aspects émotionnels à la mobilisation.
Resumo:
La station 3-avant de Pointe-du-Buisson (Beauharnois, Haut-Saint-Laurent, Québec) représente la plus importante collection de récipients de terre cuite datant du Sylvicole moyen ancien (-400 à 500 de notre ère) dans le Nord-Est américain. De plus, on trouve sur ce site une série continue d’occupations couvrant l’ensemble de la période Sylvicole. En dépit de complications d’ordre stratigraphique (terreau homogène et pédoturbations), des concepts et des méthodes évolutionnaires tirés de la théorie de l’hérédité duelle sont appliqués à l’étude de cet assemblage. D’un point de vue anthropologique, que nous apprend l’étude de l’évolution et de la transmission des savoir-faire d’une technologie que nous assumons exclusivement féminine au cours de la période Sylvicole? L’auteur défend que l’archéologie évolutionnaire permet de détecter le contexte de la transmission, c’est-à-dire l’organisation socioéconomique des populations du passé. L’examen des traits stylistiques suggère que la sédentarisation estivale des bandes amérindiennes à partir du Sylvicole moyen tardif favorise une homogénéisation des productions céramiques dans un contexte virilocal qui est la conséquence d’une transmission de type conformiste opérant sur un axe horizontal (entre pairs). Cependant, le passage probable des tribus iroquoiennes à l’uxorilocalité et à la matrilinéarité à la fin du Sylvicole se traduit par une saisissante hétérogénéisation des pots, qui s’explique possiblement par une sélection de marqueurs identitaire d’ordre clanique (transmission verticale entre parents et descendants). L’étude des traits techno-fonctionnels indique une diversification de la vaisselle de terre cuite à mesure que les populations intensifient leurs expériences sur les cultigènes. Dans l’ensemble, cette évolution trahit une attention accrue conférée à la performance des pots en tant que récipients culinaires. Par ailleurs, le concours de la sériation et de datations AMS permet la reconnaisance d’un taxon « Sylvicole moyen moyen » caractérisé par une modification morphologique et décorative des vases. Une enquête comparative portant sur un échantillon de 27 sites archéologiques de l’horizon Pseudo-scallop-shell démontre que la variation populationnelle est structurée en fonction de la localisation des communautés dans un bassin hydrographique spécifique. Par conséquent, l’auteur soumet des pistes en vue de l’élaboration d’une taxonomie robuste et propre au Sylvicole moyen ancien et au Sylvicole moyen moyen. Enfin, des indices de natures diverses (archéologiques, paléoethnobotaniques, ethnolinguistiques, paléoanthropologiques, et d’autres issus de la génétique des populations) suggèrent une identité proto-algonquienne des bandes des deux sous-périodes susmentionnées.
Resumo:
Payer ses soins est une réalité coûteuse pour les usagers des services de santé en Afrique subsaharienne. Plusieurs pays suppriment donc certains types de paiements directs des soins au point de service, en instaurant des politiques d’exemption des paiements (PEP). Cette thèse explore trois enjeux majeurs soulevés par ces réformes. Le premier article analyse le positionnement des acteurs de la santé mondiale dans le débat sur les paiements directs des soins dans les pays à faible et moyen revenu. Cette étude documentaire montre que la majorité des acteurs s’exprime en défaveur des paiements directs en invoquant notamment leurs effets néfastes sur l’équité d’accès aux soins. Le second article met en lumière les effets perturbateurs des PEP sur les systèmes de santé des pays à faible et moyen revenu. Cette synthèse exploratoire indique que leur mise en œuvre perturbe les systèmes de santé de plusieurs manières : augmentation immédiate de l’utilisation des services gratuits, indisponibilité des médicaments, financement imprévisible et insuffisant, multiplicité des organes impliqués dans la mise en œuvre, et déficiences dans la planification et la communication. Le troisième article examine la manière dont les PEP influencent le recours aux soins des usagers. La revue réaliste a permis de développer une théorie qui explique ce processus, et de la mettre à l’épreuve d’études empiriques. Selon cette théorie, les PEP sont une ressource contribuant à renforcer le pouvoir d’agir des usagers. Ce pouvoir d’agir est également influencé par des facteurs structurels, locaux et individuels qui agissent sur la « capabilité » des usagers de se saisir de cette ressource, et de choisir de recourir aux services de santé gratuits. Trois mécanismes jouent un rôle essentiel dans ce choix : la confiance, l’acceptabilité, et la reconnaissance du risque. Cette thèse contribue au développement des connaissances empiriques sur une réforme majeure des systèmes de santé en Afrique subsaharienne. Elle apporte également des enseignements méthodologiques à la revue réaliste, et participe à la construction du champ de la recherche sur les politiques et systèmes de santé dans les pays à faible et moyen revenu.
Resumo:
Cette recherche, réalisée en milieu scolaire québécois, concerne l’enseignement et l’apprentissage de la géométrie à l’entrée au secondaire. Ce contexte est caractérisé par une géométrie non clairement définie d’un point de vue épistémologique, tant dans le programme d’études du premier cycle que dans les manuels scolaires. Ainsi, nous avons cherché à voir d’une part, l’activité géométrique souhaitée et actualisée par des enseignants incluant les problèmes proposés et, d’autre part, les conceptions d’élèves développées par ces problèmes. À partir de données recueillies auprès de quatre classes, nous avons déterminé cette activité géométrique et répertorié six types de problèmes dont quatre sont dominants ainsi que des conceptions d’élèves. L’activité géométrique en classe a donné lieu à des moments d’hésitation épistémologique, lesquels ne sont pas sans effet dans le développement des conceptions des élèves.
Resumo:
La formation de la main-d’œuvre est l’objet d’une littérature scientifique abondante depuis plusieurs années. D’une manière générale, les principaux sujets étudiés dans la littérature scientifique, les travaux empiriques et dans les politiques publiques traitent du rendement de la formation de la main-d’œuvre ou plus récemment de la dimension stratégique de la formation de la main-d’œuvre sur la performance organisationnelle. Or, les résultats produits sont mitigés, peu convaincants, voire contradictoires (Cedefop, 2013, 2005). En conséquence, les chefs d’entreprises et les décideurs en matière de politiques publiques manquent de démonstrations claires pour évaluer les impacts de la formation sur la performance des organisations. Dans cette recherche, nous proposons justement d’apporter un nouvel éclairage théorique et empirique pour mieux comprendre les caractéristiques des entreprises qui évaluent le rendement de la formation, comment le font-elles et quelles sont les retombées perçues en la matière. Sur le plan théorique, cette recherche mobilise trois approches différentes dans un modèle analytique qui se veut intégratif. Dans la partie plutôt hypothético-déductive, la théorie du capital humain ainsi que le modèle de Kirkpatrick et de la gestion stratégique de ressources humaines permettent de vérifier la rationalité des employeurs en matière d’évaluation de la formation et de la perception de son rendement. Dans la partie la plus exploratoire de la thèse, nous avons mobilisé les pouvoirs conceptuels et explicatifs de l’approche institutionnaliste pour comprendre le comportement des organisations qui ne font pas d’évaluation formelle mais qui perçoivent quand même des retombées positives de leurs activités de formation. Sur le plan méthodologique, il s’agit d’une recherche explicative et d’une démarche en partie exploratoire quantitative faite à partir des données de l’enquête menée en 2003 par Emploi-Québec et l’Institut de la statistique du Québec auprès de 4600 entreprises assujetties à la Loi favorisant le développement et la reconnaissance des compétences de la main-d’œuvre. Nos principaux résultats de recherche soutiennent l’existence de trois types de facteurs explicatifs de la perception des retombées de la formation : des facteurs liés à l’organisation (profil et expérience en formation), des facteurs liés à la nature de la formation et des facteurs liés à l’intervention institutionnelle en matière de formation.
Resumo:
La thèse est divisée principalement en deux parties. La première partie regroupe les chapitres 2 et 3. La deuxième partie regroupe les chapitres 4 et 5. La première partie concerne l'échantillonnage de distributions continues non uniformes garantissant un niveau fixe de précision. Knuth et Yao démontrèrent en 1976 comment échantillonner exactement n'importe quelle distribution discrète en n'ayant recours qu'à une source de bits non biaisés indépendants et identiquement distribués. La première partie de cette thèse généralise en quelque sorte la théorie de Knuth et Yao aux distributions continues non uniformes, une fois la précision fixée. Une borne inférieure ainsi que des bornes supérieures pour des algorithmes génériques comme l'inversion et la discrétisation figurent parmi les résultats de cette première partie. De plus, une nouvelle preuve simple du résultat principal de l'article original de Knuth et Yao figure parmi les résultats de cette thèse. La deuxième partie concerne la résolution d'un problème en théorie de la complexité de la communication, un problème qui naquit avec l'avènement de l'informatique quantique. Étant donné une distribution discrète paramétrée par un vecteur réel de dimension N et un réseau de N ordinateurs ayant accès à une source de bits non biaisés indépendants et identiquement distribués où chaque ordinateur possède un et un seul des N paramètres, un protocole distribué est établi afin d'échantillonner exactement ladite distribution.
Resumo:
Dans ce mémoire, on étudie la désintégration d’un faux vide, c’est-à-dire un vide qui est un minimum relatif d’un potentiel scalaire par effet tunnel. Des défauts topologiques en 1+1 dimension, appelés kinks, apparaissent lorsque le potentiel possède un minimum qui brise spontanément une symétrie discrète. En 3+1 dimensions, ces kinks deviennent des murs de domaine. Ils apparaissent par exemple dans les matériaux magnétiques en matière condensée. Un modèle à deux champs scalaires couplés sera étudié ainsi que les solutions aux équations du mouvement qui en découlent. Ce faisant, on analysera comment l’existence et l’énergie des solutions statiques dépend des paramètres du modèle. Un balayage numérique de l’espace des paramètres révèle que les solutions stables se trouvent entre les zones de dissociation, des régions dans l’espace des paramètres où les solutions stables n’existent plus. Le comportement des solutions instables dans les zones de dissociation peut être très différent selon la zone de dissociation dans laquelle une solution se trouve. Le potentiel consiste, dans un premier temps, en un polynôme d’ordre six, auquel on y rajoute, dans un deuxième temps, un polynôme quartique multiplié par un terme de couplage, et est choisi tel que les extrémités du kink soient à des faux vides distincts. Le taux de désintégration a été estimé par une approximation semi-classique pour montrer l’impact des défauts topologiques sur la stabilité du faux vide. Le projet consiste à déterminer les conditions qui permettent aux kinks de catalyser la désintégration du faux vide. Il appert qu’on a trouvé une expression pour déterminer la densité critique de kinks et qu’on comprend ce qui se passe avec la plupart des termes.
Resumo:
Dans ce mémoire, je considère un modèle de sélection standard avec sélection non aléatoire. D’abord, je discute la validité et la ‘‘sharpness ’’ des bornes sur l’intervalle interquantile de la distribution de la variable aléatoire latente non censurée, dérivées par Blundell et al. (2007). Ensuite, je dérive les bornes ‘‘sharp ’’ sur l’intervalle interquantile lorsque la distribution observée domine stochastiquement au premier ordre celle non observée. Enfin, je discute la ‘‘sharpness’’ des bornes sur la variance de la distribution de la variable latente, dérivées par Stoye (2010). Je montre que les bornes sont valides mais pas nécessairement ‘‘sharp’’. Je propose donc des bornes inférieures ‘‘sharp’’ pour la variance et le coefficient de variation de ladite distribution.