997 resultados para Modèles adaptatifs
Resumo:
Chez l'être humain, le pouvoir d'influence peut être accordé volontairement aux individus qui se démarquent par leurs habiletés exceptionnelles. Dans cette étude, deux théories issues de la perspective évolutionniste sur ce type de pouvoir sont confrontées : celle de la transmission sociale de l'information (Henrich et Gil-White 2001) et celle de l'échange social (Chapais 2012). Cinq hypothèses principales sont extraites et mises à l'épreuve : 1) la compétence supérieure de certains individus leur permet d'acquérir un statut supérieur; 2) la compétence d'un individu est évaluée par comparaison sociale et par l'intermédiaire de mécanismes psychosociaux; 3) les experts sont utiles à autrui puisqu'ils sont de meilleurs modèles à imiter et de meilleurs partenaires de coopération; 4) ces experts reçoivent de la déférence de leurs admirateurs en échange d'un partenariat avec eux ; 5) conséquemment, une compétition pour l'acquisition d'un statut supérieur émerge via la démonstration publique de la compétence et la recherche d'une réputation favorable. Ces prévisions sont testées par une analyse comparative de la littérature ethnographique portant sur dix sociétés de chasseurs-cueilleurs relativement égalitaires en utilisant la base de données du eHRAF of World Cultures. Les résultats appuient très fortement toutes les prévisions et indiquent que des asymétries de statut sont omniprésentes chez tous les peuples de l'échantillon, ce qui refléterait l'universalité des propensions psychosociales qui sous-tendent ces inégalités.
Resumo:
L'Enquête rétrospective sur les travailleurs sélectionnés au Québec a permis d’analyser la relation formation-emploi des immigrantes — arrivées comme requérantes principales — et de jeter un regard sur le parcours en emploi de ces femmes, en comparaison avec leurs homologues masculins. Une attention particulière est mise sur l'effet de genre et de la région de provenance, ainsi que l'interaction entre ces deux variables. Des modèles semi-paramétriques de Cox mettent en exergue comment les caractéristiques individuelles, mais aussi les activités de formation dans la société d’accueil, affectent au fil du temps les risques relatifs d’obtenir un premier emploi correspondant à ses qualifications scolaires prémigratoires. Puis, des régressions linéaires font état des déterminants du salaire après deux ans sur le territoire. Les résultats montrent que l'accès à l'emploi qualifié n'est pas affecté différemment selon que l'immigrant soit un homme ou une femme. Des différences intragroupes apparaissent toutefois en fonction de la région de provenance, avec un net avantage pour les immigrants de l'Europe de l'Ouest et des États-Unis. L'accès au premier emploi (sans distinction pour les qualifications) et le salaire révèlent, quant à eux, des différences sur la base du genre, avec un désavantage pour les femmes. Chez ces dernières, l'insertion en emploi se fait de façon similaire entre les groupes régionaux, alors que les groupes d'hommes sont plus hétérogènes. D'ailleurs, certaines caractéristiques individuelles, comme la connaissance du français et la catégorie d'admission, affectent différemment les immigrants et les immigrantes dans l'accès au premier emploi.
Resumo:
Cette thèse étudie des modèles de séquences de haute dimension basés sur des réseaux de neurones récurrents (RNN) et leur application à la musique et à la parole. Bien qu'en principe les RNN puissent représenter les dépendances à long terme et la dynamique temporelle complexe propres aux séquences d'intérêt comme la vidéo, l'audio et la langue naturelle, ceux-ci n'ont pas été utilisés à leur plein potentiel depuis leur introduction par Rumelhart et al. (1986a) en raison de la difficulté de les entraîner efficacement par descente de gradient. Récemment, l'application fructueuse de l'optimisation Hessian-free et d'autres techniques d'entraînement avancées ont entraîné la recrudescence de leur utilisation dans plusieurs systèmes de l'état de l'art. Le travail de cette thèse prend part à ce développement. L'idée centrale consiste à exploiter la flexibilité des RNN pour apprendre une description probabiliste de séquences de symboles, c'est-à-dire une information de haut niveau associée aux signaux observés, qui en retour pourra servir d'à priori pour améliorer la précision de la recherche d'information. Par exemple, en modélisant l'évolution de groupes de notes dans la musique polyphonique, d'accords dans une progression harmonique, de phonèmes dans un énoncé oral ou encore de sources individuelles dans un mélange audio, nous pouvons améliorer significativement les méthodes de transcription polyphonique, de reconnaissance d'accords, de reconnaissance de la parole et de séparation de sources audio respectivement. L'application pratique de nos modèles à ces tâches est détaillée dans les quatre derniers articles présentés dans cette thèse. Dans le premier article, nous remplaçons la couche de sortie d'un RNN par des machines de Boltzmann restreintes conditionnelles pour décrire des distributions de sortie multimodales beaucoup plus riches. Dans le deuxième article, nous évaluons et proposons des méthodes avancées pour entraîner les RNN. Dans les quatre derniers articles, nous examinons différentes façons de combiner nos modèles symboliques à des réseaux profonds et à la factorisation matricielle non-négative, notamment par des produits d'experts, des architectures entrée/sortie et des cadres génératifs généralisant les modèles de Markov cachés. Nous proposons et analysons également des méthodes d'inférence efficaces pour ces modèles, telles la recherche vorace chronologique, la recherche en faisceau à haute dimension, la recherche en faisceau élagué et la descente de gradient. Finalement, nous abordons les questions de l'étiquette biaisée, du maître imposant, du lissage temporel, de la régularisation et du pré-entraînement.
Resumo:
La plasticité synaptique activité-dépendante forme la base physiologique de l’apprentissage et de la mémoire dépendants de l’hippocampe. Le rôle joué par les différents sous-types d’interneurones dans l’apprentissage et la mémoire hippocampiques reste inconnu, mais repose probablement sur des mécanismes de la plasticité spécifique aux synapses de certains sous-types d’interneurones. Les synapses excitatrices établies sur les interneurones de l’oriens-alveus dans l’aire CA1 exhibent une forme persistante de potentialisation à long terme induite par la stimulation chimique des récepteurs métabotropiques du glutamate de type 1 (mGluR1) [mGluR1-mediated chemical late long-term potentiation (cL-LTPmGluR1)]. Le présent projet de recherche avait pour objectifs d’identifier les sous-types d’interneurones de l’oriens-alveus exprimant la cL-LTPmGluR1 et d’examiner les mécanismes d’induction et d’expression de celle-ci. Nous avons déterminé que la stimulation répétée des mGluR1 induit de la cL-LTPmGluR1 aux synapses excitatrices établies sur le sous-type d’interneurones exprimant le peptide somatostatine (SOM-INs). Des enregistrements électrophysiologiques couplés à des inhibiteurs pharmacologiques et à un knock-out fonctionnel de mammalian target of rapamycin complexe 1 (mTORC1) ont montré que l’induction de la cL-LTPmGluR1 (qui consiste en trois applications de l’agoniste des mGluR1/5, le (S)-3,5-dihydroxyphénylglycine (DHPG) en présence de l’antagoniste des récepteurs métabotropiques du glutamate de type 5 (mGluR5), le 2-méthyl-6-(phényléthynyl)-pyridine (MPEP)) des SOM-INs requiert les voies de signalisation des mGluR1, de extracellular signal-regulated protein kinase (ERK) et de mTORC1. L’ensemble de nos résultats montre qu’une forme persistante de plasticité synaptique sous-tendue par mTORC1 est induite par la stimulation répétée des mGluR1 dans les interneurones hippocampiques exprimant le peptide somatostatine. La connaissance des mécanismes sous-tendant la cL-LTPmGluR1, couplée à l’utilisation de modèles animal in vivo, rendront maintenant possible le blocage de la cL-LTPmGluR1 dans les SOM-INs et l’examen de son rôle dans l’apprentissage et la mémoire dépendants de l’hippocampe.
Resumo:
Les étoiles naines blanches représentent la fin de l’évolution de 97% des étoiles de notre galaxie, dont notre Soleil. L’étude des propriétés globales de ces étoiles (distribution en température, distribution de masse, fonction de luminosité, etc.) requiert l’élaboration d’ensembles statistiquement complets et bien définis. Bien que plusieurs relevés d’étoiles naines blanches existent dans la littérature, la plupart de ceux-ci souffrent de biais statistiques importants pour ce genre d’analyse. L’échantillon le plus représentatif de la population d’étoiles naines blanches demeure à ce jour celui défini dans un volume complet, restreint à l’environnement immédiat du Soleil, soit à une distance de 20 pc (∼ 65 années-lumière) de celui-ci. Malheureusement, comme les naines blanches sont des étoiles intrinsèquement peu lumineuses, cet échantillon ne contient que ∼ 130 objets, compromettant ainsi toute étude statistique significative. Le but de notre étude est de recenser la population d’étoiles naines blanches dans le voisinage solaire a une distance de 40 pc, soit un volume huit fois plus grand. Nous avons ainsi entrepris de répertorier toutes les étoiles naines blanches à moins de 40 pc du Soleil à partir de SUPERBLINK, un vaste catalogue contenant le mouvement propre et les données photométriques de plus de 2 millions d’étoiles. Notre approche est basée sur la méthode des mouvements propres réduits qui permet d’isoler les étoiles naines blanches des autres populations stellaires. Les distances de toutes les candidates naines blanches sont estimées à l’aide de relations couleur-magnitude théoriques afin d’identifier les objets se situant à moins de 40 pc du Soleil, dans l’hémisphère nord. La confirmation spectroscopique du statut de naine blanche de nos ∼ 1100 candidates a ensuite requis 15 missions d’observations astronomiques sur trois grands télescopes à Kitt Peak en Arizona, ainsi qu’une soixantaine d’heures allouées sur les télescopes de 8 m des observatoires Gemini Nord et Sud. Nous avons ainsi découvert 322 nouvelles étoiles naines blanches de plusieurs types spectraux différents, dont 173 sont à moins de 40 pc, soit une augmentation de 40% du nombre de naines blanches connues à l’intérieur de ce volume. Parmi ces nouvelles naines blanches, 4 se trouvent probablement à moins de 20 pc du Soleil. De plus, nous démontrons que notre technique est très efficace pour identifier les étoiles naines blanches dans la région peuplée du plan de la Galaxie. Nous présentons ensuite une analyse spectroscopique et photométrique détaillée de notre échantillon à l’aide de modèles d’atmosphère afin de déterminer les propriétés physiques de ces étoiles, notamment la température, la gravité de surface et la composition chimique. Notre analyse statistique de ces propriétés, basée sur un échantillon presque trois fois plus grand que celui à 20 pc, révèle que nous avons identifié avec succès les étoiles les plus massives, et donc les moins lumineuses, de cette population qui sont souvent absentes de la plupart des relevés publiés. Nous avons également identifié plusieurs naines blanches très froides, et donc potentiellement très vieilles, qui nous permettent de mieux définir le côté froid de la fonction de luminosité, et éventuellement l’âge du disque de la Galaxie. Finalement, nous avons aussi découvert plusieurs objets d’intérêt astrophysique, dont deux nouvelles étoiles naines blanches variables de type ZZ Ceti, plusieurs naines blanches magnétiques, ainsi que de nombreux systèmes binaires non résolus.
Resumo:
Ma thèse est composée de trois essais sur l'inférence par le bootstrap à la fois dans les modèles de données de panel et les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peut être faible. La théorie asymptotique n'étant pas toujours une bonne approximation de la distribution d'échantillonnage des estimateurs et statistiques de tests, je considère le bootstrap comme une alternative. Ces essais tentent d'étudier la validité asymptotique des procédures bootstrap existantes et quand invalides, proposent de nouvelles méthodes bootstrap valides. Le premier chapitre #co-écrit avec Sílvia Gonçalves# étudie la validité du bootstrap pour l'inférence dans un modèle de panel de données linéaire, dynamique et stationnaire à effets fixes. Nous considérons trois méthodes bootstrap: le recursive-design bootstrap, le fixed-design bootstrap et le pairs bootstrap. Ces méthodes sont des généralisations naturelles au contexte des panels des méthodes bootstrap considérées par Gonçalves et Kilian #2004# dans les modèles autorégressifs en séries temporelles. Nous montrons que l'estimateur MCO obtenu par le recursive-design bootstrap contient un terme intégré qui imite le biais de l'estimateur original. Ceci est en contraste avec le fixed-design bootstrap et le pairs bootstrap dont les distributions sont incorrectement centrées à zéro. Cependant, le recursive-design bootstrap et le pairs bootstrap sont asymptotiquement valides quand ils sont appliqués à l'estimateur corrigé du biais, contrairement au fixed-design bootstrap. Dans les simulations, le recursive-design bootstrap est la méthode qui produit les meilleurs résultats. Le deuxième chapitre étend les résultats du pairs bootstrap aux modèles de panel non linéaires dynamiques avec des effets fixes. Ces modèles sont souvent estimés par l'estimateur du maximum de vraisemblance #EMV# qui souffre également d'un biais. Récemment, Dhaene et Johmans #2014# ont proposé la méthode d'estimation split-jackknife. Bien que ces estimateurs ont des approximations asymptotiques normales centrées sur le vrai paramètre, de sérieuses distorsions demeurent à échantillons finis. Dhaene et Johmans #2014# ont proposé le pairs bootstrap comme alternative dans ce contexte sans aucune justification théorique. Pour combler cette lacune, je montre que cette méthode est asymptotiquement valide lorsqu'elle est utilisée pour estimer la distribution de l'estimateur split-jackknife bien qu'incapable d'estimer la distribution de l'EMV. Des simulations Monte Carlo montrent que les intervalles de confiance bootstrap basés sur l'estimateur split-jackknife aident grandement à réduire les distorsions liées à l'approximation normale en échantillons finis. En outre, j'applique cette méthode bootstrap à un modèle de participation des femmes au marché du travail pour construire des intervalles de confiance valides. Dans le dernier chapitre #co-écrit avec Wenjie Wang#, nous étudions la validité asymptotique des procédures bootstrap pour les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peu être faible. Nous montrons analytiquement qu'un bootstrap standard basé sur les résidus et le bootstrap restreint et efficace #RE# de Davidson et MacKinnon #2008, 2010, 2014# ne peuvent pas estimer la distribution limite de l'estimateur du maximum de vraisemblance à information limitée #EMVIL#. La raison principale est qu'ils ne parviennent pas à bien imiter le paramètre qui caractérise l'intensité de l'identification dans l'échantillon. Par conséquent, nous proposons une méthode bootstrap modifiée qui estime de facon convergente cette distribution limite. Nos simulations montrent que la méthode bootstrap modifiée réduit considérablement les distorsions des tests asymptotiques de type Wald #$t$# dans les échantillons finis, en particulier lorsque le degré d'endogénéité est élevé.
Resumo:
L’objectif de ce mémoire est de proposer une analyse descriptive et explicative des bifurcations scolaires. Si plusieurs chercheurs ont noté la fréquence élevée des réorientations au cours des études postsecondaires au Québec, aucun d’entre eux ne s’est intéressé aux réorientations scolaires radicales et imprévisibles, qui peuvent être désignées par le terme de bifurcation. En s’appuyant principalement sur l’analyse d’une série d’entretiens auprès d’individus ayant vécu une réorientation scolaire au cours de leurs études supérieures, cette recherche explore les faces objectives et subjectives de ces réorientations, les différentes étapes traversées au cours du processus de réorientation, les différentes ressources mobilisées par les étudiants afin de faciliter sa réalisation, ainsi que les différentes raisons pour lesquelles les étudiants bifurquent. L’analyse descriptive montre le rôle décisif de la souplesse de fonctionnement et des ressources des institutions d’enseignement postsecondaire, tandis qu’elle tend à minorer le rôle joué par l’entourage des étudiants, et particulièrement de leurs parents. L’analyse explicative fait apparaitre deux modèles distincts de bifurcation: le modèle de la rectification, dans lequel les étudiants se réorientent vers un programme qui correspond davantage à leurs valeurs; et celui de la rétroaction, dans lequel ils se réorientent vers un domaine pour lequel ils avaient déjà de l’intérêt. In fine, ce mémoire conduit à marquer une distinction entre bifurcation et réorientation stratégique, et à nuancer l’utilisation des critères de radicalité et d’imprévisibilité pour définir les bifurcations scolaires dans la mesure où des conciliations ou des retours sur des centres d’intérêt antérieurs sont souvent possibles.
Resumo:
Le Costimulateur Inductible (ICOS) est un récepteur exprimé à la surface des cellules T CD4 auxiliaires et T CD8 cytotoxiques. Il fut démontré à l’aide de modèles murins de transplantation de moelle osseuse que ICOS joue un rôle important dans l’induction de la maladie du greffon contre l’hôte aigüe (GVHD). ICOS potentialise deux signaux médiés par le récepteur de cellules T (TCR) : l’activation de la phosphoinositide 3-kinase (PI3K) ainsi que la mobilisation interne de calcium. En conditions in vitro, dans les cellules CD4 et CD8, ICOS réussi à potentialiser le flux de calcium médié par le TCR indépendamment de PI3K. La voie de signalisation de ICOS impliquée dans la GVHD demeure inconnue. Cependant, en utilisant une lignée de souris ‘knock-in’ nommée ICOS-Y181F, dans laquelle le cellules T ont sélectivement perdu la capacité d’activer PI3K par l’entremise d’ICOS, nous avons démontré que les cellules T peuvent utiliser un mécanisme ICOS indépendant de PI3K afin d’induire la GVHD. La mobilisation interne du Ca2+ mène à l’activation de NFAT, un facteur de transcription clé régulant des gènes comme IFN-γ, qui exprime une des cytokines clés impliquées dans la GVHD. Nous émettons comme hypothèse que la capacité pathogénique intacte des cellules T ICOSY181F à induire la GVHD, repose sur la signalisation du Ca2+ indépendante de PI3K. Le but de mon projet est d’identifier les résidus responsables de cette signalisation de Ca2+ médiée par ICOS ainsi que le mécanisme par lequel ce récepteur fonctionne. À l’aide de la mutagénèse dirigée, j’ai généré des mutants d’ICOS et j’ai analysé par cytométrie en flux leur capacité à activer le flux de Ca2+. J’ai ainsi identifié un groupe de lysine sur la queue cytoplasmique d’ICOS situé à proximité de la membrane comme étant essentiel à la fonction de potentialisation du flux de Ca2+. Je fournis également des preuves de l’implication de la kinase Lck, membre de la famille de kinases Src, dans la voie de signalisation de ICOS médiant la potentialisation du flux de Ca2+. Ainsi, ICOS s’associe à Lck et mène à une augmentation de l’activation de PLCγ1, la protéine effectrice clé causant la sortie de Ca2+ de la réserve intracellulaire. En conclusion, notre étude permet de comprendre davantage une des voies de signalisation d’ICOS. L’influx de Ca2+ dans les cellules T implique la voie ICOS-Lck-PLCγ1. Une compréhension plus approfondie de cette voie de signalisation pourrait s’avérer bénéfique afin d’élaborer de nouvelles stratégies menant à la prévention de maladies reliées à ICOS, comme la GVHD.
Resumo:
Cette étude longitudinale visait à évaluer si les traits de personnalité des adolescents permettent de prédire leurs comportements antisociaux ultérieurs, après avoir contrôlé pour l’effet du niveau initial du comportement antisocial ainsi que celui de plusieurs facteurs de risque connus de ces comportements. L’échantillon utilisé compte 1036 adolescents provenant de huit écoles secondaires québécoises. Les adolescents ont été évalués à deux reprises, soit en secondaire 1 (12-13 ans) et en secondaire 3 (14-15 ans). Ils ont répondu à un questionnaire autorévélé. Des modèles d’équations structurales ont d’abord confirmé que la covariation entre différents comportements antisociaux des adolescents peut être expliquée par une variable latente. Les résultats ont confirmé que les traits de personnalité des adolescents à 12 et 13 ans prédisent leurs comportements antisociaux à 14 et 15 ans. En accord avec les études antérieures, l’Extraversion, le Contrôle et la Stabilité émotionnelle prédisent les comportements antisociaux futurs. Toutefois, l’effet de l’Amabilité disparait une fois que le niveau initial est contrôlé. Finalement, des modèles d’équations structurales multi-groupes ont permis de démontrer que certaines relations prédictives sont différentes selon le sexe. Les résultats de cette étude soulignent l’importance des traits de personnalité pour les théories du comportement antisocial ainsi que pour la pratique clinique.
Resumo:
Cette thèse est organisée en trois chapitres. Les deux premiers s'intéressent à l'évaluation, par des méthodes d'estimations, de l'effet causal ou de l'effet d'un traitement, dans un environnement riche en données. Le dernier chapitre se rapporte à l'économie de l'éducation. Plus précisément dans ce chapitre j'évalue l'effet de la spécialisation au secondaire sur le choix de filière à l'université et la performance. Dans le premier chapitre, j'étudie l'estimation efficace d'un paramètre de dimension finie dans un modèle linéaire où le nombre d'instruments peut être très grand ou infini. L'utilisation d'un grand nombre de conditions de moments améliore l'efficacité asymptotique des estimateurs par variables instrumentales, mais accroit le biais. Je propose une version régularisée de l'estimateur LIML basée sur trois méthodes de régularisations différentes, Tikhonov, Landweber Fridman, et composantes principales, qui réduisent le biais. Le deuxième chapitre étend les travaux précédents, en permettant la présence d'un grand nombre d'instruments faibles. Le problème des instruments faibles est la consequence d'un très faible paramètre de concentration. Afin d'augmenter la taille du paramètre de concentration, je propose d'augmenter le nombre d'instruments. Je montre par la suite que les estimateurs 2SLS et LIML régularisés sont convergents et asymptotiquement normaux. Le troisième chapitre de cette thèse analyse l'effet de la spécialisation au secondaire sur le choix de filière à l'université. En utilisant des données américaines, j'évalue la relation entre la performance à l'université et les différents types de cours suivis pendant les études secondaires. Les résultats suggèrent que les étudiants choisissent les filières dans lesquelles ils ont acquis plus de compétences au secondaire. Cependant, on a une relation en U entre la diversification et la performance à l'université, suggérant une tension entre la spécialisation et la diversification. Le compromis sous-jacent est évalué par l'estimation d'un modèle structurel de l'acquisition du capital humain au secondaire et de choix de filière. Des analyses contrefactuelles impliquent qu'un cours de plus en matière quantitative augmente les inscriptions dans les filières scientifiques et technologiques de 4 points de pourcentage.
Resumo:
Le monde actuel, marqué par une augmentation incessante des exigences professionnelles, requiert des enseignants une adaptation constante aux changements sociaux, culturels et économiques. Si, pour les enseignants expérimentés, l’accommodation à ces transformations est accompagnée de plusieurs défis, pour les nouveaux enseignants qui ne maîtrisent pas complètement tous les aspects de la profession, l’intégration au milieu scolaire peut être extrêmement difficile ou même insupportable, au point où certains quittent le métier. Néanmoins, à force de persévérance, un certain nombre des nouveaux enseignants franchissent les obstacles imposés par la profession. Dans leur cas, la satisfaction et l’engagement professionnel peuvent être des caractéristiques importantes qui les incitent à continuer à exercer leurs activités d’enseignement. Dans ce contexte, l’étude vise l’analyse des éléments liés à la construction de l’identité professionnelle des enseignants lors de leur insertion dans le métier, à partir des perceptions des nouveaux enseignants et de celles des gestionnaires des écoles primaires et secondaires. L’harmonie entre la perception de ces deux groupes d’acteurs scolaires peut constituer un important facteur du rendement des professionnels dans leur métier et de l’efficacité des institutions d’enseignement. Ainsi, du côté des nouveaux enseignants, l’étude examine les variables qui peuvent être liées à leur engagement professionnel et de celui des gestionnaires, elle vise à analyser les éléments qui peuvent être liés à leur satisfaction sur le travail effectué par les nouveaux enseignants. La présente étude, de type quantitatif, est constituée des analyses secondaires des données issues des enquêtes pancanadiennes auprès des directions et des enseignants d’écoles primaires et secondaires du Canada, menées en 2005 et 2006 par une équipe de professeurs de différentes universités canadiennes. Les analyses statistiques sont basées sur deux modèles théoriques : (1) l’engagement professionnel des nouveaux enseignants et (2) la satisfaction des gestionnaires sur le travail effectué par les nouveaux enseignants. Ces modèles sont examinés en suivant la théorie classique des tests (TCT) et celle des réponses aux items (TRI) afin de profiter des avantages de chacune des méthodes. Du côté de la TCT, des analyses de cheminement et des modélisations aux équations structurelles ont été effectuées pour examiner les modèles théoriques. Du côté de la TRI, des modélisations de Rasch ont été utilisées pour examiner les propriétés psychométriques des échelles utilisées par la recherche afin de vérifier si les données sont bien ajustées aux modèles et si les items se regroupent de façon logique pour expliquer les traits latents à l’étude. Les résultats mettent en évidence le rapport humain qui définit la profession enseignante. Autrement dit, pour les nouveaux enseignants, les émotions en classe, conséquence du processus d’interaction avec leurs élèves, sont le facteur majeur lié à l’engagement professionnel. Dans le même sens, la relation des nouveaux enseignants avec les divers membres de la communauté scolaire (parents des élèves, gestionnaires, personnel de l’école et autres enseignants) est un facteur-clé de la satisfaction des gestionnaires quant au travail des nouveaux enseignants. Les analyses indiquent également l’importance de la satisfaction au travail dans le modèle des nouveaux enseignants. Cette variable est un important déterminant de l’engagement professionnel et peut être associée à tous les autres éléments du modèle des nouveaux enseignants. Finalement, les résultats indiquent le besoin de construction des variables latentes avec un plus grand nombre d’items pour mieux positionner les personnes dans l’échelle de mesure. Ce résultat est plutôt important pour le modèle des gestionnaires qui indique de mauvais ajustements items-personnes.
Resumo:
Les décisions de localisation sont souvent soumises à des aspects dynamiques comme des changements dans la demande des clients. Pour y répondre, la solution consiste à considérer une flexibilité accrue concernant l’emplacement et la capacité des installations. Même lorsque la demande est prévisible, trouver le planning optimal pour le déploiement et l'ajustement dynamique des capacités reste un défi. Dans cette thèse, nous nous concentrons sur des problèmes de localisation avec périodes multiples, et permettant l'ajustement dynamique des capacités, en particulier ceux avec des structures de coûts complexes. Nous étudions ces problèmes sous différents points de vue de recherche opérationnelle, en présentant et en comparant plusieurs modèles de programmation linéaire en nombres entiers (PLNE), l'évaluation de leur utilisation dans la pratique et en développant des algorithmes de résolution efficaces. Cette thèse est divisée en quatre parties. Tout d’abord, nous présentons le contexte industriel à l’origine de nos travaux: une compagnie forestière qui a besoin de localiser des campements pour accueillir les travailleurs forestiers. Nous présentons un modèle PLNE permettant la construction de nouveaux campements, l’extension, le déplacement et la fermeture temporaire partielle des campements existants. Ce modèle utilise des contraintes de capacité particulières, ainsi qu’une structure de coût à économie d’échelle sur plusieurs niveaux. L'utilité du modèle est évaluée par deux études de cas. La deuxième partie introduit le problème dynamique de localisation avec des capacités modulaires généralisées. Le modèle généralise plusieurs problèmes dynamiques de localisation et fournit de meilleures bornes de la relaxation linéaire que leurs formulations spécialisées. Le modèle peut résoudre des problèmes de localisation où les coûts pour les changements de capacité sont définis pour toutes les paires de niveaux de capacité, comme c'est le cas dans le problème industriel mentionnée ci-dessus. Il est appliqué à trois cas particuliers: l'expansion et la réduction des capacités, la fermeture temporaire des installations, et la combinaison des deux. Nous démontrons des relations de dominance entre notre formulation et les modèles existants pour les cas particuliers. Des expériences de calcul sur un grand nombre d’instances générées aléatoirement jusqu’à 100 installations et 1000 clients, montrent que notre modèle peut obtenir des solutions optimales plus rapidement que les formulations spécialisées existantes. Compte tenu de la complexité des modèles précédents pour les grandes instances, la troisième partie de la thèse propose des heuristiques lagrangiennes. Basées sur les méthodes du sous-gradient et des faisceaux, elles trouvent des solutions de bonne qualité même pour les instances de grande taille comportant jusqu’à 250 installations et 1000 clients. Nous améliorons ensuite la qualité de la solution obtenue en résolvent un modèle PLNE restreint qui tire parti des informations recueillies lors de la résolution du dual lagrangien. Les résultats des calculs montrent que les heuristiques donnent rapidement des solutions de bonne qualité, même pour les instances où les solveurs génériques ne trouvent pas de solutions réalisables. Finalement, nous adaptons les heuristiques précédentes pour résoudre le problème industriel. Deux relaxations différentes sont proposées et comparées. Des extensions des concepts précédents sont présentées afin d'assurer une résolution fiable en un temps raisonnable.
Resumo:
Les leucémies myéloïdes aigües résultent d’un dérèglement du processus de l’hématopoïèse et regroupent des maladies hétérogènes qui présentent des profils cliniques et génétiques variés. La compréhension des processus cellulaires responsables de l’initiation et du maintien de ces cancers permettrait de développer des outils thérapeutiques efficaces et ciblés. Au cours des dernières années, une quantité croissante d’anomalies génétiques reliées au développement de leucémies ont été corrélées à une expression anormale des gènes HOX et de leurs cofacteurs MEIS et PBX. Des modèles expérimentaux murins ont confirmé le rôle direct joué par ces protéines dans le développement de leucémies. En effet, la protéine MEIS1 collabore avec HOXA9 dans la leucémogenèse et requiert pour ce faire trois domaines distincts. Deux de ces domaines sont conservés chez PREP1, un membre de la même classe d’homéoprotéine que MEIS1. En utilisant une approche de gain-de-fonction, j’ai confirmé l’importance du rôle joué par le domaine C-terminal de MEIS1 dans l’accélération des leucémies induites par HOXA9. J’ai également montré que l’activité de ce domaine était corrélée avec une signature transcriptionnelle associée à la prolifération cellulaire. J’ai ensuite réalisé un criblage à haut débit afin d’identifier des antagonistes de l’interaction MEIS-PBX, également essentielle à l’accélération des leucémies HOX. À cette fin, j’ai développé un essai de transfert d’énergie de résonance de bioluminescence (BRET) permettant de détecter la dimérisation MEIS-PBX dans les cellules vivantes. Plus de 115 000 composés chimiques ont été testés et suite à une confirmation par un essai orthogonal, une vingtaine de molécules ont été identifiées comme inhibiteurs potentiels. Ces composés pourront être rapidement testés sur la prolifération de cellules leucémiques primaires dans un contexte d’étude préclinique. Finalement, deux approches protéomiques complémentaires ont permis d’identifier des partenaires potentiels de MEIS1 et PREP1. La catégorisation fonctionnelle de ces candidats suggère un nouveau rôle pour ces homéoprotéines dans l’épissage de l’ARN et dans la reconnaissance de l’ADN méthylé.
Resumo:
Rapport de stage présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Maîtrise en criminologie
Resumo:
L'apprentissage profond est un domaine de recherche en forte croissance en apprentissage automatique qui est parvenu à des résultats impressionnants dans différentes tâches allant de la classification d'images à la parole, en passant par la modélisation du langage. Les réseaux de neurones récurrents, une sous-classe d'architecture profonde, s'avèrent particulièrement prometteurs. Les réseaux récurrents peuvent capter la structure temporelle dans les données. Ils ont potentiellement la capacité d'apprendre des corrélations entre des événements éloignés dans le temps et d'emmagasiner indéfiniment des informations dans leur mémoire interne. Dans ce travail, nous tentons d'abord de comprendre pourquoi la profondeur est utile. Similairement à d'autres travaux de la littérature, nos résultats démontrent que les modèles profonds peuvent être plus efficaces pour représenter certaines familles de fonctions comparativement aux modèles peu profonds. Contrairement à ces travaux, nous effectuons notre analyse théorique sur des réseaux profonds acycliques munis de fonctions d'activation linéaires par parties, puisque ce type de modèle est actuellement l'état de l'art dans différentes tâches de classification. La deuxième partie de cette thèse porte sur le processus d'apprentissage. Nous analysons quelques techniques d'optimisation proposées récemment, telles l'optimisation Hessian free, la descente de gradient naturel et la descente des sous-espaces de Krylov. Nous proposons le cadre théorique des méthodes à région de confiance généralisées et nous montrons que plusieurs de ces algorithmes développés récemment peuvent être vus dans cette perspective. Nous argumentons que certains membres de cette famille d'approches peuvent être mieux adaptés que d'autres à l'optimisation non convexe. La dernière partie de ce document se concentre sur les réseaux de neurones récurrents. Nous étudions d'abord le concept de mémoire et tentons de répondre aux questions suivantes: Les réseaux récurrents peuvent-ils démontrer une mémoire sans limite? Ce comportement peut-il être appris? Nous montrons que cela est possible si des indices sont fournis durant l'apprentissage. Ensuite, nous explorons deux problèmes spécifiques à l'entraînement des réseaux récurrents, à savoir la dissipation et l'explosion du gradient. Notre analyse se termine par une solution au problème d'explosion du gradient qui implique de borner la norme du gradient. Nous proposons également un terme de régularisation conçu spécifiquement pour réduire le problème de dissipation du gradient. Sur un ensemble de données synthétique, nous montrons empiriquement que ces mécanismes peuvent permettre aux réseaux récurrents d'apprendre de façon autonome à mémoriser des informations pour une période de temps indéfinie. Finalement, nous explorons la notion de profondeur dans les réseaux de neurones récurrents. Comparativement aux réseaux acycliques, la définition de profondeur dans les réseaux récurrents est souvent ambiguë. Nous proposons différentes façons d'ajouter de la profondeur dans les réseaux récurrents et nous évaluons empiriquement ces propositions.