19 resultados para Prédiction de la localisation subcellulaire
Resumo:
Résumé : En raison de sa grande étendue, le Nord canadien présente plusieurs défis logistiques pour une exploitation rentable de ses ressources minérales. La TéléCartographie Prédictive (TCP) vise à faciliter la localisation de gisements en produisant des cartes du potentiel géologique. Des données altimétriques sont nécessaires pour générer ces cartes. Or, celles actuellement disponibles au nord du 60e parallèle ne sont pas optimales principalement parce qu’elles sont dérivés de courbes à équidistance variable et avec une valeur au mètre. Parallèlement, il est essentiel de connaître l'exactitude verticale des données altimétriques pour être en mesure de les utiliser adéquatement, en considérant les contraintes liées à son exactitude. Le projet présenté vise à aborder ces deux problématiques afin d'améliorer la qualité des données altimétriques et contribuer à raffiner la cartographie prédictive réalisée par TCP dans le Nord canadien, pour une zone d’étude située au Territoire du Nord-Ouest. Le premier objectif était de produire des points de contrôles permettant une évaluation précise de l'exactitude verticale des données altimétriques. Le second objectif était de produire un modèle altimétrique amélioré pour la zone d'étude. Le mémoire présente d'abord une méthode de filtrage pour des données Global Land and Surface Altimetry Data (GLA14) de la mission ICESat (Ice, Cloud and land Elevation SATellite). Le filtrage est basé sur l'application d'une série d'indicateurs calculés à partir d’informations disponibles dans les données GLA14 et des conditions du terrain. Ces indicateurs permettent d'éliminer les points d'élévation potentiellement contaminés. Les points sont donc filtrés en fonction de la qualité de l’attitude calculée, de la saturation du signal, du bruit d'équipement, des conditions atmosphériques, de la pente et du nombre d'échos. Ensuite, le document décrit une méthode de production de Modèles Numériques de Surfaces (MNS) améliorés, par stéréoradargrammétrie (SRG) avec Radarsat-2 (RS-2). La première partie de la méthodologie adoptée consiste à faire la stéréorestitution des MNS à partir de paires d'images RS-2, sans point de contrôle. L'exactitude des MNS préliminaires ainsi produits est calculée à partir des points de contrôles issus du filtrage des données GLA14 et analysée en fonction des combinaisons d’angles d'incidences utilisées pour la stéréorestitution. Ensuite, des sélections de MNS préliminaires sont assemblées afin de produire 5 MNS couvrant chacun la zone d'étude en totalité. Ces MNS sont analysés afin d'identifier la sélection optimale pour la zone d'intérêt. Les indicateurs sélectionnés pour la méthode de filtrage ont pu être validés comme performant et complémentaires, à l’exception de l’indicateur basé sur le ratio signal/bruit puisqu’il était redondant avec l’indicateur basé sur le gain. Autrement, chaque indicateur a permis de filtrer des points de manière exclusive. La méthode de filtrage a permis de réduire de 19% l'erreur quadratique moyenne sur l'élévation, lorsque que comparée aux Données d'Élévation Numérique du Canada (DNEC). Malgré un taux de rejet de 69% suite au filtrage, la densité initiale des données GLA14 a permis de conserver une distribution spatiale homogène. À partir des 136 MNS préliminaires analysés, aucune combinaison d’angles d’incidences des images RS-2 acquises n’a pu être identifiée comme étant idéale pour la SRG, en raison de la grande variabilité des exactitudes verticales. Par contre, l'analyse a indiqué que les images devraient idéalement être acquises à des températures en dessous de 0°C, pour minimiser les disparités radiométriques entre les scènes. Les résultats ont aussi confirmé que la pente est le principal facteur d’influence sur l’exactitude de MNS produits par SRG. La meilleure exactitude verticale, soit 4 m, a été atteinte par l’assemblage de configurations de même direction de visées. Par contre, les configurations de visées opposées, en plus de produire une exactitude du même ordre (5 m), ont permis de réduire le nombre d’images utilisées de 30%, par rapport au nombre d'images acquises initialement. Par conséquent, l'utilisation d'images de visées opposées pourrait permettre d’augmenter l’efficacité de réalisation de projets de SRG en diminuant la période d’acquisition. Les données altimétriques produites pourraient à leur tour contribuer à améliorer les résultats de la TCP, et augmenter la performance de l’industrie minière canadienne et finalement, améliorer la qualité de vie des citoyens du Nord du Canada.
Resumo:
Cette étude vise à déterminer les meilleurs prédicteurs de la dépression postnatale, à examiner leurs effets d’interaction et à identifier les corrélats qui prédisent le mieux la persistance des symptômes dépressifs entre 3 et 15 mois après la naissance. Cent quarante-cinq dyades mères-enfant, à risque modéré sur le plan psychosocial ont été évaluées à 3, 8 et 15 mois, lors de visites au domicile ou en laboratoire. Les mères ont complété le Symptom Checklist-90-R (SCL-90-R; Derogatis, 1994) afin de mesurer leurs symptômes dépressifs. Elles ont aussi complété d’autres questionnaires portant sur de nombreux corrélats liés à différents niveaux écosystémiques. Plus précisément, les corrélats liés à l’ontosystème, soit la mère, sont : son âge, son niveau de scolarité, son statut d’emploi, son état de santé, la présence de stress psychologiques et les cognitions-maternelles (sentiment d’efficacité parental, impact parental perçu, comportements parentaux hostiles-réactifs et de surprotection). Pour le microsystème, le tempérament de l’enfant, son développement cognitif et moteur ainsi que la qualité de la relation conjugale sont examinés. Enfin, le soutien social et le revenu familial sont considérés comme des corrélats de l’exosystème. Les résultats montrent que la dépression prénatale, le stress psychologique prénatal et postnatal, l’état de santé de la mère et le développement mental de l’enfant ont un lien significatif avec la dépression postnatale, à tous les temps de mesure, lorsqu’observés de façon indépendante. Ce lien se maintient pour le stress psychologique postnatal, même en présence d’autres variables. Des effets d’interaction significatifs sont observés entre le stress psychologique postnatal et le développement mental de l’enfant, ainsi qu’entre le stress psychologique postnatal et l’état de santé de la mère, dans la prédiction de la dépression postnatale. Enfin, les analyses portant sur la persistance de la dépression postnatale n’ont pu être réalisées vu des scores de dépression trop faibles.
Resumo:
Cette étude vise à examiner les liens entre la sécurité d’attachement mère-enfant et les trois dimensions de la relation élève-enseignant, soit la proximité, la dépendance et les conflits. Plus encore, elle vise à examiner si les relations entre ces deux construits sont influencées ou modérées par le sexe de l’enfant et le niveau risque psychosocial auquel l’enfant est exposé. Quatre-vingt-neuf (89) dyades mère-enfant ont été évaluées. La sécurité d’attachement est mesurée à domicile lorsque l’enfant est âgé de 15 et de 18 mois et également en laboratoire deux semaines après la visite à domicile. De manière à évaluer la qualité de la relation élève-enseignant, les enseignantes des enfants ont été sollicitées vers la fin de la première année scolaire (environ 7 ans) afin de compléter un questionnaire. Dans un premier temps, les résultats obtenus suggèrent que les liens significatifs entre nos deux concepts sont spécifiques à seulement certaines dimensions de la relation élève-enseignant. De plus, les résultats montrent un effet de modération entre la sécurité d’attachement et le niveau de risque psychosocial dans la prédiction de la qualité de la relation élève-enseignant, plus spécifiquement au niveau des conflits. Quant au sexe de l’enfant, aucun effet significatif n’est trouvé sur la relation entre les deux concepts.
Resumo:
Avec son plan métropolitain d’aménagement et de développement, la communauté métropolitaine de Montréal met de l’avant plusieurs orientations visant la sphère environnementale. Parmi les objectifs formulés, on retrouve la mise en valeur des atouts naturels de la région et la protection de 17 % du territoire, ce qui n’est pas étonnant sachant les nombreux avantages reliés à la présence des milieux naturels sur un territoire urbanisé. Les aires protégées sont en effet essentielles au maintien de la biodiversité et des services écosystémiques associés au bien-être humain. Toutefois, les analyses géostatistiques réalisées indiquent que peu de municipalités de la région respectent les orientations mises de l’avant par la communauté et que la plupart des bassins versants n’ont pas un niveau adéquat de protection. Les statistiques présentées par la communauté métropolitaine de Montréal (9,6 % d’aires protégées) sont certes acceptables à première vue si l’on considère l’état de la situation au Québec (9,33 %) et dans la zone sud de la province (4,8 %), mais une étude plus approfondie démontre que la majeure partie des territoires protégés sont en milieu aquatique (77 %) et la présence d’importantes zones de carences en aires protégées au nord-est et au sud-ouest. En ce qui concerne les aspects sociaux et économiques, la localisation actuelle des aires protégées crée des iniquités en matière d’accès à la nature (33 % des municipalités ont une portion de leur territoire à plus de 5 km de tout espace protégé), et les municipalités qui font des efforts en termes de conservation ne sont pas nécessairement celles qui en retirent les bénéfices sur le plan de la richesse foncière. Compte tenu de la complexité inhérente à la mise en oeuvre des objectifs du plan métropolitain dans le contexte régional, diverses pistes de solutions peuvent être envisagées pour le développement du réseau d’aires protégées. De meilleures politiques d’aménagement du territoire et un cadre législatif adéquat semblent indispensables afin de mettre un frein à la destruction des milieux naturels, d’encourager la connexion entre les noyaux de biodiversité et d’inciter la restauration des milieux perturbés. Des règles qui tiennent compte des particularités régionales doivent aussi être mises en place afin de promouvoir le partage des coûts et bénéfices de la conservation. Il faudra faire valoir les bénéfices des aires protégées auprès du public, car la simple protection des territoires ne sera pas suffisante à la saine gestion des écosystèmes et l’implication des acteurs concernés sera absolument nécessaire sachant les multiples menaces qui guettent les milieux naturels.
Resumo:
Résumé : La formation de métastases s’inscrit comme la finalité d’un processus darwinien dans lequel les cellules tumorales subissent des altérations génétiques et épigénétiques dans l’unique but de préserver un avantage prolifératif. L’environnement hypoxique, caractéristique des tumeurs solides, se révèle comme une pression de sélection et un facteur déterminant dans la progression tumorale. Face à l’hypoxie, une des adaptations majeures des cellules tumorales est le déséquilibre du pH cellulaire qui mène à la formation de métastases et à la résistance à la chimiothérapie. Cette thèse met en lumière de nouveaux liens moléculaires entre l’hypoxie et la régulation du pH dans des contextes d’invasion cellulaire et de chimiorésistance. Les échangeurs d’ions NHE1 et NHE6 sont au cœur de ces études où de nouveaux rôles dans la progression du cancer leur ont été attribués. Premièrement, nous avons observé l’influence de l’hypoxie sur la régulation de NHE1 par p90RSK et les conséquences fonctionnelles de cette interaction dans l’invasion cellulaire par les invadopodes. En conditions hypoxiques, NHE1 est activé par p90RSK résultant en une acidification extracellulaire. En modifiant le pH, NHE1 stimule la formation des invadopodes et la dégradation de la matrice extracellulaire. Ainsi, la phosphorylation de NHE1 par p90RSK en hypoxie apparaît comme un biomarqueur potentiel des cancers métastatiques. Peu étudié, le pH endosomal peut intervenir dans la chimiorésistance mais les mécanismes sont inconnus. Nous avons développé une méthode pour mesurer précisément le pH endosomal par microscopie. Ceci a permis d’illuminer un nouveau mécanisme de résistance induit par l’hypoxie et mettant en vedette l’échangeur NHE6. L’hypoxie favorise l’interaction de NHE6 avec RACK1 à la membrane plasmique empêchant la localisation endosomale de l’échangeur. Cette interaction mène à la séquestration de la doxorubicine dans des endosomes sur-acidifiés. Ces travaux mettent en évidence pour la première fois le rôle du pH endosomal et l’échangeur NHE6 comme des éléments centraux de la chimiorésistance induite par l’hypoxie. Cette thèse renforce donc l’idée voulant que les interactions entre les cellules tumorales et le microenvironnement hypoxique sont le « talon d’Achille » du cancer et la régulation du pH cellulaire est primordiale dans l’adaptation des cellules à l’hypoxie et l’instauration du phénotype malin du cancer. La découverte de nouveaux rôles pro-tumoraux pour NHE1 et NHE6 les placent à l’avant-plan pour le développement de stratégies thérapeutiques orientées contre la formation de métastases et la chimiorésistance.
Resumo:
Une structure en béton armé est sujette à différents types de sollicitations. Les tremblements de terre font partie des événements exceptionnels qui induisent des sollicitations extrêmes aux ouvrages. Pour faire face à cette problématique, les codes de calcul des ponts routiers font appel à une approche basée sur des niveaux de performance qui sont rattachés à des états limites. Actuellement, les états limites d'une pile de ponts en béton armé (BA) confinée à l'aide de polymères renforcés de fibres de carbone (PRFC) proposés dans la littérature ne prennent pas en compte le confinement lié au chemisage de PRFC en combinaison avec celui des spirales d'acier. Ce projet de recherche était la suite du volet de contrôle non destructif d'une étude réalisée en 2012 qui comprenait un volet expérimental [Carvalho, 2012] et un volet numérique [Jean, 2012]. L'objectif principal était de compléter l'étude du comportement des poteaux en BA renforcés de PRFC soumis à un chargement cyclique avec les données acoustiques recueillies par St-Martin [2014]. Plus précisément, les objectifs spécifiques étaient de déterminer les états limites reliés aux niveaux de performance et de caractériser la signature acoustique de chaque état limite (p. ex. fissuration du béton, plastification de l'acier et rupture du PRFC). Une méthodologie d'analyse acoustique basée sur l'état de l'art de Behnia et al. [2014] a été utilisée pour quantifier la gravité, localiser et caractériser le type de dommages. Dans un premier temps, les données acoustiques provenant de poutres de 550 mm x 150 mm x 150 mm ont permis de caractériser la signature acoustique des états limites. Puis, des cinq spécimens d'essai construits en 2012, les données acoustiques de trois spécimens, soient des poteaux circulaires d'un diamètre de 305 mm et d'une hauteur de 2000 mm ont été utilisée pour déterminer les états limites. Lors de ces essais, les données acoustiques ont été recueillies avec 14 capteurs de résonances qui étaient reliés à un système multicanal et au logiciel AEwin SAMOS 5.23 de Physical Acoustics Corporation (PAC) [PAC, 2005] par St-Martin [2014]. Une analyse de la distribution des paramètres acoustiques (nbr. de comptes et énergie absolue) combiné à la localisation des événements et le regroupement statistique, communément appelé clustering, ont permis de déterminer les états limites et même, des signes précurseurs à l'atteinte de ces états limites (p. ex. l'initiation et la propagation des fissures, l'éclatement de l'enrobage, la fissuration parallèle aux fibres et l'éclatement du PRFC) qui sont rattachés aux niveaux de performances des poteaux conventionnels et confinés de PRFC. Cette étude a permis de caractériser la séquence d'endommagement d'un poteau en BA renforcé de PRFC tout en démontrant l'utilité de l'écoute acoustique pour évaluer l'endommagement interne des poteaux en temps réel. Ainsi, une meilleure connaissance des états limites est primordiale pour intégrer les PRFC dans la conception et la réhabilitation des ouvrages.
Resumo:
Les inventaires archéologiques représentent une part importante des travaux archéologiques qui sont effectués en sol québécois. Il s’agit d’interventions qui sont réalisées en milieux urbains ou ruraux, mais également dans des milieux forestiers parfois éloignés. Lors de ces interventions, plusieurs informations de nature spatiale sont prises, tant pour évaluer la présence ou l’absence de vestiges archéologiques que pour décrire l’environnement et les perturbations observées. Les données issues de ces travaux sont de manière générale enregistrées sur le terrain sur des supports papiers, pour être éventuellement transférées en format numérique après l’intervention, et la localisation sur le terrain est effectuée à l’aide de cartes, de la boussole et d’un appareil GPS. Ce projet cherche à évaluer la contribution potentielle d’une solution géomatique mobile qui permettrait d’assister les archéologues sur le terrain, tant au niveau de la saisie de données que de la géolocalisation sur le terrain. Afin d’identifier l’intérêt, les attentes et les besoins prioritaires d’une telle solution, une enquête a été réalisée auprès de la communauté archéologique. Subséquemment, afin de démontrer qu’une solution géomatique mobile pourrait être développée afin de soutenir les travaux archéologiques, un appareil mobile adapté aux contraintes du terrain archéologique a été identifié et un prototype d’application a été développé, sur la base des résultats de l’enquête obtenus. Il nous a par la suite été possible de faire prendre en main la solution mobile développée par une archéologue et un essai en milieu contrôlé a pu être réalisé afin d’avoir une évaluation critique de l’application et de proposer des pistes d’amélioration. Les résultats obtenus indiquent que la technologie géomatique mobile est aujourd’hui suffisamment accessible pour pouvoir bien s’adapter aux réalités de terrain et ainsi venir répondre à certains besoins des professionnels de terrain tout en demeurant abordable. Malgré quelques pistes d’amélioration qui ont été identifiées, l’enthousiasme suscité par l’application développée démontre l’intérêt des utilisateurs à intégrer ces nouvelles technologies. La démarche de développement employée est également novatrice puisqu’elle permet de développer, en l’espace de quelques mois, une application adaptée à un contexte de terrain professionnel particulier, tout en demeurant grandement modulable et pouvant s’adapter à d’autres domaines d’application.
Resumo:
Chaque année, le piratage mondial de la musique coûte plusieurs milliards de dollars en pertes économiques, pertes d’emplois et pertes de gains des travailleurs ainsi que la perte de millions de dollars en recettes fiscales. La plupart du piratage de la musique est dû à la croissance rapide et à la facilité des technologies actuelles pour la copie, le partage, la manipulation et la distribution de données musicales [Domingo, 2015], [Siwek, 2007]. Le tatouage des signaux sonores a été proposé pour protéger les droit des auteurs et pour permettre la localisation des instants où le signal sonore a été falsifié. Dans cette thèse, nous proposons d’utiliser la représentation parcimonieuse bio-inspirée par graphe de décharges (spikegramme), pour concevoir une nouvelle méthode permettant la localisation de la falsification dans les signaux sonores. Aussi, une nouvelle méthode de protection du droit d’auteur. Finalement, une nouvelle attaque perceptuelle, en utilisant le spikegramme, pour attaquer des systèmes de tatouage sonore. Nous proposons tout d’abord une technique de localisation des falsifications (‘tampering’) des signaux sonores. Pour cela nous combinons une méthode à spectre étendu modifié (‘modified spread spectrum’, MSS) avec une représentation parcimonieuse. Nous utilisons une technique de poursuite perceptive adaptée (perceptual marching pursuit, PMP [Hossein Najaf-Zadeh, 2008]) pour générer une représentation parcimonieuse (spikegramme) du signal sonore d’entrée qui est invariante au décalage temporel [E. C. Smith, 2006] et qui prend en compte les phénomènes de masquage tels qu’ils sont observés en audition. Un code d’authentification est inséré à l’intérieur des coefficients de la représentation en spikegramme. Puis ceux-ci sont combinés aux seuils de masquage. Le signal tatoué est resynthétisé à partir des coefficients modifiés, et le signal ainsi obtenu est transmis au décodeur. Au décodeur, pour identifier un segment falsifié du signal sonore, les codes d’authentification de tous les segments intacts sont analysés. Si les codes ne peuvent être détectés correctement, on sait qu’alors le segment aura été falsifié. Nous proposons de tatouer selon le principe à spectre étendu (appelé MSS) afin d’obtenir une grande capacité en nombre de bits de tatouage introduits. Dans les situations où il y a désynchronisation entre le codeur et le décodeur, notre méthode permet quand même de détecter des pièces falsifiées. Par rapport à l’état de l’art, notre approche a le taux d’erreur le plus bas pour ce qui est de détecter les pièces falsifiées. Nous avons utilisé le test de l’opinion moyenne (‘MOS’) pour mesurer la qualité des systèmes tatoués. Nous évaluons la méthode de tatouage semi-fragile par le taux d’erreur (nombre de bits erronés divisé par tous les bits soumis) suite à plusieurs attaques. Les résultats confirment la supériorité de notre approche pour la localisation des pièces falsifiées dans les signaux sonores tout en préservant la qualité des signaux. Ensuite nous proposons une nouvelle technique pour la protection des signaux sonores. Cette technique est basée sur la représentation par spikegrammes des signaux sonores et utilise deux dictionnaires (TDA pour Two-Dictionary Approach). Le spikegramme est utilisé pour coder le signal hôte en utilisant un dictionnaire de filtres gammatones. Pour le tatouage, nous utilisons deux dictionnaires différents qui sont sélectionnés en fonction du bit d’entrée à tatouer et du contenu du signal. Notre approche trouve les gammatones appropriés (appelés noyaux de tatouage) sur la base de la valeur du bit à tatouer, et incorpore les bits de tatouage dans la phase des gammatones du tatouage. De plus, il est montré que la TDA est libre d’erreur dans le cas d’aucune situation d’attaque. Il est démontré que la décorrélation des noyaux de tatouage permet la conception d’une méthode de tatouage sonore très robuste. Les expériences ont montré la meilleure robustesse pour la méthode proposée lorsque le signal tatoué est corrompu par une compression MP3 à 32 kbits par seconde avec une charge utile de 56.5 bps par rapport à plusieurs techniques récentes. De plus nous avons étudié la robustesse du tatouage lorsque les nouveaux codec USAC (Unified Audion and Speech Coding) à 24kbps sont utilisés. La charge utile est alors comprise entre 5 et 15 bps. Finalement, nous utilisons les spikegrammes pour proposer trois nouvelles méthodes d’attaques. Nous les comparons aux méthodes récentes d’attaques telles que 32 kbps MP3 et 24 kbps USAC. Ces attaques comprennent l’attaque par PMP, l’attaque par bruit inaudible et l’attaque de remplacement parcimonieuse. Dans le cas de l’attaque par PMP, le signal de tatouage est représenté et resynthétisé avec un spikegramme. Dans le cas de l’attaque par bruit inaudible, celui-ci est généré et ajouté aux coefficients du spikegramme. Dans le cas de l’attaque de remplacement parcimonieuse, dans chaque segment du signal, les caractéristiques spectro-temporelles du signal (les décharges temporelles ;‘time spikes’) se trouvent en utilisant le spikegramme et les spikes temporelles et similaires sont remplacés par une autre. Pour comparer l’efficacité des attaques proposées, nous les comparons au décodeur du tatouage à spectre étendu. Il est démontré que l’attaque par remplacement parcimonieux réduit la corrélation normalisée du décodeur de spectre étendu avec un plus grand facteur par rapport à la situation où le décodeur de spectre étendu est attaqué par la transformation MP3 (32 kbps) et 24 kbps USAC.
Resumo:
Au travers de cette étude, nous proposons de mettre en place un système d’information géographique (SIG) prédictif afin d’obtenir le classement des pays vulnérables à la brusque variation des prix du maïs. L'élément déclencheur de cette variation sera un aléa climatique sur la zone de culture américaine, premier pays producteur. Afin d'analyser les conséquences d'une catastrophe naturelle, il fut nécessaire de construire un indice final de vulnérabilité par le regroupement de plusieurs thématiques (agricole, économique et socio politique). Les données des différentes thématiques ainsi que les résultats sont intégrés dans une base de données à référence spatiale pour permettre la restitution des résultats dans un SIG web.
Resumo:
Le contexte de travail actuel rend l’engagement affectif (EA) des employés envers l’organisation à la fois essentiel et difficile à maintenir. De plus, la présence simultanée de plusieurs générations dans les milieux de travail entraîne un questionnement sur la façon dont les pratiques de gestion devraient ou non être adaptées pour répondre aux besoins spécifiques de chaque groupe d’âge. La recherche a permis d’établir que l’habilitation psychologique (HP) des employés est un levier prometteur pour favoriser l’EA envers l’organisation, en permettant à l’employé de répondre à ses besoins de sens, de compétence, d’autonomie et d’influence. Le rôle de chacune des dimensions spécifiques de l’HP dans le développement de l’EA a toutefois été peu étudié, de même que son impact sur l’engagement envers le superviseur et la tâche. De plus, même s’il a été suggéré que les employés de différents groupes d’âge présentaient des attentes et besoins différents sur le plan de l’habilitation psychologique au travail, peu d’études empiriques ont été réalisées sur le sujet. Avec un échantillon de 247 employés d’un établissement québécois du réseau de la santé, la présente recherche avait pour objectifs 1) de confirmer le lien entre l’HP globale et l’EA envers l’organisation, le superviseur et la tâche, 2) de vérifier la contribution relative de chacune des quatre dimensions de l’HP (sens, autonomie, compétence, influence) dans la prédiction de l’EA au travail et 3) de déterminer si l’âge modère la relation entre l’HP et l’EA au travail. Les résultats de l’étude ont permis de confirmer que le niveau d’HP globale prédit l’EA envers l’organisation, le superviseur et la tâche. Plus spécifiquement, le sens, la compétence et l’influence permettent de prédire l’EA envers l’organisation, l’autonomie et l’influence prédisent l’EA envers le superviseur, alors que le sens et l’autonomie prédisent l’EA envers la tâche. Dans la présente étude, l’âge ne jouait pas de rôle modérateur entre l’HP et l’EA au travail. Ces résultats suggèrent que les pratiques organisationnelles favorisant l’état d’HP sont un levier important et susceptible de favoriser l’engagement affectif des employés envers l’organisation, le superviseur et la tâche, et ce, indépendamment de l’âge des employés.
Resumo:
Résumé : Les méthodes de détection de similarités de sites de liaison servent entre autres à la prédiction de fonction et à la prédiction de cibles croisées. Ces méthodes peuvent aider à prévenir les effets secondaires, suggérer le repositionnement de médicament existants, identifier des cibles polypharmacologiques et des remplacements bio-isostériques. La plupart des méthodes utilisent des représentations basées sur les atomes, même si les champs d’interaction moléculaire (MIFs) représentent plus directement ce qui cherche à être identifié. Nous avons développé une méthode bio-informatique, IsoMif, qui détecte les similarités de MIF entre différents sites de liaisons et qui ne nécessite aucun alignement de séquence ou de structure. Sa performance a été comparée à d’autres méthodes avec des bancs d’essais, ce qui n’a jamais été fait pour une méthode basée sur les MIFs. IsoMif performe mieux en moyenne et est plus robuste. Nous avons noté des limites intrinsèques à la méthodologie et d’autres qui proviennent de la nature. L’impact de choix de conception sur la performance est discuté. Nous avons développé une interface en ligne qui permet la détection de similarités entre une protéine et différents ensembles de MIFs précalculés ou à des MIFs choisis par l’utilisateur. Des sessions PyMOL peuvent être téléchargées afin de visualiser les similarités identifiées pour différentes interactions intermoléculaires. Nous avons appliqué IsoMif pour identifier des cibles croisées potentielles de drogues lors d’une analyse à large échelle (5,6 millions de comparaisons). Des simulations d’arrimage moléculaire ont également été effectuées pour les prédictions significatives. L’objectif est de générer des hypothèses de repositionnement et de mécanismes d’effets secondaires observés. Plusieurs exemples sont présentés à cet égard.
Resumo:
Résumé: L’Institut pour l'étude de la neige et des avalanches en Suisse (SLF) a développé SNOWPACK, un modèle thermodynamique multi-couches de neige permettant de simuler les propriétés géophysiques du manteau neigeux (densité, température, taille de grain, teneur en eau, etc.) à partir desquelles un indice de stabilité est calculé. Il a été démontré qu’un ajustement de la microstructure serait nécessaire pour une implantation au Canada. L'objectif principal de la présente étude est de permettre au modèle SNOWPACK de modéliser de manière plus réaliste la taille de grain de neige et ainsi obtenir une prédiction plus précise de la stabilité du manteau neigeux à l’aide de l’indice basé sur la taille de grain, le Structural Stability Index (SSI). Pour ce faire, l’erreur modélisée (biais) par le modèle a été analysée à l’aide de données précises sur le terrain de la taille de grain à l’aide de l’instrument IRIS (InfraRed Integrated Sphere). Les données ont été recueillies durant l’hiver 2014 à deux sites différents au Canada : parc National des Glaciers, en Colombie-Britannique ainsi qu’au parc National de Jasper. Le site de Fidelity était généralement soumis à un métamorphisme à l'équilibre tandis que celui de Jasper à un métamorphisme cinétique plus prononcé. Sur chacun des sites, la stratigraphie des profils de densités ainsi des profils de taille de grain (IRIS) ont été complétés. Les profils de Fidelity ont été complétés avec des mesures de micropénétromètre (SMP). L’analyse des profils de densité a démontré une bonne concordance avec les densités modélisées (R[indice supérieur 2]=0.76) et donc la résistance simulée pour le SSI a été jugée adéquate. Les couches d’instabilités prédites par SNOWPACK ont été identifiées à l’aide de la variation de la résistance dans les mesures de SMP. L’analyse de la taille de grain optique a révélé une surestimation systématique du modèle ce qui est en accord avec la littérature. L’erreur de taille de grain optique dans un environnement à l’équilibre était assez constante tandis que l’erreur en milieux cinétique était plus variable. Finalement, une approche orientée sur le type de climat représenterait le meilleur moyen pour effectuer une correction de la taille de grain pour une évaluation de la stabilité au Canada.
Resumo:
Cette étude examine l'effet de la révision du chapitre 3480 du Manuel de l'I.C.C.A. relatif aux éléments extraordinaires sur la valeur prédictive du bénéfice avant éléments extraordinaires. Le choix du critère de la valeur prédictive repose sur le fait que l'I.C.C.A. reconnaît qu'il s'agit ici d'une caractéristique essentielle à l'obtention d'une information comptable utile. Ainsi, le resserrement de la définition des éléments extraordinaires par l'ajout d'un troisième critère a contribué à une réduction du nombre de ces éléments dans les états financiers des entreprises canadiennes. En effet, la description de l'échantillon a montré que plusieurs catégories d'éléments extraordinaires considérées avant la révision de la norme canadienne dans la partie non courante de l'état des résultats sont déplacées, par l'effet de la révision, à la partie courante de cet état. L'examen des éléments inhabituels après la révision a permis de retrouver la majorité des éléments qui auraient pus être qualifiés d'extraordinaires si on avait appliqué l'ancienne définition. Les éléments qui ne satisfont pas les trois critères sont, en fait, considérés dans le calcul du bénéfice mais sont maintenant présentés dans la partie courante de l'état des résultats. Le bénéfice avant éléments extraordinaires incluera dorénavant un plus grand nombre d'éléments non récurrents. Par conséquent, il est possible que l'ajout du troisième critère à la définition des éléments extraordinaires entraine une diminution de la valeur prédictive du bénéfice avant éléments extraordinaires. La période d'analyse s'étale sur les six années qui entourent la révision, soit trois ans avant la révision (1987, 1988 et 1989) et trois ans après la révision (1990, 1991 et 1992). Le modèle auto régressif de premier ordre a été retenu pour la prédiction des bénéfices par action avant éléments extraordinaires de chaque période. Les résultats obtenus suggèrent que la valeur prédictive du bénéfice par action avant éléments extraordinaires a diminué à la suite de la révision du chapitre 3480 du Manuel. Il ressort de cette étude que les débats sur la manière dont les éléments extraordinaires devraient être définis et présentés dans les états des résultats des entreprises canadiennes ne sont pas résolus par cette révision.
Resumo:
Résumé: Ce mémoire de maîtrise est une étude des probabilités d’interactions (sections efficaces) des électrons de basse énergie avec une molécule d’intérêt biologique. Cette molécule est le tétrahydrofurane (THF) qui est un bon modèle de la molécule constituant la colonne vertébrale de l’ADN; le désoxyribose. Étant donné la grande quantité d’électrons secondaires libérés lors du passage des radiations à travers la matière biologique et sachant que ceux-ci déposent la majorité de l’énergie, l’étude de leurs interactions avec les molécules constituant l’ADN devient rapidement d’une grande importance. Les mesures de sections efficaces sont faites à l’aide d’un spectromètre à haute résolution de pertes d’énergie de l’électron. Les spectres de pertes d’énergie de l’électron obtenus de cet appareil permettent de calculer les valeurs de sections efficaces pour chaque vibration en fonction de l’énergie incidente de l’électron. L’article présenté dans ce mémoire traite de ces mesures et des résultats. En effet, il présente et explique en détail les conditions expérimentales, il décrit la méthode de déconvolution qui est utilisée pour obtenir les valeurs de sections efficaces et il présente et discute des 4 résonances observées dans la dépendance en énergie des sections efficaces. En effet, cette étude a permis de localiser en énergie 4 résonances et celles-ci ont toutes été confirmées par des recherches expérimentales et théoriques antérieures sur le sujet des collisions électrons lents-THF. En outre, jamais ces résonances n’avaient été observées simultanément dans une même étude et jamais la résonance trouvée à basse énergie n’avait été observée avec autant d’intensité que cette présente étude. Cette étude a donc permis de raffiner notre compréhension fondamentale des processus résonants impliqués lors de collisions d’électrons secondaires avec le THF. Les valeurs de sections efficaces sont, quant à elles, très prisées par les théoriciens et sont nécessaires pour les simulations Monte Carlo pour prédire, par exemple, le nombre d’ions formées après le passage des radiations. Ces valeurs pourront justement être utilisées dans les modèles de distribution et dépôt d’énergie au niveau nanoscopique dans les milieux biologiques et ceux-ci pourront éventuellement améliorer l’efficacité des modalités radiothérapeutiques.
Resumo:
Cette étude s'inscrit dans le cadre d'une recherche universitaire dans le domaine de l'éducation. Le but ciblé par celle-ci est d'évaluer l'impact ou l'effet d'un programme d'intervention sur les jeunes décrocheurs. Le programme d'intervention choisit est un programme gouvernemental fédéral, intitulé "Atelier d'orientation au travail (A.O.T.)". Il fait partie des programmes Défi et est parrainé par le ministère de l'Emploi et Immigration Canada, sous le département du développement de l'emploi. Le programme A.C.T a vu le jour en 1985 et a donc à son actif quatre ans d'opérations. Le principal objectif de ce programme est de prévenir l'abandon scolaire au secondaire. La présente recherche vise à fournir un éclairage particulier de l'impact ou effet qu'a ce programme sur la perception que se fait un jeune de son intérêt et de sa motivation à fréquenter l'école. À cet égard, certains étudiants du deuxième cycle du secondaire ont étés sondés à deux reprises par l'entremise du test de perception appelé; "Prédiction d'abandon scolaire (P.A.S.)". Ils ont passé ce test avant et après l'expérimentation du programme d'intervention A.O.T. Le test P.A.S. donne un indice sur la prédisposition d'abandon scolaire en sondant trois sections distinctes de la vie du jeune. La première partie permet de recueillir des informations sur le vécu du jeune à l'école, la deuxième sur l'aspect personnel et la troisième sur ce qui a trait à sa famille. […]