1000 resultados para Facteur d’intégration des TIC
Resumo:
Le but de cette thèse a consisté à comprendre les facteurs de la persévérance et de l’abandon scolaire des nouveaux arrivants haïtiens au Québec et à New York. La recension d’écrits a révélé une sous-documentation de la thématique en question. Toutefois, l’élaboration du cadre conceptuel nous a permis de mieux cerner la problématique, d’analyser et de synthétiser plusieurs approches théoriques dont les théories du rendement scolaire des immigrants (Rong et Brown, 2001 ; Warikoo et Carter, 2009 ; Xie et Greenman, 2011), l’approche bourdieusienne des capitaux (1979a, 1979b, 1980), le structuro-fonctionnalisme de Merton (1965) et le courant effets-écoles/ effets-enseignants (Crahay, 2000 ; Bressoux, 1994a). Nous avons également mis en évidence deux approches compréhensives à savoir l’interactionnisme (Weber, 1959 ; Boudon, 1979, 1994 ; Goffman, 1998 ; Garfinkel, 1967) et l’approche du rapport au savoir de l’équipe ESCOL (Rochex, 2002 ; Charlot, 2003) dans l’objectif de faire valoir le caractère relatif des conclusions d’une recherche qualitative qui priorise la subjectivité des participants dans l’analyse des faits sociaux. Dans cette recherche, nous avons interviewé onze participants à Montréal et à Brooklyn, parmi lesquels sept hommes et quatre femmes. Ils ont tous une expérience d’abandon scolaire au secondaire ou au secteur des adultes. Nous avons utilisé l’entretien semi-dirigé comme méthode de collecte d’information et l’analyse thématique est celle de l’analyse des données. L’analyse des données nous a permis de classer les informations fournies par les participants en cinq rubriques : capital économique, capital culturel, capital social, encadrement institutionnel et facteurs spécifiques. Ces cinq rubriques regroupent les facteurs de la persévérance et du décrochage scolaire évoqués par les participants de la recherche. La réalisation de cette thèse nous apporte un bon éclairage quant à notre tentative de comprendre la dynamique de l’abandon scolaire des jeunes et des jeunes adultes immigrants haïtiens de première génération au Québec et à New York, au secondaire et au secteur de l’éducation des adultes. Nous avons mis en relation les résultats de la recherche avec ceux des travaux que nous avons recensés dans la problématique et dans le cadre conceptuel de cette thèse. La synthèse de ces résultats nous a amené à faire une proposition d’éléments d’un modèle d’analyse que nous qualifions de « relance scolaire des nouveaux arrivants haïtiens au Québec et à New York ». L’analyse et la synthèse des facteurs émergents de la recherche, plus précisément des six thèmes qui composent la rubrique des facteurs spécifiques : facteurs démographiques, motivation personnelle, lacunes de base, facteurs affectifs, traits de personnalité et problèmes de comportement, nous ont permis d’élaborer un autre concept qui peut représenter une grande contribution à la persévérance scolaire des nouveaux arrivants haïtiens. Il s’agit de l’encadrement psycho-intégrationnel qui est une forme d’accompagnement dont les jeunes et les jeunes adultes nouveaux arrivants haïtiens pourront être bénéficiaires au début en vue d’un bon démarrage sur le plan socioéducatif et de leur persévérance scolaire au pays d’accueil. L’encadrement psycho-intégrationnel, consistera à mettre en relation certains faits psychologiques qui ont marqué la vie pré-migratoire des élèves jeunes et jeunes adultes d’origine haïtienne avec les faits sociaux qui peuvent influencer leur vie au pays d’accueil. C’est une forme d’assistance individuelle dont l’État, les institutions sociales d’intégration et l’école constitueront les principales structures de matérialisation. Les principaux intervenants, notamment les psychologues, les travailleurs sociaux et les anthropo-sociologues se chargeront de comprendre et d’orienter les nouveaux arrivants quant au nouveau comportement à adopter pour une meilleure évolution sur les plans socio-culturel, professionnel et économique. Mots clés : Persévérance scolaire, relance scolaire, immigrants haïtiens, première génération, nouveaux arrivants.
Resumo:
Les concentrés de protéines de lait sont couramment utilisés comme ingrédients lors de la standardisation du lait de fromagerie. La concentration des protéines est généralement réalisée par ultrafiltration (UF) à l’aide de membranes polymériques ayant un seuil de coupure de 10 kDa, et ce, jusqu’à un facteur de concentration volumique de 3.5X. Dans l’optique d’améliorer l’efficience du procédé d’UF, l’étude avait pour but de caractériser l’impact du mode opératoire (pression transmembranaire constante (465 et 672 kPa) et flux constant) ainsi que la température (10°C et 50°C) sur la performance du système jusqu’à un facteur de concentration volumique de 3.6X. Le module de filtration à l’échelle pilote comprenait une membrane d’UF en polyéthersulfone de 10 kDa d’une surface de 2,04 m2. La performance du système a été caractérisée sur le flux de perméation, la sélectivité et la consommation énergétique totale. L’étude a montré que le flux de perméation était 1,9 fois plus élevé à une température de 50°C comparativement à 10°C lors de l’UF du lait. Le coefficient de rejet des protéines n’a pas été affecté significativement par la pression transmembranaire et la température (P< 0,05). L’effet de la température a été observé au niveau de la teneur en calcium, laquelle était plus élevée de 12% dans les rétentats générés à 50C. La consommation énergétique totale du système d’UF était plus élevée à 10C comparativement à 50C, représentant 0,32±0,02 et 0,26±0,04 kWh/kg rétentat respectivement. Les résultats montrent que le ratio d’efficience énergétique (rapport entre le flux de perméation et la consommation énergétique) optimal a été obtenu à faible pression transmembranaire constante et à 50C. L’approche développée dans le cadre de ce projet fournira des outils aux industriels laitiers pour améliorer l’éco-efficience de leurs procédés de séparation baromembranaire.
Resumo:
Les résultats d’études récentes suggèrent que certains comportements de soutien des mentors pourraient augmenter les bénéfices du mentorat scolaire. Cependant, peu d’outils validés sont disponibles dans la littérature pour mesurer ces comportements. Il est aussi convenu que l’efficacité du mentorat scolaire dépend de la qualité de la relation tissée entre le mentor et son protégé, laquelle serait tributaire d’un ensemble de facteurs, dont les comportements du mentor. Néanmoins, encore une fois très peu d’études empiriques ont tenté d’identifier les patrons de comportements des mentors les plus susceptibles d’influencer la relation de mentorat et l’ajustement des protégés. La présente thèse poursuit deux objectifs, soit de construire et valider un outil de mesure des comportements de soutien des mentors oeuvrant en contexte de mentorat scolaire, puis d’explorer les liens entre des comportements de structure et de soutien des mentors, la relation de mentorat et l’ajustement des protégés. L’échelle de comportements des mentors (ECM) a été développée en s’inspirant des prémisses du modèle sociomotivationnel du mentorat (Larose & Tarabulsy, 2014). Deux cent cinquante-trois étudiants du collégial participant à un programme de mentorat scolaire d’une durée de huit mois ont complété une version expérimentale de l’ECM ainsi que différentes mesures de la qualité de la relation de mentorat à deux temps de leur participation au programme. Les résultats montrent que le questionnaire possède de bons coefficients de cohérence interne et une structure factorielle adéquate, à l’exception du facteur soutien à l’autonomie. De plus, trois des dimensions de l’ECM prédisent la qualité de la relation de mentorat et la perception d’utilité de l’intervention. Des recommandations pour l’utilisation et l’amélioration de l’ECM sont proposées. Sur la base des évaluations des protégés à l’ECM (Brodeur et al., 2015), quatre regroupements distincts de comportements de mentors ont été identifiés : Optimal, Suffisant, Contrôlant, et Inadéquat. Les résultats montrent que plus les mentors ont fait preuve de soutien et de structure, plus les protégés ont évalué positivement la relation et l’utilité du mentorat, sauf pour les profils Optimal et Contrôlant. Par ailleurs, uniquement l’ajustement social des protégés a différé du groupe contrôle, et ce proportionnellement à la quantité de soutien et de structure prodigués par les mentors. D’autre part, il est discuté de l’impact de l’ajustement initial des protégés sur les comportements des mentors. Des implications théoriques et pratiques des résultats des deux articles sont présentées. Mots-clés : mentorat scolaire, comportements des mentors, validation de questionnaire, qualité de la relation de mentorat, ajustement des protégés.
Resumo:
Cette thèse a pour sujet le développement d’un détecteur à fibre scintillante plastique pour la dosimétrie des faisceaux de photons de basses énergies. L’objectif principal du projet consiste à concevoir et caractériser cet instrument en vue de mesurer la dose de radiation reçue au cours des examens d’imagerie diagnostique et interventionnelle. La première section est consacrée à la conception de six différents systèmes et à l’évaluation de leur performance lorsqu’ils sont exposés à des rayonnements de hautes et basses énergies. Tous les systèmes évalués présentaient un écart type relatif (RSD) de moins de 5 % lorsqu’ils étaient exposés à des débits de dose de plus de 3 mGy/s. Cette approche systématique a permis de déterminer que le tube photomultiplicateur répondait le mieux aux conditions d’exposition propres à la radiologie. Ce dernier présentait une RSD de moins de 1 % lorsque le débit de dose était inférieur à 0.10 mGy/s. L’étude des résultats permis également de suggérer quelques recommandations dans le choix d’un système en fonction de l’application recherchée. La seconde partie concerne l’application de ce détecteur à la radiologie interventionnelle en procédant à des mesures de dose à la surface d’un fantôme anthropomorphique. Ainsi, plusieurs situations cliniques ont été reproduites afin d’observer la précision et la fiabilité du détecteur. Ce dernier conserva une RSD inférieure à 2 % lorsque le débit de dose était supérieur à 3 mGy/min et d’environ 10 % au débit le plus faible (0.25 mGy/min). Les mesures sur fantôme montrèrent une différence de moins de 4 % entre les mesures du détecteur et celles d’une chambre d’ionisation lors du déplacement de la table ou du bras de l’appareil de fluoroscopie. Par ailleurs, cette différence est demeurée sous les 2 % lors des mesures de débit de dose en profondeur. Le dernier sujet de cette thèse porta sur les fondements physiques de la scintillation dans les scintillateurs plastiques. Les différents facteurs influençant l’émission lumineuse ont été analysés afin d’identifier leur contribution respective. Ainsi, la réponse du détecteur augmente de près d’un facteur 4 entre un faisceau de 20 kVp et 250 kVp. De ce signal, la contribution de la fluorescence produite dans la fibre claire était inférieure à 0.5 % lorsque les fibres étaient exposées sur 10 cm par des faisceaux de 20 à 250 kVp. Le phénomène d’extinction de la fluorescence par ionisation a également été étudié. Ainsi, l’atténuation du signal variait en fonction de l’énergie du faisceau et atteignit environ 20 % pour un faisceau de 20 kVp. En conclusion, cette étude suggère que les détecteurs à fibres scintillantes peuvent mesurer avec précision la dose de radiation reçue en imagerie diagnostique et interventionnelle, mais une calibration rigoureuse s’avère essentielle.
Resumo:
La connectivité fonctionnelle est reconnue pour altérer la fréquence des rencontres entre les individus et potentiellement affecter les coûts en lien avec la recherche de partenaires sexuels. La structure du paysage peut conséquemment engendrer de la variation dans le succès reproducteur des individus et par le fait même, modifier les opportunités de sélection sexuelle. Le but de cette étude était d’identifier l’influence de la structure du paysage sur les patrons de paternités hors couple (EPP) chez l’Hirondelle bicolore (Tachycineta bicolor), un insectivore aérien en déclin depuis environ 30 ans au Québec. Plus précisément, il était question d’évaluer l’importance relative de la disponibilité spatiotemporelle des partenaires potentiels, de la perméabilité de l’environnement aux mouvements, des caractéristiques individuelles, et des interactions entre certaines de ces variables sur la probabilité qu’un mâle fertilise une femelle, sur le nombre de mâles hors couple ayant fertilisé une femelle et enfin, sur le nombre de jeunes hors couple produits par une femelle. Pour se faire, une approche spatialement explicite basée sur la théorie des circuits a été employée. La collecte de données s’est faite sur 8 saisons de reproduction au sein d’un réseau de 40 fermes (10 nichoirs/ferme) situé le long d’un gradient d’intensification agricole de manière à ce que les individus se retrouvent dans des conditions socioécologiques contrastées. Selon les résultats obtenus, la densité de partenaires potentiels non locaux (i.e. hors ferme, mais au sein d’un rayon de 15 km) a eu un effet négatif sur la probabilité que deux individus produisent des jeunes hors couple, probablement à cause de l’effet de dilution entre compétiteurs. Cette même variable a également induit une augmentation du nombre de pères hors couple non locaux et de leurs jeunes dans une couvée donnée, mais seulement lorsque la résistance aux déplacements était faible. La densité locale a pour sa part eu l’effet inverse, ce qui laisse penser que les femelles auraient tendance à se contenter de leurs voisins immédiats quand les coûts de recherche dans le paysage sont trop élevés en comparaison à ce qui est disponible à proximité. Quant aux caractéristiques individuelles, leurs effets semblent négligeables à l’exception faite de la charge parasitaire moyenne des mâles locaux, laquelle pousserait les femelles à chercher des mâles en dehors de la ferme lorsqu’elle est élevée. Ce facteur ne représente toutefois pas seulement un indice potentiel de la qualité des jeunes produits par ces mâles, mais aussi un risque direct de transmission de parasites lors de copulations hors couple. Somme toute, il semble que les patrons de EPP soient davantage affectés par les variables du paysage que par la morphologie et la condition physique des individus. Ces découvertes sont d’un intérêt particulier puisque la compréhension des effets de l’écologie sur les paternités hors couple est essentielle pour une meilleure connaissance de la sélection sexuelle, des stratégies d’appariement et par le fait même, des processus évolutifs. De plus, identifier le rôle joué par le paysage dans les stratégies sexuelles pourrait aider à élaborer des plans de conservation appropriés pour les espèces dont le déclin est attribuable à des changements dans l’environnement.
Resumo:
Problématique Les réformes du système québécois de la santé et des services sociaux débutées en 2003 visent à le transformer en profondeur. La mise en œuvre de réseaux intégrés de services destinés aux personnes âgées en perte d’autonomie fonctionnelle s’inscrit dans ce mouvement de réformes. L’intégration des services nécessite toutefois des changements importants dans les modalités de régulation des systèmes sociosanitaires afin d’être en mesure d’assurer une meilleure réponse aux problèmes multidimensionnels et chroniques des personnes âgées en perte d’autonomie fonctionnelle vivant à domicile. La standardisation des pratiques professionnelles vise ainsi à réguler l’action des multiples acteurs et organisations concernés par la prise en charge des problèmes sociosanitaires. Nous avons analysé le contexte politique dans lequel s’inscrit ce mouvement de standardisation au moyen de deux logiques de performance. La première, la logique managériale, correspond à l’adoption par l’État social de principes néolibéraux s’inscrivant dans la nouvelle gestion publique. La deuxième logique, dite clinique, est construite autour de la standardisation des pratiques professionnelles par l’entremise des pratiques fondées sur des résultats probants. L’arrimage parfois complémentaire et parfois contradictoire entre ces deux logiques rend le débat sur la standardisation des professions particulièrement complexe, particulièrement dans les métiers relationnels comme le travail social (TS). Pour ses promoteurs, la standardisation fait en sorte de rendre le travail social plus scientifique et plus rationnel ce qui constitue un gage de qualité, d’efficacité et d’efficience. Pour ses détracteurs, la standardisation se présente comme une menace à l’autonomie des TS. Elle est considérée comme une attaque contre le praticien réflexif autonome qui n’est pas conciliable avec les fondements de la profession. Ainsi la compréhension du rapport des TS à la standardisation constitue un enjeu particulièrement important non seulement pour soutenir la mise en œuvre de réseaux de services intégrés destinés aux personnes âgées (RSIPA), mais aussi pour comprendre l’évolution en cours du travail social. L’usage d’outils cliniques standardisés s’accompagne de plusieurs formes de standardisations, soit des standards de conception, des standards terminologiques, des standards de performance et des standards procéduraux. Objectifs L’objectif général de cette thèse est de comprendre le rapport des TS aux différentes dimensions de la standardisation de leur pratique professionnelle en contexte de RSIPA. Plus spécifiquement, nous voulons : 1) Décrire les formes de standardisation émergentes en contexte de RSIPA; 2) Dégager les éléments de contexte et les caractéristiques perçues des outils standardisés qui influent sur leur appropriation par les TS; 3) Élucider la participation des TS au processus de régulation des pratiques professionnelles; et 4) Repérer les composantes des outils standardisés qui agissent comme des conditions structurantes de la pratique et celles qui se caractérisent par leur adaptabilité. Cadre théorique Cette thèse s’appuie sur deux perspectives théoriques complémentaires. La première, la théorie de la régulation sociale (Reynaud, 1997) nous permet d’analyser la standardisation comme un processus de régulation, afin de mettre à jour les ensembles de règles avec lesquelles les TS doivent composer ainsi que les adaptations et la part de jeu stratégique que l’on retrouve dans l’usage de ces règles. Notre deuxième perspective théorique, la sociologie des usages (Vedel, 1994), que nous en avons adaptée en appui sur la composition technique de Nélisse (1998) s’intéresse à l’activité sociale des acteurs relativement à leur utilisation des technologies. L’analyse des usages dans un contexte donné permet de comprendre de quelle manière les formes de standardisation qui accompagnent l’usage des outils cliniques standardisés peuvent potentiellement structurer la pratique professionnelle des TS, soit en la soutenant, soit en l’entravant. Méthodologie Cette thèse s’appuie sur une méthodologie qualitative, compréhensive et exploratoire. En appuie sur les principes de l’ergonomie cognitive (Falzon, 2004), nous avons examiné les prescriptions relatives aux usages des outils cliniques avec les usages de ces outils standardisés dans l’activité des intervenantes sociales (IS) formées en travail social. Nous avons opté pour une étude de cas multiples imbriquée comportant deux cas, en l’occurrence les équipes de programme perte d’autonomie liée au vieillissement (PALV), dans deux Centres de santé et de services sociaux (CSSS) où ont été implantés des réseaux de services intégrés destinés aux personnes âgées. Dans le premier, la mise en œuvre des RSIPA était à ses débuts alors que dans le deuxième, l’implantation était plus ancienne. Dans chacun des cas, quatre IS ont été recrutées. Nous avons triangulé quatre collectes de données distinctes et complémentaires soit une collecte de type documentaire pour chacun des deux cas. Avec chacune des IS, nous avons effectué trois jours d’observations directes de leur activité; un entretien compréhensif sur le sens général de la standardisation dans leur pratique; un entretien de type explicitation portant sur leur usage de l’outil d’évaluation multiclientèle (OEMC) dans un contexte particulier et un entretien compréhensif rétrospectif. Nous avons progressivement condensé et codé nos données en nous appuyant sur une stratégie de codage mixte. Les formes de standardisation émergentes en contexte de RSIPA Le rapport des IS aux outils standardisés comporte deux valences. La valence positive se manifeste lorsque les outils standardisés peuvent soutenir l’exercice du jugement professionnel des IS tout en préservant leur autonomie décisionnelle concernant les actions à mener dans leurs activités. Ainsi les IS ne manifestent pas de résistance particulièrement significatives par rapport aux formes de standardisation procédurales, conceptuelles et terminologiques qui accompagnent le modèle d’intégration de services implanté dans les deux CSSS à l’étude parce que globalement, ces formes de standardisation laissent une marge d’autonomie suffisante pour adapter les règles afin de répondre aux contingences cliniques propres aux situations singulières avec lesquelles elles doivent composer dans leur pratique. Nous avons cependant constaté que le mouvement de standardisation qui accompagne la mise en œuvre des RSIPA a été nettement érodé par un mouvement de standardisation des résultats qui découle de la logique de performance managériale notamment en contexte de reddition de compte. Ce dernier mouvement a en effet engendré des distorsions dans le premier. En ce sens, la standardisation des résultats se présente comme une contrainte sensiblement plus forte sur activité des IS que la standardisation procédurale associée à l’usage des outils standardisés RSIPA. La participation des TS au processus de régulation des pratiques professionnelles Nos résultats montrent une adhésion de principe des IS à la régulation de contrôle. Cette adhésion s’explique par la nature même des règles qui encadrent leur activité prudentielle. Puisque ces règles générales nécessitent d’être constamment interprétées à la lumière du jugement professionnel en jeu dans chacune des situations cliniques singulières, l’activité routinière des IS vise moins à les contourner qu’à les adapter dans les limites prévues dans l’espace de jeu autorisé. En ce sens, ce n’est que dans certaines circonstances que les IS expriment une résistance par rapport à la régulation de contrôle interne à leur organisation. C’est plutôt par rapport aux contraintes engendrées par certaines formes de régulation de contrôle externe que s’exprime cette résistance parce que ces dernières sont en mesure de peser significativement sur la régulation de l’activité des IS. Ainsi, la logique de performance managériale qui s’exerce à travers la reddition de comptes a pour effet d’entacher la portée des sources traditionnelles de régulation et de modifier les rapports de force entre les acteurs au sein des CSSS. En outre, la capacité régulatrice de certaines instances externes, comme l’hôpital, des mécanismes de plaintes utilisés par les usagers ou de certification de la qualité, est renforcée par le fait que ces instances sont médiatrices de formes de régulation de contrôle externe, comme la logique de performance managériale ou par des effets de médiatisation. Tous les acteurs de la hiérarchie en viennent ainsi à composer avec les régulations de contrôle pour répondre aux contraintes qui s’exercent sur eux ce qui se traduit dans un processus réflexif de régulation marqué par le jeu des uns et des autres, par des micro-déviances, ainsi que par des arrangements locaux. Étant donné que la régulation de contrôle autorise une marge d’autonomie importante, la régulation autonome paraît d’une certaine manière moins prégnante, voire moins nécessaire pour réguler l’activité des IS. Les formes de régulation autonome que nous avons mise à jour se déclinent en deux espaces d’autonomie distincts que les IS veulent préserver. Le premier, l’espace d’autonomie professionnelle a pour objet la capacité d’action générale des IS dans leur activité professionnelle et est donc transversal à l’ensemble de leur activité. Le second, l’espace d’autonomie de la singularité clinique, porte sur la marge d’autonomie des IS au regard de leur activité d’intervention auprès des usagers. Cet espace constitue une sorte de non-lieu normatif, non pas parce qu’aucune règle n’y régule les actions, mais bien parce que les règles qui y jouent se situent en partie en dehors du champ d’influence de l’ensemble des forces de standardisation agissant sur l’activité des IS. La régulation conjointe apparaît lorsque la négociation prend place à l’extérieur des limites de l’espace de jeu autorisé par les règles existantes ou que, au terme de la négociation, ces limites sont modifiées. La majorité des compromis observés ne se traduisent pas forcément sous une forme écrite et contractuelle. Certains d’entre eux se présentent comme une adaptation locale et circonstanciée et prennent la forme de régulations conjointes ad hoc alors que d’autres, les régulations conjointes institutionnalisées, s’inscrivent davantage dans la durée. Ces dernières se manifestent autour de situations cliniques pour lesquelles les règles existantes s’avèrent insuffisantes à réguler l’activité. Dans ces conditions, les négociations entre les acteurs visent à redéfinir les nouvelles limites de l’espace de jeu. Ce processus est alimenté par le cumul jurisprudentiel de chacune des situations singulières collectivisées. Les règles ainsi produites ne s’inscrivent jamais de manière dyschronique par rapport aux aspects de l’activité des IS qu’elles doivent réguler, ce qui tend à renforcer le caractère pérenne de leur capacité régulatrice. Le caractère habilitant et contraignant des dispositifs informatiques Il est difficile de comprendre la capacité régulatrice d’un dispositif informatique comme la plateforme RSIPA que l’on retrouve en PALV, en examinant uniquement ses paramètres de conception. L’analyse de ses usages en contexte s’avère indispensable. Des dispositifs informatiques comme le RSIPA possèdent la capacité d’inscrire l’intervention clinique dans un ensemble de procédures sous-jacentes, qui peuvent être plus ou moins explicites, mais qui ont la capacité d’engendrer une certaine standardisation des activités, qui peut être simultanément procédurale, terminologique et conceptuelle. Ces dispositifs informatiques détiennent ainsi la capacité d’opérer une médiation des régulations de contrôle dont ils sont porteurs. Bien qu’ils limitent l’espace de jeu clandestin, ces dispositifs ne sont pas en mesure d’enrayer complètement la capacité des IS à jouer avec les règles, notamment parce qu’ils se prêtent à des tricheries de leur part. Néanmoins, la capacité de ces plateformes informatiques à se comporter comme des instances de visualisation de l’activité peut réduire la capacité des IS à jouer et à déjouer les règles. Or, ces formes de déviance leur permettent de composer avec l’ensemble des contingences auxquelles elles sont confrontées dans leur pratique professionnelle. Cette bivalence dans l’usage de ces dispositifs informatiques soulève des enjeux relativement à leur conception afin de favoriser les meilleurs arrimages possible entre leurs fonctions cliniques et administratives.
Resumo:
Résumé : La capacité de décider parmi plusieurs possibilités d'actions, grâce à l'information sensorielle disponible, est essentielle à un organisme interagissant avec un environnement complexe. Les modèles actuels de sélection d'une action soutiennent que le cerveau traite continuellement l'information sensorielle afin de planifier plusieurs possibilités d'action en parallèle. Dans cette perspective, ces représentations motrices, associées à chaque possibilité d'action, sont en constante compétition entre elles. Afin qu'une alternative puisse être sélectionnée pour le mouvement, une valeur de pondération, intégrant une multitude de facteurs, doit être associée à chacun des plans moteurs afin de venir moduler la compétition. Plusieurs études se sont intéressées aux différents facteurs modulant la sélection de l'action, tels que la disposition de l'environnement, le coût des actions, le niveau de récompense, etc. Par contre, il semble qu'aucune étude n'ait rapporté ce qu'il advient lorsque la valeur de pondération de chacune des actions possibles est identique. Dans ce contexte, quel est l'élément permettant de venir moduler la sélection de l'action? De ce fait, l'objectif principal de mon projet de maitrise est d'investiguer le facteur permettant au cerveau de sélectionner une action lorsque tous les facteurs rapportés dans la littérature sont contrôlés. De récentes données ont montré que les oscillations corticales lentes dans la bande delta peuvent servir d'instrument de sélection attentionnelle en modulant l'amplitude de la réponse neuronale. Ainsi, les stimuli arrivant dans le cortex pendant une phase en delta de forte excitabilité sont amplifiés, tandis que ceux arrivant lors d'une phase en delta de faible excitabilité sont atténués. Ceci dit, il est possible que la phase en delta dans laquelle se trouve le cerveau au moment d'effectuer la sélection d'une action puisse influencer la décision. Utilisant une tâche de sélection de main, cette étude teste l'hypothèse que la sélection de la main est associée à la phase en delta des ensembles neuronaux codant le mouvement de chacune des mains, lorsque tous les facteurs connus influençant la décision sont contrôlés. L'électroencéphalographie (EEG) fut utilisée afin d'enregistrer les signaux corticaux pendant que les participants effectuaient une tâche de sélection de main dans laquelle ils devaient, à chaque essai, atteindre une cible visuelle aussi rapidement que possible en utilisant la main de leur choix. La tâche fut conçue de façon à ce que les facteurs spatiaux et biomécaniques soient contrôlés. Ceci fut réalisé enidentifiant premièrement, sur une base individuelle, l'emplacement de la cible pour laquelle les mains droite et gauche avaient une probabilité équivalente d'être choisies (point d'égalité subjective, PSE). Ensuite, dans l'expérience principale, les participants effectuaient plusieurs mouvements d'atteinte vers des cibles positionnées près et loin du PSE, toujours avec la main de leur choix. L'utilisation de cinq cibles très près du PSE a permis de collecter de nombreux essais dans lesquels la main droite et la main gauche furent sélectionnées en réponse à un même stimulus visuel. Ceci a ainsi permis d'analyser les signaux des deux cortex dans des conditions d'utilisation de la main droite et gauche, tout en contrôlant pour les autres facteurs pouvant moduler la sélection de la main. Les résultats de cette recherche révèlent que l'hémisphère cortical se trouvant dans la phase la plus excitable en delta (près du pic négatif), lors de l'apparition du stimulus, est associé à la fois à la main qui sera sélectionnée ainsi qu'au temps de réaction. Ces résultats montrent que l'excitabilité corticale momentanée (phase du signal) pourrait agir comme un facteur modulant la sélection d'une action. Dans cette optique, ces données élargissent considérablement les modèles actuels en montrant que la sélection d'une action est en partie déterminée par l'état du cerveau au moment d'effectuer un choix, d'une manière qui est indépendante de toutes les variables de décision connues.
Resumo:
Les conséquences associées aux changements climatiques peuvent déjà être perçues dans différents secteurs socio-économiques. Tel est le cas des zones côtières. Afin d’assurer la pérennité des populations dans les régions insulaires, différentes mesures d’adaptation côtières peuvent être utilisées. Or, ces mesures peuvent parfois manquer de vision à long terme et d’intégration de l’autre type de réaction aux changements climatiques soit l’atténuation. La difficulté à relier adaptation et atténuation est présente dans plusieurs secteurs, dont les zones côtières. La situation dans les territoires Québécois maritimes (plus précisément les côtes de la Côte-Nord, du Bas- Saint-Laurent et de la Gaspésie-Îles-de-la-Madeleine) est semblable à celle observée ailleurs, mais demeure unique étant donné la composition de ses côtes, l’évolution démographique de ces municipalités et son économie fortement basée sur le tourisme et l’industrie des pêches. Les principaux enjeux retrouvés dans ces territoires sont associés au tourisme, à l’industrie de la pêche, à la densité humaine et aux infrastructures qui en découlent ou au milieu naturel. Ces enjeux présentent différentes vulnérabilités face au changement climatique côtier auxquelles les municipalités doivent s’adapter. Les mesures d’adaptation côtières implantées au Québec peuvent être divisées en deux grandes catégories : les mesures techniques et les mesures règlementaires et politiques. Or, afin de s’adapter adéquatement les municipalités doivent faire preuve de multidisciplinarité et combiner les différentes techniques disponibles, ceci peut présenter une difficulté notable. La situation canadienne à l’extérieur du Québec est similaire pour les territoires Atlantiques Canadiens. Du côté du Pacifique, les types de menaces surviennent dans des proportions différentes à celles de l’Est. De façon générale, les provinces les plus à risques de la hausse du niveau des mers sont aussi celles qui utilisent principalement des mesures de protection d’urgence, optant pour une vision à court terme, ceci incluant le Québec. Le cadre législatif encadrant les territoires côtiers québécois du Golfe est complexe. En effet, il s’agit d’une combinaison de lois et règlements fédéraux et provinciaux qui s’entrecoupent, étant donné l’entrecroisement des compétences gouvernemental dans ce secteur. Ceci peut compliquer d’avantages le travail des municipalités québécoises. Afin de faciliter l’implantation de mesures d’adaptation considérant l’atténuation, les municipalités côtières québécoises pourraient développer un cadre d’évaluation des différentes mesures.
Resumo:
Avec l’ère industrielle sont venus les polluants environnementaux. Ils sont de plus en plus pointés du doigt pour une variété d’effets indésirables en particulier pour leur potentiel à affecter la santé humaine. Les pesticides font partie de ces polluants et leurs usages ne font que croître depuis une vingtaine d’années. Ces produits qui servent à améliorer la production agricole en éliminant les pestes qui ravagent les récoltes sont souvent peu étudiés à long terme avant d’être homologués. L’effet perturbateur au niveau cellulaire et les effets à long terme de ces pesticides sont peu connus. Pour ce projet de maîtrise, nous avons observé l’effet de deux pesticides, l’imidaclopride et l’acide 2-methyl-4-chlorophenoxyacetic (MCPA), sur les voies de signalisation du récepteur à la dioxine (AhR) et du récepteur aux androgènes (AR). L’imidaclopride est un insecticide de la famille des néonicotinoïdes, une classe de plus en plus utilisée. Ce pesticide est surtout connu pour être en lien avec le déclin des colonies d’abeilles depuis une décennie. Le MCPA est un des herbicides les plus utilisés au Québec, il est persistant et souvent retrouvé dans les eaux de la province. Nous avons traité des cellules du cancer du sein et des cellules du cancer de la prostate avec ces pesticides et nous avons vérifié si leur présence perturbait les deux voies de signalisation cellulaire à l’étude. Le récepteur AhR est un facteur de transcription activé par un ligand. Le TCDD, une dioxine, est le meilleur ligand exogène connu à ce jour de ce récepteur. Par contre, ses ligands naturels, des dérivés du tryptophane ou des facteurs de virulence de bactéries, l’activent de façon beaucoup moins forte. Lors de l’activation de la voie AhR, les gènes CYP1A1 et CYP1B1 sont transcrits et codent pour des enzymes du cytochrome P450 qui transforment les ligands en produits plus facilement éliminables. Dans un contexte où de l’œstradiol (E2) est présent dans les cellules, il y a une interaction croisée entre le récepteur à l’œstrogène (ER) et le récepteur AhR, qui fait en sorte que l’expression de CYP1A1 est réprimée. Cela se traduit en un ratio d’enzyme CYP1A1 à CYP1B1 différent qui pourrait augmenter la possibilité d’une accumulation de métabolites génotoxiques. En effet, CYP1B1 hydroxyle le ligand d’AhR mais aussi l’œstradiol en 4-hydroxyœstradiol (4-OHE), dont l’accumulation peut amener des mutations dans l’ADN alors que l’enzyme CYP1A1 l’hydroxyle en 2-hydroxyœstradiol (2-OHE), qui n’as aucun effet néfaste répertorié sur la cellule. Dans les cellules du cancer du sein, le MCPA appliqué en champs induisait fortement l’expression de CYP1B1 comparable à l’échantillon traité au témoin positif (TCDD), alors que CYP1A1 l’était que très légèrement par rapport au témoin non-traité. Au niveau protéique, CYP1A1 n’était qu’exprimée dans le témoin positif (TCDD) et ce, en quantité moindre lorsqu’il y avait présence d’œstradiol. CYP1B1 était fortement exprimée dans l’échantillon de TCDD, ce qui était attendu, mais aussi dans tous les échantillons traités au MCPA de NuFarm. Ces effets ne sont pas notés avec l’ingrédient actif du MCPA. La présence d’un ou plusieurs autres produits ajoutés dans le MCPA de la compagnie NuFarm en combinaison avec l’ingrédient actif pourrait activer la voie de signalisation d’AhR et causer ce débalancement dans l’expression des gènes CYP1A1 et CYP1B1. Nos résultats indiquent que plusieurs concentrations de l’ingrédient actif de l’imidaclopride ne perturbe pas les voies cellulaires d’AhR ni AR, alors que, le MCPA perturbe ces deux voies cellulaires. Par contre, c’est seulement celui produit par la compagnie NuFarm qui est utilisé en champs. Cette formulation appliquée en terrain agricole inclut l’ingrédient actif ainsi que les antigels, les surfactants et les adjuvants qui permettent au produit d’être plus efficace. L’ingrédient actif du MCPA seul n’affectait pas les deux voies. Le récepteur aux androgènes (AR) est aussi un facteur de transcription qui se lie à l’ADN afin de réguler l’expression des gènes et il est particulièrement important pour le développement et le maintien du phénotype masculin. Depuis une vingtaine d’années, des problèmes de baisse de libido et de fertilité s’accentuent dans notre société et semblent être reliés à la baisse de testostérone des hommes (Travison et al. 2007). Cette molécule est d’ailleurs un des deux ligands du récepteur AR, le deuxième étant la 5-dihydrotestostérone (DHT). Le facteur environnemental plutôt que le mode de vie semble être un facteur déterminant dans l’étude qui portait sur ce déclin. Les pesticides ont déjà été soupçonnés pour avoir un potentiel anti-androgénique, mais aucune étude ne fait un lien de causalité direct. Dans le projet de maitrise présenté dans ce document, l’expression des gènes marqueurs PSA (antigène spécifique de la prostate) et PCA3 (antigène du cancer de la prostate) a été quantifiée pour savoir si les pesticides ont un effet perturbateur sur la voie du récepteur AR. Dans les cellules du cancer de la prostate, l’expression de PSA et PCA3 était semblable au non-traité dans l’échantillon traité au MCPA (NuFarm), et ce, même après l’ajout de DHT, qui active l’expression de ces deux gènes. Cette fois-ci, l’ingrédient actif seul faisait en sorte que les deux gènes marqueurs étaient moins exprimés lors de l’ajout de la DHT, par rapport au témoin. Il semblerait que l’ingrédient actif est à la base de ce changement d’expression de nos gènes marqueurs. Donc, le MCPA pourrait avoir un effet anti-androgénique dans les cellules du cancer de la prostate. Donc, le MCPA est un pesticide qui affecte les voies de signalisation cellulaires AhR et AR. Il est particulier de noter que le pesticide appliqué en champ perturbe nettement plus les voies cellulaires. Il sera important de continuer à étudier les effets des pesticides sur l’homme au niveau cellulaire et de comprendre comment ils pourraient contribuer au développement du cancer.
Resumo:
L’endométriose est une maladie gynécologique, touchant les femmes en âge de procréer. Cette pathologie est caractérisée par la présence de tissu endométrial ectopique, c’est-à-dire en dehors de la cavité utérine. Des dysfonctions du système immunitaire sont de plus en plus souvent suspectées comme étant un des éléments responsables de la pathogenèse de cette maladie. L’objectif général de ce projet a donc été d’étudier les mécanismes cellulaires de molécules pro-inflammatoires aux propriétés variées et à l’expression anormalement élevée dans cette pathologie, que sont MIF et les prostaglandines PGE2 et PGF2α, dans les anomalies inflammatoires et invasives en cause dans cette pathologie. La première partie de nos travaux a porté sur l’étude d’un modèle murin de l’endométriose déficient du gène MIF. Le nombre et le volume des lésions collectées à partir des souris déficientes pour le gène MIF sont significativement inférieurs à ceux mesurés dans des souris sauvages utilisées comme contrôle. L’analyse par PCR des cellules isolées des lésions de souris déficientes du gène MIF a révélé une expression réprimée des protéines d’adhésion, d’inflammation et d’angiogenèse. Ces données démontrent pour la première fois que le MIF agit directement sur la croissance et la progression de lésions d’endométriose in vivo. Une partie de nos travaux a porté sur les molécules nécessaires au métabolisme de PGE2 et PGF2α dans l’endomètre eutopique des femmes normales et l’endomètre eutopique et ectopique des femmes atteintes d’endométriose. Selon nos données, l’expression de certains de ces facteurs est perturbée durant cette maladie, ce qui peut avoir des effets délétères sur la physiologie de la procréation. La stimulation des cellules ectopiques par PGF2α entraîne une libération accrue de VEGF et CXCL-8, ceci via l’induction de COX-2 et des deux variants d’épissage du récepteur FP. De plus, la PKC joue un rôle dans ce phénomène, dépendamment et indépendamment de la PLC. Par son effet inducteur sur la libération de VEGF et CXCL-8, PGF2α pourrait favoriser l’aspect inflammatoire et le développement ectopique des lésions d’endométriose, notamment par des phénomènes d’angiogenèse et de prolifération cellulaire accrus. L’effet de PGF2α sur la libération de VEGF et CXCL-8 par les cellules endométriales ectopiques pourrait également expliquer les quantités élevées de ces cytokines dans le liquide péritonéal des femmes atteintes d’endométriose, un phénomène suspecté dans l’infertilité et les douleurs associées à cette maladie. Nos derniers résultats obtenus à partir du liquide péritonéal montrent un profil cytokinique en faveur de l’angiogenèse et la prolifération des lésions d’endométriose, avec une forte augmentation des facteurs suivants : EGF, FGF-2, IL-1α, MIP-1β, TGFα, PDGF-AA, PDGF-BB, MCP-3, sCD40L, Gro Pan, IL-17α, MDC et Rantes, confortant nos observations préalables redéfinissant la maladie comme étant d’origine angio-inflammatoire. L’endométriose et ses symptômes sont des phénomènes complexes ayant probablement plus qu’une seule origine. Parmi les nombreux facteurs à l’expression altérée dans l’endométriose, notre étude montre que MIF, PGE2 et PGF2α, ainsi qu’une pléthore de facteurs pro-angiogéniques pourraient être de ceux jouant un rôle dans l’infertilité et les douleurs reliées à cette maladie.
Resumo:
Résumé : En raison de sa grande étendue, le Nord canadien présente plusieurs défis logistiques pour une exploitation rentable de ses ressources minérales. La TéléCartographie Prédictive (TCP) vise à faciliter la localisation de gisements en produisant des cartes du potentiel géologique. Des données altimétriques sont nécessaires pour générer ces cartes. Or, celles actuellement disponibles au nord du 60e parallèle ne sont pas optimales principalement parce qu’elles sont dérivés de courbes à équidistance variable et avec une valeur au mètre. Parallèlement, il est essentiel de connaître l'exactitude verticale des données altimétriques pour être en mesure de les utiliser adéquatement, en considérant les contraintes liées à son exactitude. Le projet présenté vise à aborder ces deux problématiques afin d'améliorer la qualité des données altimétriques et contribuer à raffiner la cartographie prédictive réalisée par TCP dans le Nord canadien, pour une zone d’étude située au Territoire du Nord-Ouest. Le premier objectif était de produire des points de contrôles permettant une évaluation précise de l'exactitude verticale des données altimétriques. Le second objectif était de produire un modèle altimétrique amélioré pour la zone d'étude. Le mémoire présente d'abord une méthode de filtrage pour des données Global Land and Surface Altimetry Data (GLA14) de la mission ICESat (Ice, Cloud and land Elevation SATellite). Le filtrage est basé sur l'application d'une série d'indicateurs calculés à partir d’informations disponibles dans les données GLA14 et des conditions du terrain. Ces indicateurs permettent d'éliminer les points d'élévation potentiellement contaminés. Les points sont donc filtrés en fonction de la qualité de l’attitude calculée, de la saturation du signal, du bruit d'équipement, des conditions atmosphériques, de la pente et du nombre d'échos. Ensuite, le document décrit une méthode de production de Modèles Numériques de Surfaces (MNS) améliorés, par stéréoradargrammétrie (SRG) avec Radarsat-2 (RS-2). La première partie de la méthodologie adoptée consiste à faire la stéréorestitution des MNS à partir de paires d'images RS-2, sans point de contrôle. L'exactitude des MNS préliminaires ainsi produits est calculée à partir des points de contrôles issus du filtrage des données GLA14 et analysée en fonction des combinaisons d’angles d'incidences utilisées pour la stéréorestitution. Ensuite, des sélections de MNS préliminaires sont assemblées afin de produire 5 MNS couvrant chacun la zone d'étude en totalité. Ces MNS sont analysés afin d'identifier la sélection optimale pour la zone d'intérêt. Les indicateurs sélectionnés pour la méthode de filtrage ont pu être validés comme performant et complémentaires, à l’exception de l’indicateur basé sur le ratio signal/bruit puisqu’il était redondant avec l’indicateur basé sur le gain. Autrement, chaque indicateur a permis de filtrer des points de manière exclusive. La méthode de filtrage a permis de réduire de 19% l'erreur quadratique moyenne sur l'élévation, lorsque que comparée aux Données d'Élévation Numérique du Canada (DNEC). Malgré un taux de rejet de 69% suite au filtrage, la densité initiale des données GLA14 a permis de conserver une distribution spatiale homogène. À partir des 136 MNS préliminaires analysés, aucune combinaison d’angles d’incidences des images RS-2 acquises n’a pu être identifiée comme étant idéale pour la SRG, en raison de la grande variabilité des exactitudes verticales. Par contre, l'analyse a indiqué que les images devraient idéalement être acquises à des températures en dessous de 0°C, pour minimiser les disparités radiométriques entre les scènes. Les résultats ont aussi confirmé que la pente est le principal facteur d’influence sur l’exactitude de MNS produits par SRG. La meilleure exactitude verticale, soit 4 m, a été atteinte par l’assemblage de configurations de même direction de visées. Par contre, les configurations de visées opposées, en plus de produire une exactitude du même ordre (5 m), ont permis de réduire le nombre d’images utilisées de 30%, par rapport au nombre d'images acquises initialement. Par conséquent, l'utilisation d'images de visées opposées pourrait permettre d’augmenter l’efficacité de réalisation de projets de SRG en diminuant la période d’acquisition. Les données altimétriques produites pourraient à leur tour contribuer à améliorer les résultats de la TCP, et augmenter la performance de l’industrie minière canadienne et finalement, améliorer la qualité de vie des citoyens du Nord du Canada.
Resumo:
Résumé: INTRODUCTION Si les cliniciens enseignants détectent aisément les difficultés des apprenants, ils sont souvent peu outillés pour les étapes subséquentes, du diagnostic à la remédiation. Quoique des outils aient été développés pour les guider face aux difficultés de raisonnement clinique de leurs apprenants, ces outils peuvent être moins familiers des cliniciens et moins adaptés à des contextes de supervision ponctuelle et de soins aigus comme l’urgence. Nous avons donc développé une application algorithmique, à partir de la taxonomie d’Audétat et al. (2010), pour guider les cliniciens enseignants juste-à-temps face aux difficultés de raisonnement clinique. MÉTHODOLOGIE Une étude descriptive interprétative a été réalisée afin d’évaluer l’utilité, l’acceptabilité et la faisabilité d’utiliser cette application à l’urgence. Des entrevues semi-dirigées ont été menées auprès d’un échantillon de convenance de douze urgentistes, avant et après une période d’essai de l’outil de trois mois. RÉSULTATS L’application a été perçue comme particulièrement utile pour préciser les difficultés de raisonnement clinique des apprenants. Utiliser l’outil a été considérée acceptable et faisable en contexte d’urgence, en particulier grâce au format mobile. DISCUSSION Ces résultats suggèrent que l’outil peut être considéré utile pour faciliter l’identification des difficultés des apprenants, mais aussi pour offrir un soutien professoral accessible. Le format mobile et algorithmique semble avoir été un facteur facilitant, ce format étant déjà utilisé par les cliniciens pour consulter ponctuellement de l’information lors de la résolution de problèmes cliniques. CONCLUSION L’étude a démontré globalement une bonne utilité, acceptabilité et faisabilité de l’outil dans un contexte de supervision ponctuelle en soins aigus, ce qui soutient son utilisation par les cliniciens enseignants dans ce contexte. L’étude corrobore également l’intérêt d’un format mobile et algorithmique pour favoriser le transfert de connaissances en pédagogie médicale.
Resumo:
Chaque année, la grippe provoque des centaines de milliers de décès dans le monde. Dans le cas d’infections sévères, il a été démontré que la génération excessive de molécules inflammatoires telles que les cytokines et les chimiokines, la sécrétion d’espèces réactives dérivées de l'oxygène ainsi que l’afflux massif de cellules immunitaires innées et adaptatives dans les voies respiratoires contribuent à la génération de dommages pulmonaires aigus et contribuent à l'immunopathologie reliée à l’infection. Tenant compte de ce fait, le défi actuel dans le traitement de la grippe est de contrôler la réponse inflammatoire tout en inhibant la réplication virale afin de permettre à l'organisme de se défendre contre les infections sévères à l'influenza. Des études récentes ont montré que l’activation du récepteur nucléaire PPARγ par ses ligands, tel que la 15d-PGJ[indice inférieur 2], diminuait l’inflammation pulmonaire et améliorait la survie des souris infectées avec des doses létales du virus influenza. Mis à part ses effets sur PPARγ, le ligand 15d-PGJ[indice inférieur 2] est aussi connu pour activer le facteur nucléaire antioxydant Nrf2. Il a été montré que Nrf2 réduit la réplication du virus influenza. Cependant, son mode d'action dans cette fonction nécessite une clarification. De manière intéressante, une étude a montré que Nrf2 réduit l’inflammation pulmonaire en régulant l’expression de PPARγ et ceci dans un modèle murin du syndrome de détresse respiratoire aigu. Les résultats de ces études précédentes mènent à l’hypothèse que les voies de PPARγ et Nrf2 interagissent fonctionnellement et qu'elles sont impliquées dans la réduction de l’inflammation induite lors d'infections sévères causées par l'influenza. L’objectif général de cette étude est donc de mieux comprendre les mécanismes protecteurs de PPARγ et Nrf2 dans la régulation de l’inflammation et la réplication virale suite à une infection par le virus influenza. Nos résultats ont démontré premièrement que le fait de cibler les deux voies moléculaires PPARγ et Nrf2, permet une inhibition significative de l’inflammation et de la morbidité liée à l’infection. Dans un deuxième temps, nos résultats dévoilent le mécanisme antiviral de Nrf2 et démontrent que l’activation de cette voie réduit la réplication du virus influenza d’une façon dépendante de l’expression de l’antiprotéase SLPI.
Resumo:
Dans le noyau cellulaire, l’ADN est compacté autour de petites protéines appelées histones formant ainsi le nucléosome, unité de base de la chromatine. Les nucléosomes contrôlent la liaison des facteurs de transcription à l’ADN et sont ainsi responsables de la régulation des processus cellulaires tels que la transcription. Afin de permettre l’expression des gènes, la chromatine est remodelée, c’est-à-dire que les nucléosomes sont repositionnés de manière à ce que la machinerie générale de la transcription puisse atteindre l’ADN afin de produire l’ARN messager. La moindre petite modification dans la fonction des facteurs de transcription ou des enzymes responsables du remodelage de la chromatine entraine des variations d’expression des gènes, et donc des maladies telles que les cancers. Le cancer du sein est le cancer le plus couramment développé chez les femmes. Cette maladie est principalement causée par l’activité du récepteur des œstrogènes ERα et de ses co-régulateurs ayant, pour la plupart, un rôle direct sur le remodelage de la chromatine. Afin de mieux comprendre le développement et la progression du cancer du sein, nous avons décidé d’étudier le rôle de deux co-régulateurs de ERα, TLE3 et KDM5A, impliqués dans le remodelage de la chromatine et dont la fonction dans le cancer du sein est indéterminée. Nous avons démontré que TLE3 est un partenaire d’interaction du facteur pionnier FoxA1, facteur nécessaire à la liaison de ERα sur l’ADN pour la transcription des gènes cibles de ce récepteur. L’interaction de TLE3 avec FoxA1 inhibe la liaison de ERα à l’ADN en absence d’œstrogènes, via le recrutement de HDAC2 qui déacétyle la chromatine, empêchant alors l’activation fortuite de la transcription en absence de signal. Quant à KDM5A, malgré sa réputation de répresseur de la transcription, dans le cancer du sein, cette déméthylase de H3K4me2/3 est un coactivateur de ERα, dû à son rôle direct sur l’expression du récepteur.
Resumo:
Le présent mémoire expose les résultats d’une étude de la performance des chantiers ouverts dans un contexte de mines profondes ayant été effectuée dans le cadre du projet de recherche « Mines profondes : défis d’exploitation et impacts sur la récupération minéralurgique » réalisé par le département de génie des mines, de la métallurgie et des matériaux de l’Université Laval. Les données utilisées dans le cadre de cette étude sont en lien avec la planification et l’exploitation de plus de mille chantiers minés entre 860 et 2 450 m de profondeur à la mine souterraine LaRonde de Mines Agnico Eagle, la plus profonde actuellement de l’hémisphère ouest. On y présente une revue de la littérature qui fait la description des problématiques de dilution et de pertes opérationnelles de la réserve minérale liées à la performance des chantiers ouverts ainsi que de leurs conséquences sur les projets miniers. Une comparaison des performances planifiées et réalisées au site de LaRonde y est présentée, ainsi que les résultats d’analyses statistiques ayant permis de montrer que la variation du ratio des contraintes in situ avec la profondeur est un facteur d’influence significatif de la performance des chantiers. L’effet de ce facteur d’influence y est aussi illustré et validé à l’aide d’une série de modèles numériques. Le mémoire présente également une première approche visant à développer un modèle d’évaluation de la dilution dans les chantiers ouverts qui prend en compte la profondeur de minage. Finalement, afin d’améliorer la précision de l’estimation de la réserve minérale lors de l’évaluation de projets miniers, une méthodologie d’estimation intégrant le modèle d’évaluation proposé est présentée pour les projets dont les contextes géologique, géotechnique et opérationnel sont comparables à ceux du site de LaRonde.