104 resultados para Partage des connaissances
Resumo:
Les protéines existent sous différents états fonctionnels régulés de façon précise par leur environnement afin de maintenir l‘homéostasie de la cellule et de l‘organisme vivant. La prévalence de ces états protéiques est dictée par leur énergie libre de Gibbs alors que la vitesse de transition entre ces états biologiquement pertinents est déterminée par le paysage d‘énergie libre. Ces paramètres sont particulièrement intéressants dans un contexte thérapeutique et biotechnologique, où leur perturbation par la modulation de la séquence protéique par des mutations affecte leur fonction. Bien que des nouvelles approches expérimentales permettent d‘étudier l‘effet de mutations en haut débit pour une protéine, ces méthodes sont laborieuses et ne couvrent qu‘une fraction de l‘ensemble des structures primaires d‘intérêt. L‘utilisation de modèles bio-informatiques permet de tester et générer in silico différentes hypothèses afin d‘orienter les approches expérimentales. Cependant, ces méthodes basées sur la structure se concentrent principalement sur la prédiction de l‘enthalpie d‘un état, alors que plusieurs évidences expérimentales ont démontré l‘importance de la contribution de l‘entropie. De plus, ces approches ignorent l‘importance de l‘espace conformationnel protéique dicté par le paysage énergétique cruciale à son fonctionnement. Une analyse des modes normaux peut être effectuée afin d‘explorer cet espace par l‘approximation que la protéine est dans une conformation d‘équilibre où chaque acide aminé est représenté par une masse régie par un potentiel harmonique. Les approches actuelles ignorent l‘identité des résidus et ne peuvent prédire l‘effet de mutations sur les propriétés dynamiques. Nous avons développé un nouveau modèle appelé ENCoM qui pallie à cette lacune en intégrant de l‘information physique et spécifique sur les contacts entre les atomes des chaînes latérales. Cet ajout permet une meilleure description de changements conformationnels d‘enzymes, la prédiction de l‘effet d‘une mutation allostérique dans la protéine DHFR et également la prédiction de l‘effet de mutations sur la stabilité protéique par une valeur entropique. Comparativement à des approches spécifiquement développées pour cette application, ENCoM est plus constant et prédit mieux l‘effet de mutations stabilisantes. Notre approche a également été en mesure de capturer la pression évolutive qui confère aux protéines d‘organismes thermophiles une thermorésistance accrue.
Resumo:
Une structure en béton armé est sujette à différents types de sollicitations. Les tremblements de terre font partie des événements exceptionnels qui induisent des sollicitations extrêmes aux ouvrages. Pour faire face à cette problématique, les codes de calcul des ponts routiers font appel à une approche basée sur des niveaux de performance qui sont rattachés à des états limites. Actuellement, les états limites d'une pile de ponts en béton armé (BA) confinée à l'aide de polymères renforcés de fibres de carbone (PRFC) proposés dans la littérature ne prennent pas en compte le confinement lié au chemisage de PRFC en combinaison avec celui des spirales d'acier. Ce projet de recherche était la suite du volet de contrôle non destructif d'une étude réalisée en 2012 qui comprenait un volet expérimental [Carvalho, 2012] et un volet numérique [Jean, 2012]. L'objectif principal était de compléter l'étude du comportement des poteaux en BA renforcés de PRFC soumis à un chargement cyclique avec les données acoustiques recueillies par St-Martin [2014]. Plus précisément, les objectifs spécifiques étaient de déterminer les états limites reliés aux niveaux de performance et de caractériser la signature acoustique de chaque état limite (p. ex. fissuration du béton, plastification de l'acier et rupture du PRFC). Une méthodologie d'analyse acoustique basée sur l'état de l'art de Behnia et al. [2014] a été utilisée pour quantifier la gravité, localiser et caractériser le type de dommages. Dans un premier temps, les données acoustiques provenant de poutres de 550 mm x 150 mm x 150 mm ont permis de caractériser la signature acoustique des états limites. Puis, des cinq spécimens d'essai construits en 2012, les données acoustiques de trois spécimens, soient des poteaux circulaires d'un diamètre de 305 mm et d'une hauteur de 2000 mm ont été utilisée pour déterminer les états limites. Lors de ces essais, les données acoustiques ont été recueillies avec 14 capteurs de résonances qui étaient reliés à un système multicanal et au logiciel AEwin SAMOS 5.23 de Physical Acoustics Corporation (PAC) [PAC, 2005] par St-Martin [2014]. Une analyse de la distribution des paramètres acoustiques (nbr. de comptes et énergie absolue) combiné à la localisation des événements et le regroupement statistique, communément appelé clustering, ont permis de déterminer les états limites et même, des signes précurseurs à l'atteinte de ces états limites (p. ex. l'initiation et la propagation des fissures, l'éclatement de l'enrobage, la fissuration parallèle aux fibres et l'éclatement du PRFC) qui sont rattachés aux niveaux de performances des poteaux conventionnels et confinés de PRFC. Cette étude a permis de caractériser la séquence d'endommagement d'un poteau en BA renforcé de PRFC tout en démontrant l'utilité de l'écoute acoustique pour évaluer l'endommagement interne des poteaux en temps réel. Ainsi, une meilleure connaissance des états limites est primordiale pour intégrer les PRFC dans la conception et la réhabilitation des ouvrages.
Resumo:
Les porteurs de l’apolipoprotéine E ε4 (APOE4) sont à risque accru de développer un déclin cognitif et/ou des maladies cardiovasculaires comparativement aux non-porteurs. Ceci serait partiellement attribuable à un débalancement dans le métabolisme de l’acide docosahexaénoïque (DHA), un acide gras (AG) polyinsaturé oméga-3 qui joue un rôle crucial dans la santé du cerveau et du cœur. La consommation d’une diète riche en AG saturés et la présence de surpoids pourraient exacerber ce débalancement puisque ces facteurs modifient l’homéostasie du DHA. Des données préliminaires suggèrent que la consommation d’un supplément à haute dose de DHA, sur le long terme, permettrait de rétablir l’homéostasie de cet AG chez les porteurs de l’APOE4. L’objectif de la première étude était d’évaluer la réponse plasmatique à un supplément de DHA chez des participants consommant une diète riche en AG saturés, et ce, en fonction de l’indice de masse corporelle (IMC) et du statut de porteur de l’APOE4. Cette étude a démontré une interaction génotype x IMC sur la réponse plasmatique de l’acide arachidonique (AA) et du DHA au supplément. De plus, les porteurs de l'APOE4 étaient de plus faibles répondeurs au supplément de DHA comparativement aux non-porteurs, mais seulement chez les participants en surpoids. L’objectif de la seconde étude était d’évaluer si une diète riche en DHA pendant huit mois permet de rétablir les niveaux de DHA dans le foie de souris porteuses de l’APOE4 et d’évaluer si les transporteurs hépatiques d’AG sont impliqués dans ce rétablissement. Les résultats ont démontré que sous une diète contrôle, les concentrations hépatiques d’AA et de DHA étaient plus élevées chez les souris APOE4 comparativement aux souris APOE3 et que le transporteur d’AG hépatiques FABP1 est impliqué. Par contre, chez les souris ayant consommé la diète riche en DHA, les niveaux d’AA et de DHA étaient similaires entre les génotypes. Ceci suggère qu’une supplémentation à long terme en DHA pourrait rétablir l’homéostasie de l’AA et du DHA chez les porteurs de l’APOE4. Puisque le DHA est impliqué dans la santé du cerveau et du cœur, la consommation de hautes doses de DHA chez les porteurs de l’APOE4 pourrait contribuer à diminuer leur risque de développer un déclin cognitif et/ou des maladies cardiovasculaires mais cette association devra être évaluée dans des études ultérieures.
Resumo:
Le logiciel est devenu omniprésent dans nos vies de sorte qu'on le retrouve dans plusieurs domaines de la vie courante. Cependant cette omniprésence, n'est pas sans conséquences. Les bogues de logiciel peuvent causer de vrais désastres, économiques, écologiques voire sanitaires. Vu la forte omniprésente du logiciel dans nos vies, le fonctionnement de nos sociétés dépend fortement de sa qualité. La programmation par contrat a pour but de produire des logiciels fiables, c'est-à-dire corrects et robustes. En effet, ce paradigme de programmation vise à introduire des assertions qui sont des spécifications de services. Ces spécifications représentent une forme de contrat. Les contrats définissent les responsabilités entre le client et le fournisseur. Le respect des contrats permet de garantir que le logiciel ne fait ni plus ni moins que ce que l'on attend de lui qu'il fasse. Le test unitaire est un test qui permet de s'assurer du bon fonctionnement d'une partie précise d'un logiciel. C'est un test dont la vérification se fait en exécutant une petite unité de code. En somme, un test unitaire est un code qui exécute de manière indirecte le code d'une classe pour vérifier que le code fonctionne bien. L'outil Génération de Squelettes des Contrats de classes et des tests unitaires (GACTUS) permet la génération automatique de squelettes de contrats de classes et celles des classes des tests unitaires d'un projet Java. La génération automatique du code source permet d'obtenir un code uniforme. GACTUS est un plug-in pour l'environnement de développement Eclipse écrit en Java. L'objectif principal de GACTUS est de faciliter la réalisation de logiciel de qualité grâce à la génération automatique des squelettes de contrats de classe et celui des tests unitaires et aussi d'accroître la productivité des développeurs. Pour faciliter son utilisation, GACTUS dispose d'une interface graphique permettant de guider l'utilisateur.
Resumo:
L’objectif de cet essai est d’élaborer des outils afin de connaître, comprendre et suivre les fuites de nitrates d’origine agricole dans le périmètre du SAGE Rance Frémur baie de Beaussais. Les outils sont de deux catégories : des références agronomiques locales et des indicateurs de suivi. Le premier type d’outils doit permettre aux exploitants d’adapter leurs pratiques agricoles en fonction du contexte pédoclimatique, afin de réduire l’impact négatif sur les fuites de nitrates. Le second type d’outils a pour but d’évaluer la situation des fuites de nitrates à l’échelle du bassin versant. Ces indicateurs ont pour objectif de suivre les pratiques agricoles en lien avec les fuites de nitrates et de suivre l’état des milieux aquatiques pour ce paramètre chimique. Avant de proposer des outils adaptés, il est nécessaire de comprendre les enjeux liés aux nitrates sur le territoire étudié. Une bonne connaissance du territoire s’accompagne de connaissances théoriques indispensables sur les mécanismes responsables des fuites de nitrates. Ces mécanismes sont influencés par plusieurs facteurs en interaction : les facteurs environnementaux et les facteurs humains. Pour les facteurs environnementaux, plusieurs projets scientifiques spécifiques sont en œuvre sur le territoire pour mieux les appréhender. Concernant les facteurs humains, plusieurs dispositions politiques et réglementaires les encadrent, encourageant les bonnes pratiques, de gré ou de force. Parmi elles, la Directive Nitrates en vigueur dans l’Union européenne depuis 1991 fait figure de proue. À l’échelle locale, le SAGE révisé de la Rance, du Frémur et de la baie de Beaussais a été approuvé par arrêté préfectoral et est en application depuis décembre 2013. Ce document a pour but d’atteindre le bon état écologique des eaux. Plusieurs dispositions concernent le monde agricole et certaines d’entre elles ciblent spécifiquement la réduction des fuites d’azote. L’essai vise à mettre en œuvre deux d’entre elles, l’orientation de gestion n°17 (Élaboration de référentiels agronomiques locaux) et la disposition n°39 (Connaître et suivre la pression azotée et les pratiques agricoles). La thématique des pollutions liées à l’azote alimente les revues scientifiques et techniques depuis plus de 15 ans, avec une quantité importante d’outils préconisés qui s’ajoutent les uns aux autres. Or pour une mise en œuvre efficace sur le territoire, il est nécessaire de restreindre ce nombre : ce qui implique une sélection méthodique des outils les plus pertinents pour satisfaire l’objectif de l’essai. Au total, une dizaine de références agronomiques locales sont répertoriées et huit indicateurs de suivi sont proposés. Un tableau de bord a été élaboré afin de faciliter l’articulation et l’interprétation des indicateurs.
Resumo:
En traitement du signal audio, les plosives sont des sons de parole très importants au regard de l’intelligibilité et de la qualité. Les plosives sont cependant difficiles à modéliser à l’aide des techniques usuelles (prédiction linéaire et codage par transformée), à cause de leur dynamique propre importante et à cause de leur nature non prédictible. Cette étude présente un exemple de système complet capable de détecter, segmenter, et altérer les plosives dans un flux de parole. Ce système est utilisé afin de vérifier la validité de l’hypothèse suivante : La phase d’éclatement (de burst) des plosives peut être mise à zéro, de façon perceptuellement équivalente. L’impact sur la qualité subjective de cette transformation est évalué sur une banque de phrases enregistrées. Les résultats de cette altération hautement destructive des signaux tendent à montrer que l’impact perceptuel est mineur. Les implications de ces résultats pour le codage de la parole sont abordées.
Resumo:
L’extrémité des chromosomes linéaires est une structure nucléoprotéique très conservée chez les organismes eucaryotes. Elle est constituée du télomère et des régions sous-télomériques répétées (STR) qui sont placées en amont du télomère. Chez la levure bourgeonnante, on trouve deux types de télomère, les télomères XY’ et les télomères X, qui se distinguent par la nature des STR positionnées en amont des répétitions télomériques. Le télomère et les STR sont liés par pas moins de dix protéines qui vont participer au maintien et à la régulation de l’extrémité chromosomique nécessaires à la stabilité du génome. Le télomère protège ainsi le chromosome de dégradations ou encore de fusions avec d’autres chromosomes. Le maintien de la taille du télomère est assuré par la télomérase, une transcriptase inverse, qui permet l’ajout de répétitions pour pallier leur perte lors de la phase de réplication durant le cycle cellulaire. Lorsque la télomérase est absente, deux types particuliers de cellules, les survivants de type I et les survivants de type II, peuvent maintenir leurs télomères grâce aux mécanismes de recombinaison homologue. Chez l’humain, les répétitions télomériques sont également liées par un certain nombre de protéines nécessaires au maintien de la stabilité de l’extrémité chromosomique. L’implication des télomères dans les processus de cancérisation, de vieillissement, mais également dans des maladies congénitales fait de cette structure un pivot dans le domaine de la recherche fondamentale. Dans 10 % des cas de cancers, l’allongement n’est pas dû à une réactivation de la télomérase comme c’est en général le cas, mais est inhérent à des processus de recombinaison homologue, comme chez la levure. Les homologies de séquences, de protéines, mais aussi de mécanismes de régulation des télomères avec les cellules humaines, font de S. cerevisiae un excellent modèle d’étude. Cette thèse se divise en trois chapitres. Les deux premiers traitent de l’interaction du complexe yKu avec les télomères de type XY’ dans le chapitre 1 puis de son interaction avec les télomères de type X dans le chapitre 2. Le chapitre 3 traite du comportement d’un type de survivant chez S. cerevisiae. Le chapitre 1 porte donc sur l’analyse des sites de liaison aux télomères XY’ du complexe yKu par la technique de ChEC in vivo. yKu intervient dans de nombreux processus de régulation des télomères, mais aussi dans un mécanisme de réparation des cassures double-brin de l’ADN (DSBs), la NHEJ (Non homologous end-joining). Les résultats présentés dans cette partie appuient un modèle dans lequel yKu aurait plusieurs sites de liaison aux télomères et dans les répétitions télomériques interstitielles. Nous supposons que la liaison du complexe se ferait lors de la formation d’une cassure de type « one-sided break » générée à la suite du passage de la fourche de réplication à l’intérieur des répétitions télomériques. Le chapitre 2 est également une étude des sites de liaison par la technique de ChEC in vivo du complexe yKu, mais cette fois-ci aux télomères X. Les observations faites dans cette partie viennent corroborer les résultats du chapitre 1 de la liaison de yKu à la jonction entre le télomère et les STRs, de plus elle met en évidence des interactions potentielles du complexe avec les éléments X laissant supposer l’existence d’un potentiel repliement du télomère sur la région sous-télomérique chez la levure. Enfin, le chapitre 3 est axé sur l’étude du comportement des survivants de type I, des cellules post-sénescences qui maintiennent leurs télomères par un processus de recombinaison homologue, le mécanisme de BIR (break-induced replication) en l’absence de télomérase. Les survivants de type I présentent une croissance lente liée à un arrêt du cycle cellulaire en phase G2/M qui dépend de la protéine de contrôle Rad9, dont l’activité est en général induite par des cassures double-brin. Ce chapitre a permis d’apporter des précisions sur la croissance lente probablement inhérente à un berceau télomérique très restreint chez ce type cellulaire.
Resumo:
Résumé : Les télomères sont des structures nucléoprotéiques spécialisées qui assurent la stabilité du génome en protégeant les extrémités chromosomiques. Afin d’empêcher des activités indésirables, la réparation des dommages à l’ADN doit être convenablement régulée au niveau des télomères. Pourtant, il existe peu d’études de la réparation des dommages induits par les ultraviolets (UVs) dans un contexte télomérique. Le mécanisme de réparation par excision de nucléotides (NER pour « Nucleotide Excision Repair ») permet d’éliminer les photoproduits. La NER est un mécanisme très bien conservé de la levure à l’humain. Elle est divisée en deux sous voies : une réparation globale du génome (GG-NER) et une réparation couplée à la transcription (TC-NER) plus rapide et plus efficace. Dans notre modèle d’étude, la levure Saccharomyces cerevisiae, une forme compactée de la chromatine nommée plus fréquemment « hétérochromatine » a été décrite. Cette structure particulière est présente entre autres, au niveau des régions sous-télomériques des extrémités chromosomiques. La formation de cette chromatine particulière implique quatre protéines nommées Sir (« Silent Information Regulator »). Elle présente différentes marques épigénétiques dont l’effet est de réprimer la transcription. L’accès aux dommages par la machinerie de réparation est-il limité par cette chromatine compacte ? Nous avons donc étudié la réparation des lésions induites par les UVs dans différentes régions associées aux télomères, en absence ou en présence de protéines Sir. Nos données ont démontré une modulation de la NER par la chromatine, dépendante des nucléosomes stabilisés par les Sir, dans les régions sous-télomériques. La NER était moins efficace dans les extrémités chromosomiques que dans les régions plus proches du centromère. Cet effet était dépendant du complexe YKu de la coiffe télomérique, mais pas dépendant des protéines Sir. La transcription télomériques pourrait aider la réparation des photoproduits, par l’intermédiaire de la sous-voie de TC-NER, prévenant ainsi la formation de mutations dans les extrémités chromosomiques. Des ARN non codants nommés TERRA sont produits mais leur rôle n’est pas encore clair. Par nos analyses, nous avons confirmé que la transcription des TERRA faciliterait la NER dans les différentes régions sous-télomériques.
Resumo:
Le laboratoire DOMUS développe des applications pour assister les personnes en perte d'autonomie et les personnes avec des troubles cognitifs. Chaque application est ou a déjà été le sujet de plusieurs études d'utilisabilité qui permettent de les améliorer. Ces études prennent beaucoup de temps à mettre en place, car l'on rencontre souvent des problèmes de logistique (format et sensibilité des données, chercheurs répartis sur une grande aire géographique). C'est pourquoi un outil appelé GEDOPAL a été développé. Il permet de partager entre chercheurs de différents centres les données créées et utilisées lors de la mise en place des études d'utilisabilité. La conception et la réalisation de cet outil ont nécessité une réflexion en amont sur la nature et la sensibilité de ces données. Cette réflexion est l'objet du Chapitre 3. Ces études prennent aussi beaucoup de temps lors de l'analyse des résultats. De plus, certaines données créées lors de ces études, telles que les traces d'utilisation ont des volumétries trop importantes pour être analysées manuellement. C'est pourquoi nous avons créé un processus permettant d'analyser ces traces d'utilisation pour y détecter les erreurs utilisateurs dans l'espoir de les relier à des problèmes d'utilisabilité. Ce processus se compose de deux parties : la première est une analyse formelle de l'application, qui sera présentée au Chapitre 4, et la seconde l'application d'un outil d'apprentissage automatique aux traces d'utilisation pour y détecter les erreurs utilisateurs. Cet outil est présenté au Chapitre 5.
Resumo:
Résumé : Les eaux souterraines ont un impact majeur sur la vie terrestre, les besoins domestiques et le climat. Elles sont aussi un maillon essentiel du cycle hydrologique. Au Canada par exemple, plus de 30 % de la population est tributaire des eaux souterraines pour leur alimentation en eau potable. Ces ressources subissent de nombreuses pressions sous l’influence de certains facteurs comme la salinisation, la contamination et l’épuisement. La variabilité du climat et la demande croissante sur ces ressources imposent l'amélioration de nos connaissances sur les eaux souterraines. L’objectif principal du projet de recherche est d’exploiter les données d’anomalies (TWS) de la mission Gravity Recovery And Climate Experiment (GRACE) pour localiser, quantifier et analyser les variations des eaux souterraines à travers les bassins versants du Bas-Mackenzie, du Saint-Laurent, du Nord-Québec et du Labrador. Il s’agit aussi d’analyser l’influence des cycles d’accumulation et de fonte de neige sur les variations du niveau des eaux souterraines. Pour estimer les variations des eaux souterraines, la connaissance des autres paramètres du bilan hydrologique est nécessaire. Ces paramètres sont estimés à l’aide des sorties du modèles de surface CLM du Système Global d’Assimilation des Données de la Terre (GLDAS). Les données GRACE qui ont été utilisées sont celles acquises durant la période allant de mars 2002 à août 2012. Les résultats ont été évalués à partir d’enregistrements de niveaux piézométriques provenant de 1841 puits localisés dans les aquifères libres du bassin des réseaux de suivi des eaux souterraines au Canada. Les valeurs de rendements spécifiques des différents types d’aquifères de chaque puits et celles des variations mensuelles du niveau d’eau dans ces puits ont été utilisées pour estimer les variations des anomalies des eaux souterraines in-situ. L’étude de corrélation entre les variations des anomalies des eaux souterraines estimées à partir de la combinaison GRACE-GLDAS et celles issues de données in-situ révèle des concordances significatives avec des valeurs de
Resumo:
L’enseignement de l’anglais, langue seconde a connu de nombreux changements au courant des 20 dernières années, du primaire au collégial, afin d’assurer une meilleure maîtrise de cette langue par les élèves au Québec. Ainsi, à la fin du parcours secondaire, le niveau visé par le Programme de formation de l’école québécoise et sanctionné par le ministère à l’épreuve unique de secondaire cinq à l’égard de la connaissance de l’anglais, langue seconde se compare au niveau intermédiaire (Intermediate Mid ou High) de l’échelle de l’American Council on the Teaching of Foreign Languages. En somme, l’élève qui possède son diplôme d’études secondaires a normalement une connaissance de niveau intermédiaire de l’ALS lorsqu’il s’inscrit dans un collège d’enseignement général et professionnel (cégep). Or, 20 ans après l’instauration des cours obligatoires d’ALS, les cégeps accueillent toujours 30 à 40 % des étudiants en 604-100 Anglais de base alors que ce cours n’était que temporaire au départ (Commission d’évaluation de l’enseignement collégial, 2001; Fournier 2007). Cet état de fait nous a amenée à proposer une recherche ayant pour objet les caractéristiques des étudiants des cours 604-100 Anglais de base et 604-101 Langue anglaise et communication du Cégep de St-Hyacinthe dans le but de comprendre l’écart entre les deux niveaux quant à leur maîtrise de la langue anglaise. Notre recherche est descriptive avec un volet comparatif afin d’atteindre les deux objectifs suivants: (1) identifier les caractéristiques des étudiants inscrits dans les cours collégiaux de niveau 604-100 Anglais de base et 604-101 Langue anglaise et communication du Cégep de St-Hyacinthe; (2) comparer les réponses des étudiants des deux niveaux pour voir quelles caractéristiques se distinguent et pourraient expliquer l’écart de maîtrise de la langue anglaise entre les étudiants classés au niveau attendu (604-101 Langue anglaise et communication) et ceux du niveau de base (604-100 Anglais de base). Nous avons construit un questionnaire électronique spécifiquement pour cette étude, composé de questions fermées comprenant cinq sections (profil scolaire, attitude et intérêt envers l’ALS, la motivation, l’anxiété linguistique et l’utilisation de stratégies d’apprentissage) que nous avons envoyé à 907 répondants potentiels du Cégep de St-Hyacinthe à l’automne 2015. Nous n’avons retenu que les étudiants qui satisfaisaient à nos trois critères de sélection, soit (1) être inscrit dans le niveau 604-100 Anglais de base ou 604-101 Langue anglaise et communication, (2) avoir fait toutes ses études primaires et secondaires en français au Québec, et (3) être en continuité de formation (sans interruption entre la fin du secondaire et l’entrée au cégep). Au final, notre recherche compte 294 sujets, 108 étudiants de niveau 604-100 et 186 étudiants de niveau 604-101. Nous avons utilisé l’approche quantitative et réalisé des statistiques descriptives et inférentielles pour analyser nos données. Les analyses ont révélé une différence significative entre les deux niveaux sur plusieurs points, que nous avons regroupés en quatre caractéristiques principales qui peuvent expliquer l’écart quant à leur maîtrise de la langue anglaise. La première est d’avoir un intérêt intégratif et instrumental à apprendre l’anglais, car celui-ci supporte les efforts pour atteindre une maîtrise satisfaisante de la langue. La deuxième est le développement d’une confiance en ses capacités à communiquer dans la langue puisque cette confiance réduit l’anxiété linguistique qui gêne l’apprentissage. La troisième est une préparation adéquate aux études supérieures, tant au niveau des compétences spécifiques (moyenne générale, programmes enrichis) que transversales (comme l’utilisation des stratégies d’apprentissage) au secondaire, car elle offre un bagage de connaissances nécessaires à la maîtrise d’une langue. Finalement, la présence de difficultés liées à l’apprentissage comme les troubles d’apprentissage et des faiblesses dans la langue maternelle est un frein au développement d’une compétence en langue seconde puisqu’elles touchent précisément des compétences essentielles à l’apprentissage soit la lecture et l’écriture. Outre la recherche de Fournier (2007) sur les prédicteurs de réussite, peu ou pas d’études ont porté sur les étudiants collégiaux par rapport à leur profil d’apprenant d’une L2. Nos résultats contribuent donc à documenter une situation peu étudiée, et permettent de quantifier ce que les enseignants constatent sur le terrain depuis des années. Ce faisant, nos données sont utiles tant au niveau de l’organisation scolaire des collèges que des départements de langue et de l’enseignement, car elles permettent l’amélioration du contexte dans lequel ces cours sont offerts et du coup, d’avoir des retombées sur la réussite des étudiants.
Resumo:
Le cancer du sein triple négatif (TNBC) représente entre 15-20% des cancers du sein et est l'un des types les plus agressifs. De plus, un sous-groupe de ces patientes est résistant à la radiothérapie (RT) et développe fréquemment une récidive hâtive de la maladie. Des études précédentes ont démontré que l’inflammation induite par la RT accélère la progression du cancer et le développement des métastases. Cette hypothèse a donc été validée dans un modèle pré-clinique de TNBC en implantant les cellules de carcinome de souris triple négatives D2A1 dans les glandes mammaires de la souris Balb/c. Premièrement, la tumeur primaire à été irradiée à une dose sous-curative une semaine post-implantation des cellules. En deuxième lieu, le tissu mammaire de la souris a été pré-irradié avant d'implanter les cellules cancéreuses afin de bien discerner l'effet du microenvironnement irradié sur celles-ci. Ces deux modèles ont mené à une augmentation significative des cellules tumorales circulantes ainsi que du nombre de métastases pulmonaires. Plusieurs molécules inflammatoires dont l'interleukine-1 bêta (IL-1β), l'interleukine-6 (IL-6) ou encore la cyclooxygénase 2 (COX-2) ont été identifiées comme facteurs clés impliqués dans la migration radio-induite des cellules cancéreuses du sein. Conséquemment, un inhibiteur large-spectre comme la chloroquine (CQ), entre autres utilisé comme traitement anti-malarien et anti-inflammatoire, a su prévenir ces effets secondaires associés à la RT. Étant donné que l'action de la CQ est peu sélective, une répression de l'expression de l'ARNm de la métalloprotéinase (MMP) de membrane de type 1 (MT1-MMP), une MMP de surface impliquée notamment dans la migration cellulaire, l'invasion tumorale et l'angiogenèse, a été réalisée afin d'éclaircir le mécanisme d'inhibition des métastases radio-induites. Cette répression de la MT1-MMP prévient la formation des métastases pulmonaires radio-induites, démontrant ainsi un des mécanisme important de l'invasion radio-induite. Ce résultat confirme donc l'importance de la MT1-MMP dans ce phénomène et son potentiel comme biomarqueur de prédiction de l'efficacité des traitements de RT, particulièrement chez les patientes atteintes de TNBC.
Resumo:
Cette recherche de nature qualitative avait pour objectif général de faire avancer les enseignantes et les enseignants du programme Graphisme du Cégep de Rivière-du-Loup dans l’adoption d’une terminologie commune qui serait de nature à créer une meilleure cohésion dans le programme. La problématique a permis de constater que l’utilisation de certains termes donnant lieu à plusieurs interprétations trouble la communication entre enseignants et apprenants. L’arrivée d’un nouveau programme en Graphisme permet au personnel enseignant de travailler au développement d’une compréhension commune du vocabulaire utilisé en Graphisme. Le cadre de référence en didactique, développée par le secteur PERFORMA de l’Université de Sherbrooke, a orienté cette recherche scientifique. Cette base de connaissances adaptée à l’enseignement collégial a permis d’encadrer cet essai et de trouver une solution au problème rencontré. Les fondements de cette recherche s’appuient donc sur une démarche de nature didactique qui offre des solutions documentées pour définir et présenter ces termes sans équivoque. L’utilisation du wiki pour l’élaboration du lexique numérique, apporte une solution collaborative pour documenter les termes posant problème afin de coconstruire une représentation commune chez le personnel enseignant du programme Graphisme au Cégep de Rivière-du-L
Resumo:
Abstract : CEGEPs are now reaping the ‘first fruits’ of the last Educational Reform in Quebec and as a result, ‘English as Second Language’ (ESL) teachers are noticing an improvement in fluency and a seemingly lower level of inhibition when it comes to production skills. However, this output is accompanied by a noticeable lack of accuracy. Keeping in mind that the purpose of language is communication, we need to find a way to reduce the number of basic common errors made by CEGEP ESL students, while maintaining a natural and motivating learning environment. Thanks to recent advances in computer-mediated communication (CMC), we now have the necessary tools to access peer native speakers throughout the world. Although this technology can be used for other language courses, this study explored the potential value of collaboration with native English speakers through the use of synchronous screen-sharing technology, in order to improve CEGEP ESL students’ accuracy in writing. The instrumentation used consisted of a questionnaire, tests, plus documents of collaborative tasks, using the ‘Google for Education’ screen-sharing tool. Fourteen Intermediate/Advanced ESL CEGEP students participated in this study. Despite the positive tendencies revealed, only a prolonged use of the innovative method yielded a significant positive impact. Moreover, a mixed linear regression for the group with more L1 intervention revealed a significant correlation between the number of errors in the task documents and the number of tasks accomplished. Thus, it could be inferred that ESL accuracy improves in proportion to the number of synchronous text-based screen-sharing tasks done with L1 collaboration.