72 resultados para Partage
Resumo:
En traitement du signal audio, les plosives sont des sons de parole très importants au regard de l’intelligibilité et de la qualité. Les plosives sont cependant difficiles à modéliser à l’aide des techniques usuelles (prédiction linéaire et codage par transformée), à cause de leur dynamique propre importante et à cause de leur nature non prédictible. Cette étude présente un exemple de système complet capable de détecter, segmenter, et altérer les plosives dans un flux de parole. Ce système est utilisé afin de vérifier la validité de l’hypothèse suivante : La phase d’éclatement (de burst) des plosives peut être mise à zéro, de façon perceptuellement équivalente. L’impact sur la qualité subjective de cette transformation est évalué sur une banque de phrases enregistrées. Les résultats de cette altération hautement destructive des signaux tendent à montrer que l’impact perceptuel est mineur. Les implications de ces résultats pour le codage de la parole sont abordées.
Resumo:
L’extrémité des chromosomes linéaires est une structure nucléoprotéique très conservée chez les organismes eucaryotes. Elle est constituée du télomère et des régions sous-télomériques répétées (STR) qui sont placées en amont du télomère. Chez la levure bourgeonnante, on trouve deux types de télomère, les télomères XY’ et les télomères X, qui se distinguent par la nature des STR positionnées en amont des répétitions télomériques. Le télomère et les STR sont liés par pas moins de dix protéines qui vont participer au maintien et à la régulation de l’extrémité chromosomique nécessaires à la stabilité du génome. Le télomère protège ainsi le chromosome de dégradations ou encore de fusions avec d’autres chromosomes. Le maintien de la taille du télomère est assuré par la télomérase, une transcriptase inverse, qui permet l’ajout de répétitions pour pallier leur perte lors de la phase de réplication durant le cycle cellulaire. Lorsque la télomérase est absente, deux types particuliers de cellules, les survivants de type I et les survivants de type II, peuvent maintenir leurs télomères grâce aux mécanismes de recombinaison homologue. Chez l’humain, les répétitions télomériques sont également liées par un certain nombre de protéines nécessaires au maintien de la stabilité de l’extrémité chromosomique. L’implication des télomères dans les processus de cancérisation, de vieillissement, mais également dans des maladies congénitales fait de cette structure un pivot dans le domaine de la recherche fondamentale. Dans 10 % des cas de cancers, l’allongement n’est pas dû à une réactivation de la télomérase comme c’est en général le cas, mais est inhérent à des processus de recombinaison homologue, comme chez la levure. Les homologies de séquences, de protéines, mais aussi de mécanismes de régulation des télomères avec les cellules humaines, font de S. cerevisiae un excellent modèle d’étude. Cette thèse se divise en trois chapitres. Les deux premiers traitent de l’interaction du complexe yKu avec les télomères de type XY’ dans le chapitre 1 puis de son interaction avec les télomères de type X dans le chapitre 2. Le chapitre 3 traite du comportement d’un type de survivant chez S. cerevisiae. Le chapitre 1 porte donc sur l’analyse des sites de liaison aux télomères XY’ du complexe yKu par la technique de ChEC in vivo. yKu intervient dans de nombreux processus de régulation des télomères, mais aussi dans un mécanisme de réparation des cassures double-brin de l’ADN (DSBs), la NHEJ (Non homologous end-joining). Les résultats présentés dans cette partie appuient un modèle dans lequel yKu aurait plusieurs sites de liaison aux télomères et dans les répétitions télomériques interstitielles. Nous supposons que la liaison du complexe se ferait lors de la formation d’une cassure de type « one-sided break » générée à la suite du passage de la fourche de réplication à l’intérieur des répétitions télomériques. Le chapitre 2 est également une étude des sites de liaison par la technique de ChEC in vivo du complexe yKu, mais cette fois-ci aux télomères X. Les observations faites dans cette partie viennent corroborer les résultats du chapitre 1 de la liaison de yKu à la jonction entre le télomère et les STRs, de plus elle met en évidence des interactions potentielles du complexe avec les éléments X laissant supposer l’existence d’un potentiel repliement du télomère sur la région sous-télomérique chez la levure. Enfin, le chapitre 3 est axé sur l’étude du comportement des survivants de type I, des cellules post-sénescences qui maintiennent leurs télomères par un processus de recombinaison homologue, le mécanisme de BIR (break-induced replication) en l’absence de télomérase. Les survivants de type I présentent une croissance lente liée à un arrêt du cycle cellulaire en phase G2/M qui dépend de la protéine de contrôle Rad9, dont l’activité est en général induite par des cassures double-brin. Ce chapitre a permis d’apporter des précisions sur la croissance lente probablement inhérente à un berceau télomérique très restreint chez ce type cellulaire.
Resumo:
La biodiversité et les écosystèmes font parties d’un ensemble qui confère des biens et services essentiels à la survie et au bien-être des populations. L’action humaine et ses interactions avec l’environnement génèrent des pressions qui le poussent vers sa dégradation. Afin d’éviter la perte irrémédiable d’éléments de cet environnement, des aires protégées viennent réduire de manière importante l’impact de ces pressions sur le territoire qu’elles couvrent. Le réseau d’aires protégées du Québec conserve actuellement 9,32 % du territoire, et cherche à atteindre 12 % d’ici 2020. Basé sur le Cadre écologique de référence du Québec, il vise à représenter l’ensemble de la biodiversité de la province et à réduire les pressions exercées sur ses écosystèmes. À ce jour, la majorité des aires protégées sont développées dans le nord du Québec et en terres publiques. Or, le Sud est principalement composé de territoires privés, et recèle de la plus grande biodiversité de la province. Afin de corriger cette problématique, les outils de planification du réseau doivent être repensés pour rendre compte de l’urgence de protéger les territoires du Sud et recréer une connectivité dans le paysage fragmenté, tout en conservant les principes de représentativité et d’efficacité qui font leur force. Pour y parvenir, la mission et les paramètres de suivi du réseau doivent être également revus. Les acteurs locaux, dont les municipalités régionales de comtés et les municipalités, doivent être mis à profit pour considérer les enjeux propres aux terres privées du sud de la province. Ces derniers possèdent déjà plusieurs outils légaux et administratifs pour participer activement à la protection du territoire, qui sont cependant souvent mal connus ou mal compris. Un effort doit être fait pour agencer ces actions avec celles du gouvernement provincial de manière à agir dans une logique d’ensemble. De même, tous les intervenants gagneraient à disposer de meilleurs outils concernant la diffusion des données sur la connaissance du territoire, notamment d’une plateforme centralisée, de protocoles d’acquisition de données standardisés et d’une saine gestion du cycle de vie de ces données. L’application de la géomatique dans la planification et le suivi du réseau d’aires protégées, de même que dans l’aménagement général du territoire pour la conservation et pour la diffusion des données, présente des avantages qui devraient être intégrés plus largement au Québec, notamment par les acteurs locaux du sud de la province.
Resumo:
Les traitements acoustiques actuels pour parois d’avion sont performants en hautes fréquences mais nécessitent des améliorations en basses fréquences. En effet dans le cas des matériaux classiques cela nécessite une épaisseur élevée et donc les traitements ont une masse très importante. Des solutions sortant de ce cadre doivent donc être développées. Ce projet de maîtrise a pour but de créer un traitement acoustique à base de résonateurs de Helmholtz intégrés dans un matériau poreux, afin de réfléchir les ondes acoustiques basses fréquences tout en absorbant sur une large bande de fréquences en hautes fréquences. Le principe est basé sur la conception d’un méta-composite, optimisé numériquement et validé expérimentalement en tube d’impédance et chambres de transmission. La performance du concept sera également étudiée sur une maquette de la coiffe du lanceur Ariane 5 avec un modèle d’analyse énergétique statistique (SEA). Pour cela, on s’appuie sur les travaux précédents sur les résonateurs d’Helmholtz, les méta-matériaux, les méta-composites et la modélisation par matrices de transfert. L’optimisation se fait via un modèle basé sur les matrices de transfert placé dans une boucle d’optimisation.
Resumo:
Résumé : Les télomères sont des structures nucléoprotéiques spécialisées qui assurent la stabilité du génome en protégeant les extrémités chromosomiques. Afin d’empêcher des activités indésirables, la réparation des dommages à l’ADN doit être convenablement régulée au niveau des télomères. Pourtant, il existe peu d’études de la réparation des dommages induits par les ultraviolets (UVs) dans un contexte télomérique. Le mécanisme de réparation par excision de nucléotides (NER pour « Nucleotide Excision Repair ») permet d’éliminer les photoproduits. La NER est un mécanisme très bien conservé de la levure à l’humain. Elle est divisée en deux sous voies : une réparation globale du génome (GG-NER) et une réparation couplée à la transcription (TC-NER) plus rapide et plus efficace. Dans notre modèle d’étude, la levure Saccharomyces cerevisiae, une forme compactée de la chromatine nommée plus fréquemment « hétérochromatine » a été décrite. Cette structure particulière est présente entre autres, au niveau des régions sous-télomériques des extrémités chromosomiques. La formation de cette chromatine particulière implique quatre protéines nommées Sir (« Silent Information Regulator »). Elle présente différentes marques épigénétiques dont l’effet est de réprimer la transcription. L’accès aux dommages par la machinerie de réparation est-il limité par cette chromatine compacte ? Nous avons donc étudié la réparation des lésions induites par les UVs dans différentes régions associées aux télomères, en absence ou en présence de protéines Sir. Nos données ont démontré une modulation de la NER par la chromatine, dépendante des nucléosomes stabilisés par les Sir, dans les régions sous-télomériques. La NER était moins efficace dans les extrémités chromosomiques que dans les régions plus proches du centromère. Cet effet était dépendant du complexe YKu de la coiffe télomérique, mais pas dépendant des protéines Sir. La transcription télomériques pourrait aider la réparation des photoproduits, par l’intermédiaire de la sous-voie de TC-NER, prévenant ainsi la formation de mutations dans les extrémités chromosomiques. Des ARN non codants nommés TERRA sont produits mais leur rôle n’est pas encore clair. Par nos analyses, nous avons confirmé que la transcription des TERRA faciliterait la NER dans les différentes régions sous-télomériques.
Resumo:
L’association entre le déclin fonctionnel et l’hospitalisation de la personne âgée est un phénomène iatrogène reconnu. Les causes du déclin fonctionnel sont multiples, mais le syndrome d’immobilisation représente l’un des deux principaux syndromes cliniques rencontrés chez la personne âgée hospitalisée menant au déclin fonctionnel, le délirium étant l’autre. Force est de constater que des changements importants au plan des pratiques non adaptées aux particularités du vieillissement de la clientèle doivent être apportés. Afin de soutenir les établissements de santé, le ministère de la Santé et des Services sociaux (MSSS du Québec) rendait accessible, en 2011, un cadre de référence pour une approche adaptée à la personne âgée en milieu hospitalier. Cependant, il appartient à chaque établissement de développer les activités de formation continue et de définir des stratégies efficaces qui faciliteront une modification des pratiques dans leur milieu. Cette étude avait pour but d’estimer l’effet d’une activité de formation continue contenant un volet de coaching portant sur le syndrome d’immobilisation auprès des infirmières et infirmiers oeuvrant auprès d’une clientèle âgée en 1) identifiant et comparant les connaissances théoriques et procédurales avant et après l’activité de formation continue dans le groupe expérimental et le groupe témoin, 2) en évaluant et en comparant les pratiques des infirmières et infirmiers sur le syndrome d’immobilisation, plus précisément dans les notes d’évolution, au kardex et au plan thérapeutique infirmier (PTI), avant et après la formation continue dans le groupe expérimental et le groupe témoin, 3) en évaluant la satisfaction des personnes participantes en regard de l’activité de formation continue à l’aide d’un questionnaire dans le groupe expérimental. En conclusion, les connaissances et les pratiques des personnes participantes du groupe expérimental n’ont pas augmenté à la suite d’une activité de formation continue sur le syndrome d’immobilisation incluant un coaching individualisé dans le groupe expérimental au plan des moyennes des scores intra groupe et entre les groupes.
Resumo:
Résumé : Introduction : Au Québec, jusqu’à l’âge de 21 ans, les enfants et adolescents ayant une déficience intellectuelle (DI) profonde ont des services de pédiatrie adaptés et l’opportunité de fréquenter des écoles spécialisées publiques. Toutefois, au-delà de cet âge, l’accès à ces services spécialisés est plus limité : le financement pour la fréquentation scolaire cesse et les jeunes adultes transfèrent des services de santé pédiatriques vers le secteur adulte. Malgré la mise en place de solutions visant à faciliter cette transition, des difficultés tendent à persister, une situation pouvant avoir des effets négatifs considérables au niveau de la personne ayant un handicap et de sa famille. Cependant, peu d’études se sont intéressées aux facteurs qui influencent le vécu de la transition vers la vie adulte des familles de jeunes personnes présentant une DI profonde, rendant difficile l’adaptation des programmes déjà existants de planification de la transition à la réalité de ces familles. Objectif : Ce projet vise à décrire les besoins des personnes présentant une DI profonde et de leur famille lors de la transition vers la vie adulte, en décrivant le vécu des parents lors de cette période et les facteurs qui l’influencent, ainsi qu’en explorant les pistes de solution à mettre en place. Méthodologie : Afin de réaliser cette étude qualitative, un devis descriptif interprétatif a été choisi. Deux entrevues semi-dirigées individuelles ont été réalisées auprès de quatorze parents, la deuxième entrevue permettant de valider et d’approfondir les résultats à l’aide d’un résumé de la première rencontre. Résultats : Plusieurs facteurs multisystémiques de l’ordre du soutien matériel, informatif, cognitif et affectif semblent influencer la transition vers la vie adulte. Ces différents facteurs contribuent au vécu particulièrement difficile des familles, qui vivent beaucoup d’anxiété et de frustration face au peu de soutien qui leur est offert. Plusieurs idées intéressantes ont été proposées par les parents pour répondre à ce manque de soutien, autant au plan du partage des connaissances, de l’amélioration de la collaboration inter-établissement que du soutien psychologique. Conclusion : Cette étude souligne l’importance d’impliquer l’ensemble des acteurs œuvrant auprès du jeune adulte et de sa famille dans la planification de la transition. La compréhension de la réalité des personnes avec une DI profonde et de leur famille devrait permettre de développer des interventions concrètes leur étant destinées dans de futurs projets.
Resumo:
Le laboratoire DOMUS développe des applications pour assister les personnes en perte d'autonomie et les personnes avec des troubles cognitifs. Chaque application est ou a déjà été le sujet de plusieurs études d'utilisabilité qui permettent de les améliorer. Ces études prennent beaucoup de temps à mettre en place, car l'on rencontre souvent des problèmes de logistique (format et sensibilité des données, chercheurs répartis sur une grande aire géographique). C'est pourquoi un outil appelé GEDOPAL a été développé. Il permet de partager entre chercheurs de différents centres les données créées et utilisées lors de la mise en place des études d'utilisabilité. La conception et la réalisation de cet outil ont nécessité une réflexion en amont sur la nature et la sensibilité de ces données. Cette réflexion est l'objet du Chapitre 3. Ces études prennent aussi beaucoup de temps lors de l'analyse des résultats. De plus, certaines données créées lors de ces études, telles que les traces d'utilisation ont des volumétries trop importantes pour être analysées manuellement. C'est pourquoi nous avons créé un processus permettant d'analyser ces traces d'utilisation pour y détecter les erreurs utilisateurs dans l'espoir de les relier à des problèmes d'utilisabilité. Ce processus se compose de deux parties : la première est une analyse formelle de l'application, qui sera présentée au Chapitre 4, et la seconde l'application d'un outil d'apprentissage automatique aux traces d'utilisation pour y détecter les erreurs utilisateurs. Cet outil est présenté au Chapitre 5.
Resumo:
Les inventaires archéologiques représentent une part importante des travaux archéologiques qui sont effectués en sol québécois. Il s’agit d’interventions qui sont réalisées en milieux urbains ou ruraux, mais également dans des milieux forestiers parfois éloignés. Lors de ces interventions, plusieurs informations de nature spatiale sont prises, tant pour évaluer la présence ou l’absence de vestiges archéologiques que pour décrire l’environnement et les perturbations observées. Les données issues de ces travaux sont de manière générale enregistrées sur le terrain sur des supports papiers, pour être éventuellement transférées en format numérique après l’intervention, et la localisation sur le terrain est effectuée à l’aide de cartes, de la boussole et d’un appareil GPS. Ce projet cherche à évaluer la contribution potentielle d’une solution géomatique mobile qui permettrait d’assister les archéologues sur le terrain, tant au niveau de la saisie de données que de la géolocalisation sur le terrain. Afin d’identifier l’intérêt, les attentes et les besoins prioritaires d’une telle solution, une enquête a été réalisée auprès de la communauté archéologique. Subséquemment, afin de démontrer qu’une solution géomatique mobile pourrait être développée afin de soutenir les travaux archéologiques, un appareil mobile adapté aux contraintes du terrain archéologique a été identifié et un prototype d’application a été développé, sur la base des résultats de l’enquête obtenus. Il nous a par la suite été possible de faire prendre en main la solution mobile développée par une archéologue et un essai en milieu contrôlé a pu être réalisé afin d’avoir une évaluation critique de l’application et de proposer des pistes d’amélioration. Les résultats obtenus indiquent que la technologie géomatique mobile est aujourd’hui suffisamment accessible pour pouvoir bien s’adapter aux réalités de terrain et ainsi venir répondre à certains besoins des professionnels de terrain tout en demeurant abordable. Malgré quelques pistes d’amélioration qui ont été identifiées, l’enthousiasme suscité par l’application développée démontre l’intérêt des utilisateurs à intégrer ces nouvelles technologies. La démarche de développement employée est également novatrice puisqu’elle permet de développer, en l’espace de quelques mois, une application adaptée à un contexte de terrain professionnel particulier, tout en demeurant grandement modulable et pouvant s’adapter à d’autres domaines d’application.
Resumo:
Cette étude vise à déterminer les meilleurs prédicteurs de la dépression postnatale, à examiner leurs effets d’interaction et à identifier les corrélats qui prédisent le mieux la persistance des symptômes dépressifs entre 3 et 15 mois après la naissance. Cent quarante-cinq dyades mères-enfant, à risque modéré sur le plan psychosocial ont été évaluées à 3, 8 et 15 mois, lors de visites au domicile ou en laboratoire. Les mères ont complété le Symptom Checklist-90-R (SCL-90-R; Derogatis, 1994) afin de mesurer leurs symptômes dépressifs. Elles ont aussi complété d’autres questionnaires portant sur de nombreux corrélats liés à différents niveaux écosystémiques. Plus précisément, les corrélats liés à l’ontosystème, soit la mère, sont : son âge, son niveau de scolarité, son statut d’emploi, son état de santé, la présence de stress psychologiques et les cognitions-maternelles (sentiment d’efficacité parental, impact parental perçu, comportements parentaux hostiles-réactifs et de surprotection). Pour le microsystème, le tempérament de l’enfant, son développement cognitif et moteur ainsi que la qualité de la relation conjugale sont examinés. Enfin, le soutien social et le revenu familial sont considérés comme des corrélats de l’exosystème. Les résultats montrent que la dépression prénatale, le stress psychologique prénatal et postnatal, l’état de santé de la mère et le développement mental de l’enfant ont un lien significatif avec la dépression postnatale, à tous les temps de mesure, lorsqu’observés de façon indépendante. Ce lien se maintient pour le stress psychologique postnatal, même en présence d’autres variables. Des effets d’interaction significatifs sont observés entre le stress psychologique postnatal et le développement mental de l’enfant, ainsi qu’entre le stress psychologique postnatal et l’état de santé de la mère, dans la prédiction de la dépression postnatale. Enfin, les analyses portant sur la persistance de la dépression postnatale n’ont pu être réalisées vu des scores de dépression trop faibles.
Resumo:
Créé en 2006, le Fonds vert du Québec a été établi dans le but de financer les mesures et les activités favorisant le développement durable. Au fil des années, ce fonds a permis d’amasser d’importantes sommes, notamment grâce aux redevances, à la tarification ou à la compensation. Les changements climatiques ont amené le Ministère du Développement durable, de l’Environnement et de la Lutte contre les changements climatiques à consacrer la majeure partie des revenus du Fonds vert pour cet enjeu. Avec un bilan positif dans les revenus, on peut penser que le Fonds vert a aidé à réaliser les objectifs du Québec en matière de changements climatiques. Or, dans les dernières années, plusieurs parties prenantes, dont le Commissaire au développement durable, ont relevé des problèmes importants dans la gestion du fonds. Ces problèmes se situent notamment dans la gestion stratégique, dans la gestion des programmes et des projets ainsi que dans la diffusion de l’information. La gouvernance actuelle du Fonds vert du Québec n’a donc pas apporté les résultats souhaités en matière d’adaptation aux changements climatiques et en réduction des émissions de gaz à effet de serre. L’objectif de l’essai est d’analyser le cadre de gestion des fonds verts existants du Canada et des États-Unis afin de relever des solutions qui permettraient d’améliorer le Fonds vert du Québec en matière de changements climatiques au Québec. Pour atteindre cet objectif, divers fonds verts existants partageant des traits similaires à celui du Québec ont été analysés. Le choix s’est arrêté au Fonds municipal vert, au Climate Change and Emissions Management Fund et au California Climate Investments. Ces derniers ont été analysés en fonction d’un tableau comparatif comprenant des critères comme l’établissement d’objectifs visant l’atteinte de résultats, l’élaboration d’un processus de sélection de projets, la mise en œuvre d’un mécanisme de surveillance ou de suivi et la diffusion des informations relatives aux programmes. L’analyse comparative a permis de constater quelques tendances dans la gestion des fonds verts. D’abord, les fonds verts ont adopté leur propre approche dans la formulation des objectifs du fonds. Le Fonds municipal vert se démarque en établissant des objectifs de nature budgétaire et stratégique. De plus, ces objectifs sont énoncés de façon spécifique, mesurable, appropriée, réaliste et délimitée dans le temps. Les fonds verts analysés présentent également un processus de sélection de projets plus élaborés que celui du Fonds vert du Québec, en ce qu’il prévoit des critères d’admissibilités bien définis, une multitude d’étapes de sélection et la participation de plusieurs acteurs, notamment des acteurs externes. Le Climate Change and Emissions Management Fund se distingue des autres fonds, en ce qu’il introduit un comité, le Fairness monitor, pour surveiller le processus de sélection. Pour tous les fonds verts de cette analyse, le mécanisme de surveillance ou de suivi se traduit par des livrables, comme des rapports annuels, exécutés par des auditeurs indépendants. Enfin, les fonds verts utilisent divers moyens de communication pour faciliter la compréhension du fonctionnement du fonds en question. Le Fonds municipal vert offre des activités, telles que du réseautage, du mentorat, des conférences afin d’encourager le partage des connaissances et l’apprentissage par les pairs. Le California Climate Investments a mis sur pied une plateforme sur Internet qui permet de voir en continu l’évolution et les résultats des projets financés. Aux termes de cette analyse, quatre recommandations ont été formulées en fonction des éléments de gestion qui sont le plus ressortis des trois fonds verts.
Resumo:
Le cancer du sein triple négatif (TNBC) représente entre 15-20% des cancers du sein et est l'un des types les plus agressifs. De plus, un sous-groupe de ces patientes est résistant à la radiothérapie (RT) et développe fréquemment une récidive hâtive de la maladie. Des études précédentes ont démontré que l’inflammation induite par la RT accélère la progression du cancer et le développement des métastases. Cette hypothèse a donc été validée dans un modèle pré-clinique de TNBC en implantant les cellules de carcinome de souris triple négatives D2A1 dans les glandes mammaires de la souris Balb/c. Premièrement, la tumeur primaire à été irradiée à une dose sous-curative une semaine post-implantation des cellules. En deuxième lieu, le tissu mammaire de la souris a été pré-irradié avant d'implanter les cellules cancéreuses afin de bien discerner l'effet du microenvironnement irradié sur celles-ci. Ces deux modèles ont mené à une augmentation significative des cellules tumorales circulantes ainsi que du nombre de métastases pulmonaires. Plusieurs molécules inflammatoires dont l'interleukine-1 bêta (IL-1β), l'interleukine-6 (IL-6) ou encore la cyclooxygénase 2 (COX-2) ont été identifiées comme facteurs clés impliqués dans la migration radio-induite des cellules cancéreuses du sein. Conséquemment, un inhibiteur large-spectre comme la chloroquine (CQ), entre autres utilisé comme traitement anti-malarien et anti-inflammatoire, a su prévenir ces effets secondaires associés à la RT. Étant donné que l'action de la CQ est peu sélective, une répression de l'expression de l'ARNm de la métalloprotéinase (MMP) de membrane de type 1 (MT1-MMP), une MMP de surface impliquée notamment dans la migration cellulaire, l'invasion tumorale et l'angiogenèse, a été réalisée afin d'éclaircir le mécanisme d'inhibition des métastases radio-induites. Cette répression de la MT1-MMP prévient la formation des métastases pulmonaires radio-induites, démontrant ainsi un des mécanisme important de l'invasion radio-induite. Ce résultat confirme donc l'importance de la MT1-MMP dans ce phénomène et son potentiel comme biomarqueur de prédiction de l'efficacité des traitements de RT, particulièrement chez les patientes atteintes de TNBC.
Resumo:
Abstract : CEGEPs are now reaping the ‘first fruits’ of the last Educational Reform in Quebec and as a result, ‘English as Second Language’ (ESL) teachers are noticing an improvement in fluency and a seemingly lower level of inhibition when it comes to production skills. However, this output is accompanied by a noticeable lack of accuracy. Keeping in mind that the purpose of language is communication, we need to find a way to reduce the number of basic common errors made by CEGEP ESL students, while maintaining a natural and motivating learning environment. Thanks to recent advances in computer-mediated communication (CMC), we now have the necessary tools to access peer native speakers throughout the world. Although this technology can be used for other language courses, this study explored the potential value of collaboration with native English speakers through the use of synchronous screen-sharing technology, in order to improve CEGEP ESL students’ accuracy in writing. The instrumentation used consisted of a questionnaire, tests, plus documents of collaborative tasks, using the ‘Google for Education’ screen-sharing tool. Fourteen Intermediate/Advanced ESL CEGEP students participated in this study. Despite the positive tendencies revealed, only a prolonged use of the innovative method yielded a significant positive impact. Moreover, a mixed linear regression for the group with more L1 intervention revealed a significant correlation between the number of errors in the task documents and the number of tasks accomplished. Thus, it could be inferred that ESL accuracy improves in proportion to the number of synchronous text-based screen-sharing tasks done with L1 collaboration.
Resumo:
Chaque année, le piratage mondial de la musique coûte plusieurs milliards de dollars en pertes économiques, pertes d’emplois et pertes de gains des travailleurs ainsi que la perte de millions de dollars en recettes fiscales. La plupart du piratage de la musique est dû à la croissance rapide et à la facilité des technologies actuelles pour la copie, le partage, la manipulation et la distribution de données musicales [Domingo, 2015], [Siwek, 2007]. Le tatouage des signaux sonores a été proposé pour protéger les droit des auteurs et pour permettre la localisation des instants où le signal sonore a été falsifié. Dans cette thèse, nous proposons d’utiliser la représentation parcimonieuse bio-inspirée par graphe de décharges (spikegramme), pour concevoir une nouvelle méthode permettant la localisation de la falsification dans les signaux sonores. Aussi, une nouvelle méthode de protection du droit d’auteur. Finalement, une nouvelle attaque perceptuelle, en utilisant le spikegramme, pour attaquer des systèmes de tatouage sonore. Nous proposons tout d’abord une technique de localisation des falsifications (‘tampering’) des signaux sonores. Pour cela nous combinons une méthode à spectre étendu modifié (‘modified spread spectrum’, MSS) avec une représentation parcimonieuse. Nous utilisons une technique de poursuite perceptive adaptée (perceptual marching pursuit, PMP [Hossein Najaf-Zadeh, 2008]) pour générer une représentation parcimonieuse (spikegramme) du signal sonore d’entrée qui est invariante au décalage temporel [E. C. Smith, 2006] et qui prend en compte les phénomènes de masquage tels qu’ils sont observés en audition. Un code d’authentification est inséré à l’intérieur des coefficients de la représentation en spikegramme. Puis ceux-ci sont combinés aux seuils de masquage. Le signal tatoué est resynthétisé à partir des coefficients modifiés, et le signal ainsi obtenu est transmis au décodeur. Au décodeur, pour identifier un segment falsifié du signal sonore, les codes d’authentification de tous les segments intacts sont analysés. Si les codes ne peuvent être détectés correctement, on sait qu’alors le segment aura été falsifié. Nous proposons de tatouer selon le principe à spectre étendu (appelé MSS) afin d’obtenir une grande capacité en nombre de bits de tatouage introduits. Dans les situations où il y a désynchronisation entre le codeur et le décodeur, notre méthode permet quand même de détecter des pièces falsifiées. Par rapport à l’état de l’art, notre approche a le taux d’erreur le plus bas pour ce qui est de détecter les pièces falsifiées. Nous avons utilisé le test de l’opinion moyenne (‘MOS’) pour mesurer la qualité des systèmes tatoués. Nous évaluons la méthode de tatouage semi-fragile par le taux d’erreur (nombre de bits erronés divisé par tous les bits soumis) suite à plusieurs attaques. Les résultats confirment la supériorité de notre approche pour la localisation des pièces falsifiées dans les signaux sonores tout en préservant la qualité des signaux. Ensuite nous proposons une nouvelle technique pour la protection des signaux sonores. Cette technique est basée sur la représentation par spikegrammes des signaux sonores et utilise deux dictionnaires (TDA pour Two-Dictionary Approach). Le spikegramme est utilisé pour coder le signal hôte en utilisant un dictionnaire de filtres gammatones. Pour le tatouage, nous utilisons deux dictionnaires différents qui sont sélectionnés en fonction du bit d’entrée à tatouer et du contenu du signal. Notre approche trouve les gammatones appropriés (appelés noyaux de tatouage) sur la base de la valeur du bit à tatouer, et incorpore les bits de tatouage dans la phase des gammatones du tatouage. De plus, il est montré que la TDA est libre d’erreur dans le cas d’aucune situation d’attaque. Il est démontré que la décorrélation des noyaux de tatouage permet la conception d’une méthode de tatouage sonore très robuste. Les expériences ont montré la meilleure robustesse pour la méthode proposée lorsque le signal tatoué est corrompu par une compression MP3 à 32 kbits par seconde avec une charge utile de 56.5 bps par rapport à plusieurs techniques récentes. De plus nous avons étudié la robustesse du tatouage lorsque les nouveaux codec USAC (Unified Audion and Speech Coding) à 24kbps sont utilisés. La charge utile est alors comprise entre 5 et 15 bps. Finalement, nous utilisons les spikegrammes pour proposer trois nouvelles méthodes d’attaques. Nous les comparons aux méthodes récentes d’attaques telles que 32 kbps MP3 et 24 kbps USAC. Ces attaques comprennent l’attaque par PMP, l’attaque par bruit inaudible et l’attaque de remplacement parcimonieuse. Dans le cas de l’attaque par PMP, le signal de tatouage est représenté et resynthétisé avec un spikegramme. Dans le cas de l’attaque par bruit inaudible, celui-ci est généré et ajouté aux coefficients du spikegramme. Dans le cas de l’attaque de remplacement parcimonieuse, dans chaque segment du signal, les caractéristiques spectro-temporelles du signal (les décharges temporelles ;‘time spikes’) se trouvent en utilisant le spikegramme et les spikes temporelles et similaires sont remplacés par une autre. Pour comparer l’efficacité des attaques proposées, nous les comparons au décodeur du tatouage à spectre étendu. Il est démontré que l’attaque par remplacement parcimonieux réduit la corrélation normalisée du décodeur de spectre étendu avec un plus grand facteur par rapport à la situation où le décodeur de spectre étendu est attaqué par la transformation MP3 (32 kbps) et 24 kbps USAC.
Resumo:
Ces enfants qui bougent sans arrêt captent l'attention d'un nombre important d'intervenants et de chercheurs. À cet effet, des programmes de recherches et d'interventions destinés à décrire la problématique de déficit d'attention hyperactivité (DAH) chez les enfants, à contrecarrer les déficits à la maison de même qu'à l'école sont réalisés. Le manque d'attention, un excès d'agitation de même qu'un comportement impulsif, comportements propres au DAH, sont des facteurs de risques non négligeables dans le développement des problèmes de comportement associés. Il devient donc primordial de centrer nos efforts de recherche et d'intervention sur l'école, lieu où l'enfant vivra plusieurs réussites et/ou échecs pouvant influencer l'estime qu'il a de lui-même. Il est établi que l'estime de soi est un facteur marquant pour le développement de l'enfant. Sans compter que parents et enseignants ont besoin de beaucoup d'énergie afin d'intervenir auprès de ces enfants. Nombre de programmes sont destinés aux habilités parentales et d'autres favorisent l'apprentissage de nouvelles méthodes pédagogiques pour mieux enseigner aux enfants en difficulté. Cependant, peu de programmes sont destinés à favoriser la collaboration entre le milieu scolaire et le milieu familiale afin de maximiser l'aide à apporter à l'enfant. Le but visé par ce travail est de présenter brièvement un contexte théorique sous-jacent à la problématique du DAH, de présenter un protocole d'intervention destiné aux enseignants afin qu'ils initient une collaboration avec les parents et d'étudier le processus d'implantation du protocole dans six écoles de la commission scolaire des Draveurs de Gatineau. Il y a trois parties qui seront décrites et évaluées lors de la présentation du protocole : 1) le dépistage des enfants ayant des comportements propres au DAH ; 2) le partage d'informations avec l'équipe école, le jeune et ses parents ; 3) le choix de moyens à mettre en place à la maison, à l'école et lors des périodes de leçons et devoirs incluant une sensibilisation à la consultation médicale et la médication. L'évaluation de l'utilisation du protocole «pour mieux intervenir auprès du jeune ayant un DAH et de sa famille dans une perspective scolaire » s'est déroulée de janvier 1999 à juin de cette même année dans les écoles primaires. Le but de l'étude est de valider l'utilisation du protocole afin de le perfectionner et le distribuer aux Commissions Scolaires intéressées dans un avenir rapproché. Ce présent travail, effectué dans le cadre d'un essai en psychoéducation à l'Université du Québec à Hull, a pour objectif d'évaluer l'utilisation d'un protocole, qui s'appuie sur une compréhension de la problématique du déficit d'attention/hyperactivité en milieu scolaire. Un contexte théorique faisant un bref survol de diverses thématiques se rapportant au DAH est élaboré. Cette sensibilisation à la réalité qui entoure le DAH nous amène à dégager la problématique spécifique qui concerne la nécessité d'adapter une démarche progressive et systémique réalisée par des intervenants conscients des besoins des différents acteurs dans une perspective scolaire. C'est dans ce contexte que le protocole d'intervention est présenté et évalué : celui-ci vise essentiellement à améliorer l'approche entre l'école et les parents de manière à établir une relation basée sur la confiance et une collaboration qui se traduit par l'efficacité des interventions auprès de l'enfant. Une évaluation descriptive du protocole par les différentes directions ainsi qu'une analyse de contenu en suit. L'élaboration ainsi que l'utilisation des instruments utilisés lors de l'étude sont décrits de même que l'échantillon ayant participé à l'étude. Le document se termine par une synthèse des points importants et des critiques apportées à l'étude.