812 resultados para Méthodes incrémentales
Resumo:
OBJECTIF: Évaluer si la prééclampsie (PE) récidivante présente un taux de prématurité (< 37 semaines de gestation) plus élevé qu'une première PE. Les critères de jugement secondaires étaient le retard de croissance intra-utérin (RCIU) et la morbidité maternelle. MÉTHODES: Il s'agit d'une étude rétrospective de cohorte conduite sur 383 femmes avec un diagnostic de prééclampsie et ayant accouché au CHU Sainte-Justine à Montréal (Canada) entre 2001 et 2011. Parmi elles, 128 ont développé une récidive de PE à la grossesse successive. RÉSULTATS: Chez les femmes récidivantes (n = 128), les taux de prématurité et de RCIU étaient similaires dans les 2 épisodes de PE, bien que plus atteintes d'hypertension chronique (p = 0.001) et de diabète gestationnel (p = 0.021) dans leur seconde PE. Comparativement aux femmes non récidivantes (n = 255), les récidivantes (n = 128) présentaient, à leur première PE, un profil clinique caractérisé par un taux élevé de PE sévère (p < 0.001), éclampsie et critères adverses (p = 0.007). Le risque relatif de récidive de PE chez une femme avec ce profil clinique à sa première PE a été évalué à 1, 60 (95%IC: 1, 17 – 2, 18). CONCLUSION: La récidive de PE est associée à des taux similairement élevés de prématurité et de RCIU comparativement à la première PE. Les femmes qui à leur première PE ont un profil clinique défini par prééclampsie sévère, éclampsie ou présence de critères adverses sont plus à risque de récidive de PE à la grossesse subséquente. Mots clés: prééclampsie, récidive, issues périnatales, prématurité
Resumo:
Les alertes que nos logiciels antivirus nous envoient ou encore les différents reportages diffusés dans les médias nous font prendre conscience de l'existence des menaces dans le cyberespace. Que ce soit les pourriels, les attaques par déni de service ou les virus, le cyberespace regorge de menaces qui persistent malgré les efforts qui sont déployés dans leur lutte. Est-ce que cela a à voir avec l'efficacité des politiques en place actuellement pour lutter contre ce phénomène? Pour y répondre, l'objectif général du présent mémoire est de vérifier quelles sont les politiques de prévention (lois anti-pourriel, partenariats publics-privés et démantèlements de botnets) qui influencent le plus fortement le taux de menaces informatiques détectées, tout en s'attardant également à l'effet de différents facteurs socio-économiques sur cette variable. Les données collectées par le logiciel antivirus de la compagnie ESET ont été utilisées. Les résultats suggèrent que les partenariats publics-privés offrant une assistance personnalisée aux internautes s'avèrent être la politique de prévention la plus efficace. Les démantèlements de botnets peuvent également s'avérer efficaces, mais seulement lorsque plusieurs acteurs/serveurs importants du réseau sont mis hors d'état de nuire. Le démantèlement du botnet Mariposa en est un bon exemple. Les résultats de ce mémoire suggèrent que la formule partenariats-démantèlements serait le choix le plus judicieux pour lutter contre les cybermenaces. Ces politiques de prévention possèdent toutes deux des méthodes efficaces pour lutter contre les menaces informatiques et c'est pourquoi elles devraient être mises en commun pour assurer une meilleure défense contre ce phénomène.
Resumo:
La régression logistique est un modèle de régression linéaire généralisée (GLM) utilisé pour des variables à expliquer binaires. Le modèle cherche à estimer la probabilité de succès de cette variable par la linéarisation de variables explicatives. Lorsque l’objectif est d’estimer le plus précisément l’impact de différents incitatifs d’une campagne marketing (coefficients de la régression logistique), l’identification de la méthode d’estimation la plus précise est recherchée. Nous comparons, avec la méthode MCMC d’échantillonnage par tranche, différentes densités a priori spécifiées selon différents types de densités, paramètres de centralité et paramètres d’échelle. Ces comparaisons sont appliquées sur des échantillons de différentes tailles et générées par différentes probabilités de succès. L’estimateur du maximum de vraisemblance, la méthode de Gelman et celle de Genkin viennent compléter le comparatif. Nos résultats démontrent que trois méthodes d’estimations obtiennent des estimations qui sont globalement plus précises pour les coefficients de la régression logistique : la méthode MCMC d’échantillonnage par tranche avec une densité a priori normale centrée en 0 de variance 3,125, la méthode MCMC d’échantillonnage par tranche avec une densité Student à 3 degrés de liberté aussi centrée en 0 de variance 3,125 ainsi que la méthode de Gelman avec une densité Cauchy centrée en 0 de paramètre d’échelle 2,5.
Resumo:
La voie de signalisation Ras/MAPK (Ras/mitogen-activated protein kinase) régule une variété de protéines intracellulaires qui jouent un rôle important dans la croissance et la prolifération cellulaire. La régulation inappropriée de cette voie de signalisation conduit au développement de nombreux cancers comme le mélanome, qui est caractérisé par des mutations activatrices au niveau des gènes NRAS et BRAF. La protéine kinase RSK (p90 ribosomal S6 kinase) est un composant central de la voie Ras/MAPK, mais son rôle dans la croissance et la prolifération cellulaire n’est pas bien compris. RSK a été montrée pour participer à la résistance des mélanomes aux chimiothérapies, mais le mécanisme moléculaire reste encore à élucider. Nous montrons à l’aide d’un anticorps phospho-spécifique que MDM2 est phosphorylée en réponse à des agonistes et des mutations oncogéniques activant spécifiquement la voie Ras/MAPK. En utilisant des méthodes in vitro et in vivo, nous avons constaté que RSK phosphoryle directement MDM2 sur les Sérines 166 et 186, ce qui suggère que MDM2 est un substrat de RSK. La mutagénèse dirigée envers ces sites nous indique que ces résidus régulent l’ubiquitination de MDM2, suggérant que RSK régule la stabilité de MDM2 et de p53. De plus, nous avons observé que l’inhibition de RSK conduit à une augmentation du niveau protéique de p53 après un dommage à l’ADN dans les cellules de mélanomes. En conclusion, nos travaux suggèrent un rôle important de la protéine kinase RSK dans la régulation de MDM2 et de sa cible, p53. L’étude de ces mécanismes moléculaires aidera à mieux définir le rôle de RSK dans la croissance tumorale, mais également dans la résistance aux agents chimiothérapeutiques.
Resumo:
Les thiols à faible masse moléculaire (FMM) peuvent affecter la biodisponibilité du mercure et mener à une plus grande production de méthylmercure par les microorganismes méthylants. Les résultats d’une étude réalisée au sein de la matrice extracellulaire du périphyton de la zone littorale d’un lac des Laurentides ont démontré que les concentrations en thiols à FMM retrouvées dans cette matrice sont jusqu’à 1000 fois supérieures à celles de la colonne d’eau avoisinante. Ces thiols sont significativement corrélés à la chlorophylle a du périphyton, suggérant une production par les algues. Le mercure de la matrice extracellulaire, plus spécifiquement dans la fraction colloïdale mobile, est aussi corrélé aux thiols d’origine algale. Ces résultats suggèrent qu’une accumulation de thiols s’opère dans l’espace extracellulaire du périphyton et qu’ils peuvent favoriser le transfert du mercure vers les microorganismes produisant le méthylmercure. Les résultats d’une seconde étude menée sur les méthodes de préservation d’échantillons d’eau pour la conservation des thiols à FMM ont démontré que la température optimale d’entreposage était de -80 °C et que la lyophilisation menait à une sous-estimation des concentrations mesurées. Les taux de dégradation étaient plus rapides lors de la conservation à -20 °C et variables selon la chimie de l’eau utilisée et les espèces de thiols observées. Suivant ces résultats, nous proposons un cadre de recherche pour de futures études sur la spéciation du mercure dans le périphyton et nous suggérons des précautions lors de la manipulation et de la conservation des thiols à FMM d’échantillons naturels.
Resumo:
Les nanotechnologies appliquées aux sciences pharmaceutiques ont pour but d’améliorer l’administration de molécules actives par l’intermédiaire de transporteurs nanométriques. Parmi les différents types de véhicules proposés pour atteindre ce but, on retrouve les nanoparticules polymériques (NP) constituées de copolymères “en bloc”. Ces copolymères permettent à la fois l’encapsulation de molécules actives et confèrent à la particule certaines propriétés de surface (dont l’hydrophilicité) nécessaires à ses interactions avec les milieux biologiques. L’architecture retenue pour ces copolymères est une structure constituée le plus fréquemment de blocs hydrophiles de poly(éthylène glycol) (PEG) associés de façon linéaire à des blocs hydrophobes de type polyesters. Le PEG est le polymère de choix pour conférer une couronne hydrophile aux NPs et son l’efficacité est directement liée à son organisation et sa densité de surface. Néanmoins, malgré les succès limités en clinique de ces copolymères linéaires, peu de travaux se sont attardés à explorer les effets sur la structure des NPs d’architectures alternatives, tels que les copolymères en peigne ou en brosse. Durant ce travail, plusieurs stratégies ont été mises au point pour la synthèse de copolymères en peigne, possédant un squelette polymérique polyesters-co-éther et des chaines de PEG liées sur les groupes pendants disponibles (groupement hydroxyle ou alcyne). Dans la première partie de ce travail, des réactions d’estérification par acylation et de couplage sur des groupes pendants alcool ont permis le greffage de chaîne de PEG. Cette méthode génère des copolymères en peigne (PEG-g-PLA) possédant de 5 à 50% en poids de PEG, en faisant varier le nombre de chaînes branchées sur un squelette de poly(lactique) (PLA). Les propriétés structurales des NPs produites ont été étudiées par DLS, mesure de charge et MET. Une transition critique se situant autour de 15% de PEG (poids/poids) est observée avec un changement de morphologie, d’une particule solide à une particule molle (“nanoagrégat polymére”). La méthode de greffage ainsi que l’addition probable de chaine de PEG en bout de chaîne principale semblent également avoir un rôle dans les changements observés. L’organisation des chaînes de PEG-g-PLA à la surface a été étudiée par RMN et XPS, méthodes permettant de quantifier la densité de surface en chaînes de PEG. Ainsi deux propriétés clés que sont la résistance à l’agrégation en conditions saline ainsi que la résistance à la liaison aux protéines (étudiée par isothermes d’adsorption et microcalorimétrie) ont été reliées à la densité de surface de PEG et à l’architecture des polymères. Dans une seconde partie de ce travail, le greffage des chaînes de PEG a été réalisé de façon directe par cyclo-adition catalysée par le cuivre de mPEG-N3 sur les groupes pendants alcyne. Cette nouvelle stratégie a été pensée dans le but de comprendre la contribution possible des chaines de PEG greffées à l’extrémité de la chaine de PLA. Cette librairie de PEG-g-PLA, en plus d’être composée de PEG-g-PLA avec différentes densités de greffage, comporte des PEG-g-PLA avec des PEG de différent poids moléculaire (750, 2000 et 5000). Les chaines de PEG sont seulement greffées sur les groupes pendants. Les NPs ont été produites par différentes méthodes de nanoprécipitation, incluant la nanoprécipitation « flash » et une méthode en microfluidique. Plusieurs variables de formulation telles que la concentration du polymère et la vitesse de mélange ont été étudiées afin d’observer leur effet sur les caractéristiques structurales et de surface des NPs. Les tailles et les potentiels de charges sont peu affectés par le contenu en PEG (% poids/poids) et la longueur des chaînes de PEG. Les images de MET montrent des objets sphériques solides et l'on n’observe pas d’objets de type agrégat polymériques, malgré des contenus en PEG comparable à la première bibliothèque de polymère. Une explication possible est l’absence sur ces copolymères en peigne de chaine de PEG greffée en bout de la chaîne principale. Comme attendu, les tailles diminuent avec la concentration du polymère dans la phase organique et avec la diminution du temps de mélange des deux phases, pour les différentes méthodes de préparation. Finalement, la densité de surface des chaînes de PEG a été quantifiée par RMN du proton et XPS et ne dépendent pas de la méthode de préparation. Dans la troisième partie de ce travail, nous avons étudié le rôle de l’architecture du polymère sur les propriétés d’encapsulation et de libération de la curcumine. La curcumine a été choisie comme modèle dans le but de développer une plateforme de livraison de molécules actives pour traiter les maladies du système nerveux central impliquant le stress oxydatif. Les NPs chargées en curcumine, montrent la même transition de taille et de morphologie lorsque le contenu en PEG dépasse 15% (poids/poids). Le taux de chargement en molécule active, l’efficacité de changement et les cinétiques de libérations ainsi que les coefficients de diffusion de la curcumine montrent une dépendance à l’architecture des polymères. Les NPs ne présentent pas de toxicité et n’induisent pas de stress oxydatif lorsque testés in vitro sur une lignée cellulaire neuronale. En revanche, les NPs chargées en curcumine préviennent le stress oxydatif induit dans ces cellules neuronales. La magnitude de cet effet est reliée à l’architecture du polymère et à l’organisation de la NP. En résumé, ce travail a permis de mettre en évidence quelques propriétés intéressantes des copolymères en peigne et la relation intime entre l’architecture des polymères et les propriétés physico-chimiques des NPs. De plus les résultats obtenus permettent de proposer de nouvelles approches pour le design des nanotransporteurs polymériques de molécules actives.
Resumo:
Un objectif majeur en chimie organique est le développement de méthodes de synthèses générales, simples et peu coûteuses permettant la modification efficace des ressources naturelles en différents produits d’intérêt public. En particulier, la recherche de méthodes chimiosélectives et de méthodes dites « vertes » représente un intérêt croissant pour le secteur industriel (dont le domaine pharmaceutique). En fait, l’application en synthèse sur grande échelle de procédés catalytiques, sélectifs et utilisant des conditions douces permet de réduire le volume de déchets et la demande énergétique, minimisant ainsi les coûts de production et les effets néfastes sur l’environnement. Dans ce contexte, le groupe de recherche du Professeur André B. Charette de l’Université de Montréal s’intéresse au développement de méthodes générales et chimiosélectives permettant la transformation de fonctionnalités aisément accessibles tels que les amides et les alcools. La fonction amide, aussi appelée liaison peptidique dans les protéines, est présente dans diverses familles de molécules naturelles et est couramment employée comme intermédiaire synthétique dans la synthèse de produits d’intérêt pharmaceutique. Le groupement alcool est, quant à lui, l’une des fonctionnalités les plus abondantes dans la nature, intrinsèquement et largement utilisé en chimie de synthèse. Dans le cadre de cette thèse, des transformations simples, générales et chimiosélectives ont été réalisées sur des amides secondaires et tertiaires, ainsi que sur des alcools primaires et secondaires. La première partie de ce manuscrit se penche sur l’activation de la fonction amide par l’anhydride triflique (Tf2O), suivie de l’addition nucléophile de différents réactifs permettant ainsi la formation de plusieurs groupements fonctionnels versatiles, parfois indispensables, couramment employés en chimie organique tels que les aldimines, les aldéhydes, les amines, les cétones, les cétimines et des dérivés de la fonction amidrazone. Cette dernière fonctionnalité a également été utilisée dans des réactions successives vers la formation d’hétérocycles. De ce fait, des 1,2,4-triazoles ont été formés suite à une cyclodéshydratation initiée en conditions thermiques et faiblement acides. D’autre part, des 3-aminoindazoles ont été synthétisés par une fonctionnalisation C–H catalysée par un sel de palladium (II). La deuxième partie de la thèse est consacrée à la réaction de Mitsunobu en conditions acides, permettant ainsi la substitution nucléophile d’alcools en présence de carbamines (ou amines ne possédant pas de groupement électro-attracteurs). Ce type de nucléophile, basique lorsqu’utilisé comme base libre (avec un pKa se situant au-dessus de 13 dans le DMSO), n’est intrinsèquement pas compatible dans les conditions standards de la réaction de Mitsunobu. Contrairement aux conditions usuelles multi-étapes employant la réaction de Mitsunobu, la méthode développée au cours de cette étude permet la formation d’amines substituées en une seule étape et ne requiert pas l’emploi de groupements protecteurs.
Resumo:
Ce mémoire visait à déterminer si un petit parc périurbain, en l’occurrence le Parc national du Mont-Saint-Bruno, est parvenu à maintenir l’intégrité de sa flore au cours des trente dernières années en dépit de pressions humaines croissantes et de perturbations naturelles passées, en plus d’identifier les principaux changements floristiques survenus au cours de cette période et les facteurs responsables. Pour répondre à ces objectifs, une étude historique a été réalisée, en comparant un inventaire floristique ancien (1977) à un inventaire récent (2013). Mes résultats montrent d’abord une forte croissance de la diversité alpha indigène au cours des 35 dernières années, accompagnée d’un déclin significatif de la diversité bêta (30%). Malgré cette homogénéisation taxonomique, la diversité fonctionnelle de la flore forestière s’est accrue, la rendant probablement plus résiliente aux événements perturbateurs. D’autre part, mes analyses ont révélé la progression de traits fonctionnels souvent associés à des habitats forestiers intensément broutés, révélant une certaine influence du cerf de Virginie sur la composition et la structure de la flore forestière. Enfin, mes résultats ont montré que les herbiers botaniques se révèlent être une alternative fiable aux méthodes traditionnelles pour documenter et évaluer l’impact des grands herbivores sur la morphologie des plantes broutées. Au final, cette étude a montré que les petites aires protégées périurbaines peuvent jouer un rôle majeur dans la préservation de la diversité floristique d’habitats forestiers d’intérêt, particulièrement lorsque leur statut de protection permet d’encadrer de manière stricte les activités humaines.
Resumo:
Chaque jour, des décisions doivent être prises quant à la quantité d'hydroélectricité produite au Québec. Ces décisions reposent sur la prévision des apports en eau dans les bassins versants produite à l'aide de modèles hydrologiques. Ces modèles prennent en compte plusieurs facteurs, dont notamment la présence ou l'absence de neige au sol. Cette information est primordiale durant la fonte printanière pour anticiper les apports à venir, puisqu'entre 30 et 40% du volume de crue peut provenir de la fonte du couvert nival. Il est donc nécessaire pour les prévisionnistes de pouvoir suivre l'évolution du couvert de neige de façon quotidienne afin d'ajuster leurs prévisions selon le phénomène de fonte. Des méthodes pour cartographier la neige au sol sont actuellement utilisées à l'Institut de recherche d'Hydro-Québec (IREQ), mais elles présentent quelques lacunes. Ce mémoire a pour objectif d'utiliser des données de télédétection en micro-ondes passives (le gradient de températures de brillance en position verticale (GTV)) à l'aide d'une approche statistique afin de produire des cartes neige/non-neige et d'en quantifier l'incertitude de classification. Pour ce faire, le GTV a été utilisé afin de calculer une probabilité de neige quotidienne via les mélanges de lois normales selon la statistique bayésienne. Par la suite, ces probabilités ont été modélisées à l'aide de la régression linéaire sur les logits et des cartographies du couvert nival ont été produites. Les résultats des modèles ont été validés qualitativement et quantitativement, puis leur intégration à Hydro-Québec a été discutée.
Resumo:
L’époque où il n'existait qu'un choix restreint de modes de paiement est à présent révolue. En effet, de l'apparition de la monnaie fiduciaire aux trente glorieuses, ils n’avaient que très peu évolué. Or, depuis quelques décennies, nous assistons à l’apparition de nombreux moyens de paiement, tous plus différents les uns des autres. Notre présente étude a non seulement pour objectif d’en confronter les principaux en vue d’identifier le plus adéquat face à une situation donnée, mais aussi et surtout de discuter de l’anonymat que ces derniers procurent ou non. Pour ce faire, nous avons d’abord présenté chacun de ces moyens tout en en définissant les fonctionnements et les technologies. Par la suite, une comparaison par l'entremise d'une analyse indépendante a été réalisée sur la base d’éléments précis tels que la protection de la vie privée ou encore les propriétés ACID. Des critères omme la confiance des utilisateurs (sécurité) et les attentes qu'ont les institutions financières vis-à-vis de ces derniers ont aussi été considérés. Et enfin, trois méthodes de paiement qui sont en réalité des approches-solutions pour pallier aux problèmes liés à l’anonymat que présentent certains principaux moyens de paiement connus, ont été présentées à leur tour. Ainsi, le premier système de paiement proposé est axé sur les comptes bancaires anonymes, tandis que le second est, lui inspiré du système des jetons; Si bien qu’une combinaison de ces deux approches a conduit à une troisième, afin d’en regrouper les avantages.
Resumo:
Le présent projet doctoral vise à considérer les lacunes dans la documentation scientifique sur le Trouble Paraphilique Coercitif (TPC) en mettant l’accent sur la validité des critères diagnostiques proposés pour inclusion dans le DSM-5 et les marqueurs comportementaux. À ce fait, les données archivées d’individus ayant sexuellement agressé des femmes adultes ont été étudiées. La thèse est constituée de trois articles empiriques. Le premier article présente des résultats clés découlant des analyses, élaborés dans les articles subséquents. Le second (N = 47) évalue les fréquences observées du TPC, la validité et l’impact du recours au nombre minimal de victimes comme critère diagnostique, ainsi que les indices prédisant la récidive sexuelle. Le troisième article (N = 52) compare les groupes diagnostiques sur une série de comportements délictuels, tels que les gestes sexuels et les comportements violents, dans le but d’identifier les marqueurs comportementaux associés avec la propension au viol qui pourraient assister dans le processus diagnostique. Dans le même ordre d’idées, nous avons créé des typologies de violeurs à partir des gestes sexuels commis, d’un côté, et des comportements violents, de l’autre côté. Conséquemment, les caractéristiques des typologies ainsi obtenues et leur association avec le TPC furent examinées. Dans l’ensemble, nos résultats ne soutiennent pas le recours au nombre de victimes. Nos données suggèrent que, globalement, les violeurs avec le TPC utilisent un niveau de gestes sexuels plus envahissant et un niveau de violence moindre que les violeurs n’ayant pas ce diagnostic, et que l’exhibitionnisme et l’attouchement pourraient servir de marqueurs comportementaux pour le TPC. En outre, les violeurs avec le TPC sont caractérisés davantage par demande indécente, exhibitionnisme, attouchement, masturbation, tentative de pénétration et pénétration digitale que par pénétration vaginale et sodomie. De plus, ces derniers font moins recours à l’utilisation d’armes, semblent ne pas frapper/donner des coups à la victime et sont caractérisés par la manipulation plutôt que par le recours aux menaces de mort, force excessive et utilisation d’armes. En somme, nos données soulignent la nécessité de s’appuyer sur une combinaison de méthodes d’évaluation afin d’améliorer la validité diagnostique et discriminante du TPC.
Resumo:
Cette thèse a été réalisée, entre autres, grâce à une subvention reçue du Fonds de recherche du Québec – Société et culture et de son partenaire le ministère de l’Éducation, du Loisir et du Sport (MELS) Les analyses contenues dans cette thèse ont été réalisées au Centre interuniversitaire québécois de statistiques sociales (CIQSS), membre du Réseau canadien des centres de données de recherche (RCCDR). Les activités du CIQSS sont rendues possibles grâce à l’appui financier du CRSHC, des IRSC, de la FCI, de Statistique Canada, du FRQSC ainsi que de l’ensemble des universités québécoises qui participent à leur financement. Les idées exprimées dans ce texte sont celles des auteurs et non celles des partenaires financiers.
Resumo:
Dans ce mémoire, on s'intéresse à l'action du groupe des transformations affines et des homothéties sur l'axe du temps des systèmes différentiels quadratiques à foyer faible d'ordre trois, dans le plan. Ces systèmes sont importants dans le cadre du seizième problème d'Hilbert. Le diagramme de bifurcation a été produit à l'aide de la forme normale de Li dans des travaux de Andronova [2] et Artès et Llibre [4], sans utiliser le plan projectif comme espace des paramètres ni de méthodes globales. Dans [7], Llibre et Schlomiuk ont utilisé le plan projectif comme espace des paramètres et des notions à caractère géométrique global (invariants affines et topologiques). Ce diagramme contient 18 portraits de phase et certains de ces portraits sont répétés dans des parties distinctes du diagramme. Ceci nous mène à poser la question suivante : existe-t-il des systèmes distincts, correspondant à des valeurs distinctes de paramètres, se trouvant sur la même orbite par rapport à l'action du groupe? Dans ce mémoire, on prouve un résultat original : l'action du groupe n'est pas triviale sur la forme de Li (théorème 3.1), ni sur la forme normale de Bautin (théorème 4.1). En utilisant le deuxième résultat, on construit l'espace topologique quotient des systèmes quadratiques à foyer faible d'ordre trois par rapport à l'action de ce groupe.
Resumo:
Les plantes envahissantes menacent la biodiversité ainsi que les activités humaines. Afin de les maîtriser, la pulvérisation d'herbicides est une méthode fréquemment employée en Amérique du Nord. Cette approche ne fait pas toujours consensus et est même parfois interdite ou restreinte, ce qui justifie le recours à d'autres options. Les alternatives peuvent toutefois s'avérer rares, comporter d'importantes limitations ou sont peu documentées. Cette étude vise à tester l’efficacité de méthodes permettant de maîtriser et de prévenir les invasions de roseau commun (Phragmites australis), l'une des plantes envahissantes les plus problématiques sur le continent nord-américain, tout en limitant au minimum l'utilisation d'herbicides. Le potentiel de quatre méthodes de lutte aux petites populations de roseau bien établies a d'abord été évalué : l’excavation avec enfouissement sur place, le bâchage, l’excavation avec enfouissement sur place combinée au bâchage, et la fauche répétée. Les résultats ont montré que l'excavation avec enfouissement sur place, avec ou sans bâchage, a entraîné une élimination presque totale des populations visées, ce qui est comparable ou supérieur à l'effet généralement obtenu avec la pulvérisation d'herbicide. Le bâchage avec des toiles opaques, maintenues pendant un an, a pour sa part entraîné une maîtrise partielle du roseau, suggérant qu'une application prolongée serait nécessaire pour l'éradication de la plante. La fauche répétée, exécutée à raison de cinq fauches par été pendant deux ans, a fourni une efficacité mitigée. Les résultats suggèrent néanmoins que la fauche pendant plusieurs années contribue à affaiblir la plante, ce qui pourrait aider à son confinement. Une méthode additionnelle a été expérimentée afin de traiter les tiges éparses de roseau tout en limitant les risques d'effets hors cibles, soit le badigeonnage manuel d’herbicide. Suite à ces tests, les résultats ont montré une diminution importante de la densité des tiges, ce qui suggère que la méthode est efficace afin d'éliminer les repousses après un traitement initial, et pourrait également être employée sur de jeunes populations clairsemées. L'effet d'un ensemencement préventif de plantes herbacées sur l'établissement de semis de roseau a également été étudié, suite à des traitements sur de vastes parcelles de sol nu. Les résultats suggèrent que la méthode est efficace afin de limiter la propagation du roseau par semences et qu'un suivi périodique suite à l'intervention serait suffisant afin de maintenir l'effet préventif.
Resumo:
Robert Bourbeau, département de démographie (Directeur de recherche) Marianne Kempeneers, département de sociologie (Codirectrice de recherche)