17 resultados para Plantes envahissantes--Prévention--Prise de décision--Méthodes statistiques
em Université Laval Mémoires et thèses électroniques
Resumo:
Les espèces végétales exotiques peuvent devenir envahissantes une fois naturalisées sur un nouveau territoire. La méthode de lutte la plus efficace étant la prévention, il est primordial de pouvoir prédire à l’avance si une nouvelle espèce introduite deviendra envahissante. Afin d’en arriver à un outil d’aide à la décision facile d’utilisation, il importe de développer des modèles plus simples, ayant peut-être un pouvoir explicatif moins grand, mais qui seront par contre plus faciles à comprendre et à utiliser. Il est possible de simplifier un modèle en utilisant moins de variables mais en les choisissant mieux, sur une base théorique. Le but de ce mémoire est donc de tester la force de la relation liant l’aire de répartition d’origine eurasiatique avec l’abondance et l’étendue de l’aire de répartition d’introduction en Amérique du Nord. La variable explicative principale, l’aire de répartition d’origine eurasiatique, a été utilisée avec deux autres covariables, soit le temps de résidence sur le continent nord-américain et le cycle de vie des espèces afin de bâtir un modèle statistique. Ce dernier a été testé à deux échelles géographiques, soit à l’échelle d’un pays entier, les États-Unis, et à une échelle plus régionale. L’utilisation de spécimens d’herbier et d’autres sources de données disponibles en ligne a permis de construire une base de données comportant un grand nombre d’espèces (N = 481). Les modèles ont révélé qu’avec peu de variables explicatives, il est possible d’expliquer une proportion importante du phénomène d’envahissement et d’abondance (> 40 %) dans certaines régions des États-Unis. Cette recherche contribue au développement d’un outil d’aide à la décision simple et démontre qu’il est possible d’expliquer une partie importante le phénomène d’abondance et d’étendue des espèces exotiques grâce à des données disponibles et à un petit nombre de variables bien sélectionnées.
Resumo:
L’objectif de cette étude était d’évaluer les besoins décisionnels et de prioriser cinq décisions difficiles et fréquentes des aînés atteints de la maladie d’Alzheimer (MA) et leurs proches pour développer un programme de formation axé sur la décision partagée combiné avec des outils d’aide à la décision. Un sondage électronique de type Delphi avec 33 experts a permis d’établir un consensus sur cinq décisions. Les résultats concernent la décision des proches de recourir à une intervention de soutien (sélectionné par 83% des experts), la décision de recourir à des interventions pour réduire l’agitation, l’agressivité et les symptômes psychotiques (79%), déterminer l’objectif des soins chez les aînés atteints de la MA au stade avancé (66%), arrêter ou non la conduite automobile (66%) et établir ou non un régime de protection (62%). L’identification de ces besoins décisionnels médicaux et psychosociaux pourra aiguiller différentes parties prenantes dans le développement d’interventions pour faciliter la prise de décision. Mots clés : maladie d’Alzheimer, proches aidants, soins de première ligne, décision partagée, analyse de besoins, méthode Delphi
Resumo:
Méthodologie: Équation de Bellman (Programmation dynamique) ; Méthode de la valeur optionnelle
Resumo:
Il est recommandé que les utilisateurs des outils d’aide à la décision soient impliqués dans le processus de développement, mais à ce jour, on ne sait pas jusqu’à quel point ni de quelle manière les personnes vulnérables sont impliquées. L’objectif était de décrire les enjeux entourant l’implication des populations vulnérables dans le développement d’outils d’aide à la décision et de comparer leur implication avec celle de la population en général. Cette étude s’inscrivait dans un plus vaste projet de recherche débutant par une revue systématique des écrits. Une série de critères a été élaborée afin d’identifier, lors de l’extraction des données, les articles décrivant un outil d’aide à la décision ayant impliqué des personnes vulnérables au cours du développement. Des entrevues téléphoniques semi-dirigées ont également été effectuées avec 10 développeurs de d’outils d’aide à la décision, 6 d’entre eux ont impliquées des populations vulnérables et les 4 autres ont impliqué des membres de la population en général. Les résultats de ce mémoire suggèrent que les pratiques de développement d’outils d’aide à la décision changent lorsque les populations vulnérables sont impliquées dans le processus. Les populations vulnérables sont généralement impliquées dans le même type d’activités de développement, mais un accent est mis sur les activités qui permettent de mieux comprendre leurs besoins et sur les activités qui favorisent une bonne relation de confiance entre elles et l’équipe de développement. Contrairement à l’implication de la population en générale, le recrutement des populations vulnérables se déroule le plus souvent en partenariat avec des groupes communautaires et les activités de recherche prennent place dans la communauté.
Resumo:
Cette étude descriptive transversale visait à estimer la proportion de consultations en médecine familiale dans lesquelles sont observées une communication des risques et une clarification des valeurs et des préférences. Au sein de 238 dyades de cliniciens-patients (238 patients et 71 cliniciens), nous avons observé que 63 % (intervalle de confiance [IC] à 95 % : 54 % - 70 %) des consultations comportaient ces deux éléments. Aussi, nous avons observé que six facteurs étaient associés à la présence de ces deux éléments lors de la consultation : 1) les nouvelles options thérapeutiques (rapport de cotes [RC] = 3,54; IC à 95 % : 1,32 - 9,48); 2) les options de traitement (RC = 3,56, IC à 95 % : 1,52 - 8,36); 3) la présence de cinq décisions et plus (RC = 5,00; IC à 95 % : 1,5 - 16,9); 4) report de la décision (RC = 4,92; IC à 95 % : 1,35 - 17,87); 5) la durée de la consultation (RC = 1,03; IC à 95 % : 1,002 - 1,07) et 6) le style de prise de décision collaboratif du clinicien (RC = 8,78; IC à 95% : 1,62 - 47,71). Des interventions ciblant directement les facteurs modifiables sont à considérer en vue d’augmenter la présence de ces deux éléments durant la consultation en médecine familiale.
Resumo:
Le sepsis, un syndrome d’infection générale grave, est une importante cause de décès dans le monde et a un impact considérable sur le taux de mortalité dans le département des soins intensifs des hôpitaux. Plusieurs médecins soutiennent que le diagnostic de sepsis est fréquemment omis, menant ainsi à de graves conséquences pour l’état de santé du patient. Considérant cette problématique, la présente étude a pour buts de déterminer les caractéristiques du processus décisionnel des médecins en situation de triage et de prise en charge du sepsis pédiatrique, d’évaluer la performance des médecins en contexte de détection du sepsis pédiatrique et enfin, de valider une méthode permettant de développer un modèle cognitif de prise de décision relié à cette condition médicale. Une tâche décisionnelle à l’aide d’un tableau d’information est administrée aux participants. Les résultats sont analysés selon une combinaison de méthodes : la théorie de détection de signal, l’identification de la règle décisionnelle et l’extraction du processus décisionnel. Le personnel médical a une capacité de discrimination moyenne. Leurs réponses tendent vers un biais libéral. La comparaison entre un arbre décisionnel normatif et les arbres décisionnels individuels a démontré une mésestimation de l’importance des critères diagnostics pertinents. Il y a présence d’hétérogénéité quant aux critères utilisés par les médecins pour poser le diagnostic. Ces résultats permettent de cibler davantage la problématique de détection du sepsis pédiatrique et démontre la pertinence de développer un outil d’aide à la détection afin de soutenir les médecins dans leurs décisions. Les résultats de la présente étude fournissent des lignes directrices quant au développement d’un tel outil. Les résultats montrent également que la combinaison de la théorie de détection de signal, de l’identification de la règle décisionnelle et de l’extraction du processus décisionnel fournie une méthode adaptée afin de développer des modèles de prise de décision.
Resumo:
L’Internet Physique (IP) est une initiative qui identifie plusieurs symptômes d’inefficacité et non-durabilité des systèmes logistiques et les traite en proposant un nouveau paradigme appelé logistique hyperconnectée. Semblable à l’Internet Digital, qui relie des milliers de réseaux d’ordinateurs personnels et locaux, IP permettra de relier les systèmes logistiques fragmentés actuels. Le but principal étant d’améliorer la performance des systèmes logistiques des points de vue économique, environnemental et social. Se concentrant spécifiquement sur les systèmes de distribution, cette thèse remet en question l’ordre de magnitude du gain de performances en exploitant la distribution hyperconnectée habilitée par IP. Elle concerne également la caractérisation de la planification de la distribution hyperconnectée. Pour répondre à la première question, une approche de la recherche exploratoire basée sur la modélisation de l’optimisation est appliquée, où les systèmes de distribution actuels et potentiels sont modélisés. Ensuite, un ensemble d’échantillons d’affaires réalistes sont créé, et leurs performances économique et environnementale sont évaluées en ciblant de multiples performances sociales. Un cadre conceptuel de planification, incluant la modélisation mathématique est proposé pour l’aide à la prise de décision dans des systèmes de distribution hyperconnectée. Partant des résultats obtenus par notre étude, nous avons démontré qu’un gain substantiel peut être obtenu en migrant vers la distribution hyperconnectée. Nous avons également démontré que l’ampleur du gain varie en fonction des caractéristiques des activités et des performances sociales ciblées. Puisque l’Internet physique est un sujet nouveau, le Chapitre 1 présente brièvement l’IP et hyper connectivité. Le Chapitre 2 discute les fondements, l’objectif et la méthodologie de la recherche. Les défis relevés au cours de cette recherche sont décrits et le type de contributions visés est mis en évidence. Le Chapitre 3 présente les modèles d’optimisation. Influencés par les caractéristiques des systèmes de distribution actuels et potentiels, trois modèles fondés sur le système de distribution sont développés. Chapitre 4 traite la caractérisation des échantillons d’affaires ainsi que la modélisation et le calibrage des paramètres employés dans les modèles. Les résultats de la recherche exploratoire sont présentés au Chapitre 5. Le Chapitre 6 décrit le cadre conceptuel de planification de la distribution hyperconnectée. Le chapitre 7 résume le contenu de la thèse et met en évidence les contributions principales. En outre, il identifie les limites de la recherche et les avenues potentielles de recherches futures.
Resumo:
Dans cette thèse on s’intéresse à la modélisation de la dépendance entre les risques en assurance non-vie, plus particulièrement dans le cadre des méthodes de provisionnement et en tarification. On expose le contexte actuel et les enjeux liés à la modélisation de la dépendance et l’importance d’une telle approche avec l’avènement des nouvelles normes et exigences des organismes réglementaires quant à la solvabilité des compagnies d’assurances générales. Récemment, Shi et Frees (2011) suggère d’incorporer la dépendance entre deux lignes d’affaires à travers une copule bivariée qui capture la dépendance entre deux cellules équivalentes de deux triangles de développement. Nous proposons deux approches différentes pour généraliser ce modèle. La première est basée sur les copules archimédiennes hiérarchiques, et la deuxième sur les effets aléatoires et la famille de distributions bivariées Sarmanov. Nous nous intéressons dans un premier temps, au Chapitre 2, à un modèle utilisant la classe des copules archimédiennes hiérarchiques, plus précisément la famille des copules partiellement imbriquées, afin d’inclure la dépendance à l’intérieur et entre deux lignes d’affaires à travers les effets calendaires. Par la suite, on considère un modèle alternatif, issu d’une autre classe de la famille des copules archimédiennes hiérarchiques, celle des copules totalement imbriquées, afin de modéliser la dépendance entre plus de deux lignes d’affaires. Une approche avec agrégation des risques basée sur un modèle formé d’une arborescence de copules bivariées y est également explorée. Une particularité importante de l’approche décrite au Chapitre 3 est que l’inférence au niveau de la dépendance se fait à travers les rangs des résidus, afin de pallier un éventuel risque de mauvaise spécification des lois marginales et de la copule régissant la dépendance. Comme deuxième approche, on s’intéresse également à la modélisation de la dépendance à travers des effets aléatoires. Pour ce faire, on considère la famille de distributions bivariées Sarmanov qui permet une modélisation flexible à l’intérieur et entre les lignes d’affaires, à travers les effets d’années de calendrier, années d’accident et périodes de développement. Des expressions fermées de la distribution jointe, ainsi qu’une illustration empirique avec des triangles de développement sont présentées au Chapitre 4. Aussi, nous proposons un modèle avec effets aléatoires dynamiques, où l’on donne plus de poids aux années les plus récentes, et utilisons l’information de la ligne corrélée afin d’effectuer une meilleure prédiction du risque. Cette dernière approche sera étudiée au Chapitre 5, à travers une application numérique sur les nombres de réclamations, illustrant l’utilité d’un tel modèle dans le cadre de la tarification. On conclut cette thèse par un rappel sur les contributions scientifiques de cette thèse, tout en proposant des angles d’ouvertures et des possibilités d’extension de ces travaux.
Resumo:
La stratégie actuelle de contrôle de la qualité de l’anode est inadéquate pour détecter les anodes défectueuses avant qu’elles ne soient installées dans les cuves d’électrolyse. Des travaux antérieurs ont porté sur la modélisation du procédé de fabrication des anodes afin de prédire leurs propriétés directement après la cuisson en utilisant des méthodes statistiques multivariées. La stratégie de carottage des anodes utilisée à l’usine partenaire fait en sorte que ce modèle ne peut être utilisé que pour prédire les propriétés des anodes cuites aux positions les plus chaudes et les plus froides du four à cuire. Le travail actuel propose une stratégie pour considérer l’histoire thermique des anodes cuites à n’importe quelle position et permettre de prédire leurs propriétés. Il est montré qu’en combinant des variables binaires pour définir l’alvéole et la position de cuisson avec les données routinières mesurées sur le four à cuire, les profils de température des anodes cuites à différentes positions peuvent être prédits. Également, ces données ont été incluses dans le modèle pour la prédiction des propriétés des anodes. Les résultats de prédiction ont été validés en effectuant du carottage supplémentaire et les performances du modèle sont concluantes pour la densité apparente et réelle, la force de compression, la réactivité à l’air et le Lc et ce peu importe la position de cuisson.
Proposition de nouvelles fonctionnalités WikiSIG pour supporter le travail collaboratif en Geodesign
Resumo:
L’émergence du Web 2.0 se matérialise par de nouvelles technologies (API, Ajax…), de nouvelles pratiques (mashup, geotagging…) et de nouveaux outils (wiki, blog…). Il repose principalement sur le principe de participation et de collaboration. Dans cette dynamique, le Web à caractère spatial et cartographique c’est-à-dire, le Web géospatial (ou GéoWeb) connait lui aussi de fortes transformations technologiques et sociales. Le GéoWeb 2.0 participatif se matérialise en particulier par des mashups entre wikis et géobrowsers (ArgooMap, Geowiki, WikiMapia, etc.). Les nouvelles applications nées de ces mashups évoluent vers des formes plus interactives d’intelligence collective. Mais ces applications ne prennent pas en compte les spécificités du travail collaboratif, en particulier la gestion de traçabilité ou l’accès dynamique à l’historique des contributions. Le Geodesign est un nouveau domaine fruit de l’association des SIG et du design, permettant à une équipe multidisciplinaire de travailler ensemble. Compte tenu de son caractère émergent, le Geodesign n’est pas assez défini et il requiert une base théorique innovante, de nouveaux outils, supports, technologies et pratiques afin de s’adapter à ses exigences complexes. Nous proposons dans cette thèse de nouvelles fonctionnalités de type WikiSIG, bâties sur les principes et technologies du GéoWeb 2.0 et visant en particulier à supporter la dimension collaborative du processus de Geodesign. Le WikiSIG est doté de fonctionnalités wiki dédiées à la donnée géospatiale (y compris dans sa composante géométrique : forme et localisation) permettant d’assurer, de manière dynamique, la gestion documentée des versions des objets et l’accès à ces versions (et de leurs métadonnées), facilitant ainsi le travail collaboratif en Geodesign. Nous proposons également la deltification qui consiste en la capacité de comparer et d’afficher les différences entre deux versions de projets. Finalement la pertinence de quelques outils du géotraitement et « sketching » est évoquée. Les principales contributions de cette thèse sont d’une part d’identifier les besoins, les exigences et les contraintes du processus de Geodesign collaboratif, et d’autre part de proposer des nouvelles fonctionnalités WikiSIG répondant au mieux à la dimension collaborative du processus. Pour ce faire, un cadre théorique est dressé où nous avons identifié les exigences du travail collaboratif de Geodesign et proposé certaines fonctionnalités WikiSIG innovantes qui sont par la suite formalisés en diagrammes UML. Une maquette informatique est aussi développée de façon à mettre en oeuvre ces fonctionnalités, lesquelles sont illustrées à partir d’un cas d’étude simulé, traité comme preuve du concept. La pertinence de ces fonctionnalités développées proposées est finalement validée par des experts à travers un questionnaire et des entrevues. En résumé, nous montrons dans cette thèse l’importance de la gestion de la traçabilité et comment accéder dynamiquement à l’historique dans un processus de Geodesign. Nous proposons aussi d’autres fonctionnalités comme la deltification, le volet multimédia supportant l’argumentation, les paramètres qualifiant les données produites, et la prise de décision collective par consensus, etc.
Resumo:
Les individus porteurs d’une mutation des gènes BRCA1/2 s’inquiètent généralement du risque de leurs enfants d’avoir hérité de la mutation génétique familiale. Malgré l’absence d’avantages médicaux pour les enfants mineurs et l’impossibilité pour eux d’être testés avant d’être adultes, une majorité des parents leur communiquent néanmoins le résultat du test génétique BRCA1/2. Les parents confrontés à cette situation disent avoir besoin d’être accompagnés dans cette décision. L’objectif de ce projet, à devis qualitatif, était de développer un outil d’aide à la décision à l’intention des individus porteurs quant à la communication du résultat de test BRCA1/2 à leurs enfants mineurs. Développé conformément aux critères de l’International Patient Decision Aids Standards, le prototype a été évalué lors de groupes de discussion et d’entrevues individuelles menés auprès de mères porteuses d’une mutation des gènes BRCA1/2 (n=9). Des professionnels de la santé l’ont également commenté (n=3). Une analyse thématique a été effectuée à partir des transcriptions des entrevues. Globalement, les résultats de cette étude suggèrent que les mères ne présentent pas de besoin quant à la décision de communiquer ou non le résultat BRCA1/2 à leurs enfants mineurs, puisqu’elles semblent déjà avoir choisi d’en parler. Elles désirent un outil pour les préparer et les aider à communiquer l’information à leurs enfants. La visée de l’outil a donc été modifiée afin de répondre aux besoins des mères. L’outil d’aide à la communication est présenté sous la forme d’un livret. Il comprend les avantages et les inconvénients de communiquer, des étapes afin de s’y préparer, des conseils et des témoignages de parents. D’autres études seront nécessaires afin d’évaluer l’effet de cet outil pour les parents porteurs dans leur processus de communication.
Resumo:
À l’aide d’un modèle théorique, je remets en question l’idée généralement admise que le lobbying informationnel ne peut pas être nuisible pour les citoyens puisque le décideur public possède davantage d’information. Dans mon modèle, un décideur public doit choisir de maintenir le statu quo ou implémenter la réforme pour chacune des deux problématiques présentes. Ces problématiques ont une importance relative qui diffère. Le décideur public peut donc désirer acquérir de l’information sur ces dernières afin de prendre la meilleure décision possible. Cependant, il fait face à deux contraintes. La première est qu’il ne peut pas nécessairement implémenter la réforme sur les deux problématiques, le décideur public doit établir un agenda. La seconde contrainte est qu’il ne dispose pas nécessairement des moyens pour acquérir de l’information sur les problématiques qu’il désire. Deux groupes d’intérêts sont également présents. Ces derniers tentent d’influencer le décideur public en lui transmettant de l’information. Ils peuvent ni la cacher, ni la modifier. Les groupes d’intérêts acquièrent d’abord de l’information de manière simultanée, puis le décideur public, après avoir observé leur information, décide s’il acquiert de l’information, et ce, de manière séquentielle. La présence des deux contraintes du décideur public, ainsi que l’importance relative différente des deux problématiques peuvent mener à la situation où les citoyens sont mieux sans les groupes d’intérêts, et ce malgré le fait que les préférences du décideur public sont alignées avec celle des citoyens. Cela s’explique par le fait que l’information transmise par les groupes d’intérêts peut venir modifier l’ordre d’importance des problématiques pour le décideur public en plaçant la problématique de moindre importance au-dessus de l’autre. Le lobbying informationnel peut donc être nuisible aux citoyens, malgré le fait que le décideur public ait davantage d’information.
Resumo:
Le projet de recherche a été réalisé dans le but premier de mettre à niveau, d’adapter et de rendre opérationnelle la méthode de Newmark pour les types de barrages et les types de séismes habituellement rencontrés au Québec. Pour ce faire, une Banque de Signaux Sismiques pour l’Est du Canada (BDSSEC), contenant 451 accélérogrammes, a été produite de même qu’un code de calcul permettant de calculer les déplacements permanents, par double intégration numérique, selon la méthode de Newmark. À partir d’analyses statistiques, des modèles prédictifs applicables au contexte sismologique de l’Est canadien ont été développés en considérant un comportement rigide-plastique (méthode dite du « bloc rigide ») et un comportement viscoélastique linéaire équivalent (méthode dite « flexible »). La comparaison entre le nouveau modèle rigide-plastique pour l’Est avec ceux existants développés à partir de signaux de l’Ouest américain a montré que les déplacements permanents évalués pour l’Est peuvent être significativement inférieurs à ceux de l’Ouest pour des magnitudes et des distances épicentrales comparables compte tenu de leur contenu fréquentiel plus fort en hautes fréquences. Le modèle prédictif flexible a montré qu’il pouvait prédire des déplacements permanents du même ordre de grandeur que Makdisi et Seed (1977) et de Rathje et Antonakos (2011). Les déplacements permanents sont amplifiés par la méthode flexible comparativement à la méthode rigide principalement lorsque le ratio entre la période prédominante de l’ouvrage et la période moyenne de la sollicitation se situe autour de 1. Le second but consistait à tester l’applicabilité de la méthode du bruit de fond ambiant (H/V) comme outil expérimental pour estimer la période prédominante des barrages en remblai et en enrochement (Tp). Les études comparatives ont montré, de façon générale, une bonne concordance entre les calculs analytiques et les mesures expérimentales tant et aussi longtemps que les hypothèses à la base des modèles sont respectées.
Resumo:
Le stress joue un rôle important dans le maintien de la qualité de vie quotidienne. Une exposition à une situation stressante peut causer divers désordres neuropsychiatriques du cerveau qui sont associés avec des problèmes liés au sommeil, à la dépression, à des problèmes digestifs et à des troubles de l’alimentation. Les traitements de ces troubles liés au stress sont très coûteux à travers le monde. De nos jours, des considérations importantes ont été soulevées afin de trouver des moyens appropriés pour la prévention plutôt que de dépenser ultérieurement plus de budget sur les traitements. De cette façon, l’étude et l’expérimentation sur les animaux des troubles liés au stress sont l’un des moyens les plus fiables pour atteindre une compréhension plus profonde des problèmes liés au stress. Ce projet visait à révéler la modulation des potentiels de champ locaux (LFP) lors de la consommation de sucrose dans deux conditions englobant la condition de contrôle non-stressante et celle stressante d’un choc électrique aiguë à la patte dans le cortex préfrontal médian (CPFm) du cerveau de rat. Le CPFm est une structure importante dans la réponse au stress et à l’anxiété par l’interaction avec l’axe hypothalamique-pituitaire surrénale (HPA). Les résultats de ce projet ont révélé que la plupart des coups de langue se sont produits dans les 15 premières minutes de l’accès à une solution de sucrose autant pour la condition contrôle non-stressante que pour la condition stressante. En outre, le stress aigu d’un choc à la patte affecte de manière significative la consommation horaire de sucrose en diminuant le volume de la consommation. Les résultats ont également révélé une présence importante du rythme thêta dans le CPFm pendant la condition de base et pendant l’ingestion de sucrose dans les deux conditions. De plus, les résultats ont montré une diminution de puissance des bandes delta et thêta lors des initiations de léchage du sucrose. Ce projet conduit à des informations détaillées sur les propriétés électrophysiologiques du cortex infra-limbique (IL) du CPFm en réponse à l’exposition à des conditions de stress et de l’apport d’une solution de sucrose. Ce projet permet également de mieux comprendre les mécanismes neurophysiologiques des neurones du CPFm en réponse à l’exposition à une condition stressante suivie d’apport de sucrose. Ce projet a également permis de confirmer les effets anorexigènes du stress et suggèrent également que la synchronisation neuronale dans le cortex IL peut jouer un rôle dans le comportement de léchage et sa désynchronisation pendant le léchage après une exposition à des conditions stressantes.
Resumo:
De nouvelles recommandations dans la production de canneberges suggèrent l’utilisation de l’irrigation souterraine, une méthode susceptible d’augmenter l’accumulation de sels dans le sol. Par ailleurs, le prélèvement d’eaux souterraines saumâtres dans des nappes résiduelles de la mer Champlain sous les dépôts d’argile dans la vallée du St-Laurent ou résultant du rehaussement des niveaux marins dans les zones côtières dû aux changements climatiques pourrait affecter la productivité des canneberges cultivées dans l’Est du Canada. Puisque très peu de données concernant la tolérance de la canneberge à la salinité sont disponibles, cette étude a été menée afin de déterminer si ces nouvelles recommandations pourraient éventuellement affecter le rendement de la plante. Dans une serre, des plants de canneberge ont été soumis à huit traitements obtenus à partir de deux méthodes d’irrigation (aspersion et irrigation souterraine) et quatre niveaux de salinité créés par des quantités croissantes de K2SO4 (125, 2 500, 5 000 et 7 500 kg K2O ha-1). L’irrigation souterraine a entraîné des conditions édaphiques plus sèches. Cependant, aucune différence significative de la conductivité électrique de la solution du sol (CEss) n’a été observée entre les deux types d’irrigation. Pourtant, les taux de photosynthèse et la nouaison étaient significativement plus faibles chez les plantes sous traitement d’irrigation souterraine. Les paramètres de croissance ont diminué de façon linéaire avec l’augmentation de la salinité alors que les paramètres de rendement ont connu une diminution quadratique avec l’élévation de la CEss. Une CEss moyenne de 3,2 dS m-1 pendant la floraison a provoqué une chute de 22% du taux relatif de photosynthèse et une diminution de 56% du rendement par rapport au témoin. Le suivi de la conductivité électrique du sol lors de l’implantation d’une régie d’irrigation souterraine de déficit en production de canneberges serait donc recommandable afin d’éviter le stress salin.