976 resultados para non linear absorption
Resumo:
Cette thèse porte sur le rapport université/entreprise au Mexique après 1990. Il s’agit d’une étude de cas sur l’Université Nationale Autonome du Mexique (UNAM), la plus grande université mexicaine et la plus importante institution productrice de connaissances scientifiques au pays. À partir de 1988, l’introduction au Mexique d’une économie du marché a été le point de départ des nombreux changements politiques et économiques qui ont modifié les conditions d’exploitation des organisations et des institutions au pays. Ainsi, depuis 1990, le nouveau contexte politique et économique du Mexique a modifié les politiques gouvernementales vers les institutions publiques y compris celles de la santé et de l’éducation. Pour ce qui est des universités publiques mexicaines, ces politiques ont réduit leur financement et leur ont demandé une participation plus active à l’économie nationale, par la production de connaissances pouvant se traduire en innovation dans le secteur de la production. Ces nouvelles conditions économiques et politiques constituent des contingences auxquelles les universitaires font face de diverses façons, y compris l’établissement des relations avec les entreprises, comme le prescrivent les politiques du gouvernement fédéral élaborées sur la base des recommandations de l’OCDE. En vue de contribuer à la connaissance des relations université/entreprise développées au Mexique, nous avons réalisé notre étude de cas fondée sur une approche méthodologique qualitative à caractère exploratoire qui a recueilli des données provenant de sources documentaires et perceptuelles. Nous avons encadré notre recherche du point de vue de l’organisation par la théorie de la contingence, et pour l’analyse de la production de la connaissance sur la base des modèles de la Triple hélice et du Mode 2. Différents documents de sources diverses, y compris l’Internet, ont été consultés pour l’encadrement des rapports université/entreprise au Mexique et à l’UNAM. Les sources perceptuelles ont été 51 entrevues semi-structurées auprès de professeurs et de chercheurs à temps plein ayant établi des rapports avec des entreprises (dans les domaines de la biomédecine, la biotechnologie, la chimie et l’ingénierie) et de personnes ayant un rôle de gestion dans les rapports des entreprises avec l’institution. Les données recueillies ont montré que la politique de l’UNAM sur les rapports université/entreprise a été aussi flottante que la structure organisationnelle soutenant sa création et formalisation. Toutes sortes d’entreprises, publiques ou privées collaborent avec les chercheurs de l’UNAM, mais ce sont les entreprises parastatales et gouvernementales qui prédominent. À cause du manque d’infrastructure scientifique et technologique de la plupart des entreprises au Mexique, les principales demandes adressées à l’UNAM sont pour des services techniques ou professionnels qui aident les entreprises à résoudre des problèmes ponctuels. Le type de production de connaissance à l’UNAM continue d’être celui du Mode 1 ou traditionnel. Néanmoins, particulièrement dans le domaine de la biotechnologie, nous avons identifié certains cas de collaboration plus étroite qui pointaient vers l’innovation non linéaire proposée par le Mode 2 et la Triple hélice. Parmi les principaux avantages découlant des rapports avec les entreprises les interviewés ont cité l’obtention de ressources additionnelles pour la recherche, y compris de l’équipement et des fonds pour les bourses d’étudiants, mais souvent ils ont observé que l’un des plus gros avantages était la connaissance qu’ils obtenaient des contacts avec les firmes et le sens du réel qu’ils pouvaient intégrer dans la formation des étudiants. Les programmes gouvernementaux du CONACYT pour la science, la technologie et l’innovation ne semblent pas réussir à renforcer les rapports entre les institutions génératrices de la connaissance et le secteur de la production du Mexique.
Resumo:
Rédigés de manière non linéaire, "Monsieur Teste" (1946) de Paul Valéry et "Palomar" (1983) d’Italo Calvino posent les limites de l’intellection pure et les possibilités du texte littéraire à rendre compte d’une conscience, celle des sujets – Teste et Palomar – , comme les témoins réfléchis des phénomènes de l’univers. Bien qu’issus d’époques et de mouvements littéraires différents (poésie moderne française de l’entre-deux guerre chez Valéry, le néoréalisme italien chez Calvino) les deux auteurs parviennent néanmoins à une écriture comparable, qui valorise l’éclatement formel des catégories romanesques conventionnelles (intrigue, espace, temps, personnage) vers un nouveau réalisme, plus libre et moins contraignant. Que ce soit par le récit composites "Monsieur Teste" où Valéry met en scène Teste, un homme taciturne et solitaire vivant de l’intérieur, ou encore "Palomar" dont le protagoniste décide, un beau jour, d’arpenter du regard la moindre parcelle de l’univers, un élément demeure constant : le fragment, comme manière d’appréhender et de comprendre le monde et, par ricochet, de se saisir soir-même. L’analyse des incidences littéraires du fragment nous permettra d’interroger et de mettre en lumière, en les comparant, l’écriture fragmentaire de "Monsieur Teste" et "Palomar" comme la création d’une structure textuelle, mais aussi comme une forme donnant vie à un contenu : la pensée prenant conscience de ses actes.
Resumo:
Le benzo-a-pyrène (BaP) est un cancérogène reconnu pour l'homme, contaminant présent dans notre environnement. Il cause des dommages à l'ADN que nous avons mesurés dans les lymphocytes exposés à de faibles concentrations de BaP, provenant de 20 jeunes volontaires non fumeurs et en santé. Suite à l’exposition, la fréquence des micronoyaux (MN) augmente significativement et décrit une courbe dose-réponse non linéaire, suggérant le déclenchement du processus de détoxification et la réparation de l’ADN. Des différences entre les individus et entre les sexes sont présentes dans la réponse génotoxique produite par le BaP. Le test des aberrations chromosomiques montre que le pourcentage de chromosomes cassés augmente significativement dans les cellules exposées au BaP. Combinés avec l'augmentation de la fréquence des MN, nos résultats confirment l'effet clastogène du BaP déjà rapporté dans la littérature. L’hybridation in situ en fluorescence (FISH) des MN avec une sonde pancentromérique est aussi utilisée pour établir leur mécanisme de formation. La FISH révèle que la majorité des MN formés après une exposition au BaP contient un centromère et plus, ce qui est significativement différent de la condition non exposée. Plus précisément, dans nos conditions expérimentales, les MN induits par le BaP contiennent surtout trois centromères et plus, indiquant également la présence d'un effet aneugène. L'effet clastogène du BaP est relié à son rôle d'initiateur dans la cancérogenèse, alors que l'effet aneugène le relierait à l'étape de progression. Ces résultats sont importants puisque l'exposition aux composés de la classe du BaP est de longue durée (cigarette, air pollué).
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Le problème de tarification qui nous intéresse ici consiste à maximiser le revenu généré par les usagers d'un réseau de transport. Pour se rendre à leurs destinations, les usagers font un choix de route et utilisent des arcs sur lesquels nous imposons des tarifs. Chaque route est caractérisée (aux yeux de l'usager) par sa "désutilité", une mesure de longueur généralisée tenant compte à la fois des tarifs et des autres coûts associés à son utilisation. Ce problème a surtout été abordé sous une modélisation déterministe de la demande selon laquelle seules des routes de désutilité minimale se voient attribuer une mesure positive de flot. Le modèle déterministe se prête bien à une résolution globale, mais pèche par manque de réalisme. Nous considérons ici une extension probabiliste de ce modèle, selon laquelle les usagers d'un réseau sont alloués aux routes d'après un modèle de choix discret logit. Bien que le problème de tarification qui en résulte est non linéaire et non convexe, il conserve néanmoins une forte composante combinatoire que nous exploitons à des fins algorithmiques. Notre contribution se répartit en trois articles. Dans le premier, nous abordons le problème d'un point de vue théorique pour le cas avec une paire origine-destination. Nous développons une analyse de premier ordre qui exploite les propriétés analytiques de l'affectation logit et démontrons la validité de règles de simplification de la topologie du réseau qui permettent de réduire la dimension du problème sans en modifier la solution. Nous établissons ensuite l'unimodalité du problème pour une vaste gamme de topologies et nous généralisons certains de nos résultats au problème de la tarification d'une ligne de produits. Dans le deuxième article, nous abordons le problème d'un point de vue numérique pour le cas avec plusieurs paires origine-destination. Nous développons des algorithmes qui exploitent l'information locale et la parenté des formulations probabilistes et déterministes. Un des résultats de notre analyse est l'obtention de bornes sur l'erreur commise par les modèles combinatoires dans l'approximation du revenu logit. Nos essais numériques montrent qu'une approximation combinatoire rudimentaire permet souvent d'identifier des solutions quasi-optimales. Dans le troisième article, nous considérons l'extension du problème à une demande hétérogène. L'affectation de la demande y est donnée par un modèle de choix discret logit mixte où la sensibilité au prix d'un usager est aléatoire. Sous cette modélisation, l'expression du revenu n'est pas analytique et ne peut être évaluée de façon exacte. Cependant, nous démontrons que l'utilisation d'approximations non linéaires et combinatoires permet d'identifier des solutions quasi-optimales. Finalement, nous en profitons pour illustrer la richesse du modèle, par le biais d'une interprétation économique, et examinons plus particulièrement la contribution au revenu des différents groupes d'usagers.
Resumo:
L'objectif ultime en géomorphologie fluviale est d'expliquer les formes des cours d'eau et leur évolution temporelle et spatiale. La multiplication des études nous a mené à la réalisation que les systèmes géomorphologiques sont complexes. Les formes observées sont plus que la somme des processus individuels qui les régissent en raison d’interactions et de rétroactions non-linéaires à de multiples échelles spatiales et temporelles. Dans ce contexte, le but général de la thèse est de proposer et de tester de nouvelles avenues de recherche afin de mieux appréhender la complexité des dynamiques fluviales en utilisant des approches méthodologiques et analytiques mettant l’accent sur les interactions entre l’écoulement, le transport de sédiments en charge fond et la morphologie du lit en rivière graveleuse. Cette orientation découle du constat que les paradigmes actuels en géomorphologie fluviale n’arrivent pas à expliquer adéquatement la variabilité naturelle du transport en charge de fond ainsi que des formes du lit qui en résultent. Cinq pistes de réflexion sont développées sous forme d’articles basés sur des études de cas : 1. L'intégration des échelles de variation de l'écoulement permet d’insérer la notion de structures turbulentes dans des pulsations de plus grande échelle et d'améliorer la compréhension de la variabilité du transport de sédiments. 2. La quantification des taux de changement de l’écoulement (accélération /décélération) au cours d’une crue permet d’expliquer la variabilité des flux de transport en charge fond autant que la magnitude de l’écoulement. 3. L’utilisation de techniques de mesures complémentaires révèle une nouvelle dynamique du lit des rivières graveleuses, la dilatation et la contraction du lit suite à une crue. 4. La remise en cause du fait généralement accepté que le transport en charge de fond est corrélé positivement à l'intensité des modifications morphologiques en raison d’un problème associé aux échelles différentes des processus en cause. 5. L’approche systémique des dynamiques fluviales par l’utilisation d’analyses multivariées permet d’appréhender la complexité des dynamiques de rétroactions linéaires et non-linéaires dans l’évolution d’un chenal et d’illustrer l’importance de l’historique récent des changements géomorphologiques en réponse aux crues. Cette thèse se veut une avancée conceptuelle issue d'une profonde réflexion sur les approches classiques que l'on utilise en géomorphologie fluviale depuis plusieurs décennies. Elle est basée sur un jeu de données unique récolté lors du suivi intensif de 21 évènements de crue dans un petit cours d’eau à lit de graviers, le ruisseau Béard (Québec). Le protocole expérimental axé sur la simultanéité des mesures de l’écoulement, de la morphologie du lit et du transport de sédiments en charge de fond a permis de centrer la recherche directement sur les interactions entre les processus plutôt que sur les processus individuels, une approche rarement utilisée en géomorphologie fluviale. Chacun des chapitres illustre un nouveau concept ou une nouvelle approche permettant de résoudre certaines des impasses rencontrées actuellement en géomorphologie fluviale. Ces travaux ont des implications importantes pour la compréhension de la dynamique des lits de rivières et des habitats fluviaux et servent de point de départ pour de nouveaux développements.
Resumo:
Codirection: Dr. Gonzalo Lizarralde
Resumo:
We compute the optimal non-linear tax policy for a dynastic economy with uninsurable risk, where generations are linked by dynastic wealth accumulation and correlated incomes. Unlike earlier studies, we find that the optimal long-run tax policy is moderately regressive. Regressive taxes lead to higher output and consumption, at the expense of larger after-tax income inequality. Nevertheless, equilibrium effects and the availability of self-insurance via bequests mitigate the impact of regressive taxes on consumption inequality, resulting in improved average welfare overall. We also consider the optimal once-and-for-all change in the tax system, taking into account the transition dynamics. Starting at the U.S. status quo, the optimal tax reform is slightly more progressive than the current system.
Resumo:
Le caribou forestier est une espèce menacée au Canada, la principale hypothèse au déclin des populations étant l’intensification de la prédation provoquée par les perturbations anthropiques du paysage. Afin de faire face à cette situation, il est nécessaire d’étudier et comprendre l’impact de l’environnement sur les interactions prédateur-proies entre le caribou et le loup, ainsi qu’avec l’orignal, qui est sa principale proie alternative. Pour cela, cette thèse présente la conception d’un modèle centré sur l’individu des déplacements de ces trois espèces en fonction de leur environnement, dont résulteront les interactions prédateur-proies. Afin de permettre l’application de ce modèle sur de longues périodes, et donc pour un environnement changeant, une méthodologie a été développée, qui s’articule atour de deux aspects principaux. Tout d’abord, la notion de niveaux d’émergence est introduite, permettant d’ordonner les comportements observables du système selon leurs interdépendances, afin de choisir comme trait du modèle un com- portement correspondant au domaine d’applicabilité visé. Ordonner les comportements selon leurs niveaux d’émergence permet également d’identifier la redondance entre les patrons, qui peut être à l’origine d’un phénomène de sur-apprentissage lorsqu’ils sont utilisés lors de la calibration. Dans un second temps, un nouveau protocole pour la calibration et la validation du ou des traits choisis à l’aide des niveaux d’émergence, nommé réplication de système basé sur l’individu (Individual Based System Replication - IBSRtion) est également présenté. Ce protocole met l’emphase sur la modélisation directe, contrairement au principal protocole existant, la modélisation orientée patrons (Pattern Oriented Modelling - POM), et permet une approche empirique en générant artificiellement des données non disponibles ou ne pouvant être récoltées par des études de terrains. IBSRtion a également l’avantage de pouvoir être intégrée dans POM, afin de contribuer à la création d’une méthodologie universelle pour la conception de modèles centrés sur l’individu. Le processus de conception de ce modèle aura entre autre permis de faire une synthèse des connaissances et d’identifier certaines lacunes. Une étude visant à palier le manque de connaissances satisfaisantes sur les réponses comportementales à court-terme des proies face au risque de prédation a notamment permis d’observer que celles-ci sont une combinaison de comportements chroniques et éphémères, et que les mécanismes qui en sont à l’origine sont complexes et non-linéaires. Le résultat de ce travail est un modèle complexe utilisant de nombreux sous-modèles, et calibré de façon empirique, applicable à une grande variété d’environnements. Ce modèle a permis de tester l’impact de l’enfeuillement sur les relations prédateur-proies. Des simulations ont été effectuées pour différentes quantités d’enfeuillement, suivant deux configurations spatiales différentes. Les résultats de simulation suggèrent que des plans d’aménagement considérant également l’habitat de l’orignal pourraient être bénéfiques pour le caribou forestier, car ils permettraient d’améliorer la ségrégation spatiale entre les deux espèces, et donc entre le caribou et le loup. En le couplant avec un module de naissances et de morts naturelles ainsi qu’un modèle d’évolution du paysage, ce modèle permettra par la suite d’évaluer l’impact de plans d’aménagement forestier sur la viabilité des populations de caribou forestier.
Resumo:
Cet article présente et analyse la menace grandissante que représente le vol d’identité dans le cyberespace. Le développement, dans la dernière décennie, du commerce électronique ainsi que des transactions et des communications numériques s’accélère. Cette progression non linéaire a généré une myriade de risques associés à l’utilisation des technologies de l’information et de la communication (les TIC) dans le cyberespace, dont un des plus importants est sans conteste la menace du vol d’identité. Cet article vise à donner un aperçu des enjeux et des risques relatifs au vol d’identité et cherche à offrir certaines solutions basées sur la nécessité d’opter pour une politique à trois volets qui englobe des approches stratégiques et règlementaires, techniques et culturelles.
Resumo:
Parmi les méthodes d’estimation de paramètres de loi de probabilité en statistique, le maximum de vraisemblance est une des techniques les plus populaires, comme, sous des conditions l´egères, les estimateurs ainsi produits sont consistants et asymptotiquement efficaces. Les problèmes de maximum de vraisemblance peuvent être traités comme des problèmes de programmation non linéaires, éventuellement non convexe, pour lesquels deux grandes classes de méthodes de résolution sont les techniques de région de confiance et les méthodes de recherche linéaire. En outre, il est possible d’exploiter la structure de ces problèmes pour tenter d’accélerer la convergence de ces méthodes, sous certaines hypothèses. Dans ce travail, nous revisitons certaines approches classiques ou récemment d´eveloppées en optimisation non linéaire, dans le contexte particulier de l’estimation de maximum de vraisemblance. Nous développons également de nouveaux algorithmes pour résoudre ce problème, reconsidérant différentes techniques d’approximation de hessiens, et proposons de nouvelles méthodes de calcul de pas, en particulier dans le cadre des algorithmes de recherche linéaire. Il s’agit notamment d’algorithmes nous permettant de changer d’approximation de hessien et d’adapter la longueur du pas dans une direction de recherche fixée. Finalement, nous évaluons l’efficacité numérique des méthodes proposées dans le cadre de l’estimation de modèles de choix discrets, en particulier les modèles logit mélangés.
Resumo:
Ce travail de thèse porte sur l’application de la pharmacocinétique de population dans le but d’optimiser l’utilisation de certains médicaments chez les enfants immunosupprimés et subissant une greffe. Parmi les différents médicaments utilisés chez les enfants immunosupprimés, l’utilisation du busulfan, du tacrolimus et du voriconazole reste problématique, notamment à cause d’une très grande variabilité interindividuelle de leur pharmacocinétique rendant nécessaire l’individualisation des doses par le suivi thérapeutique pharmacologique. De plus, ces médicaments n’ont pas fait l’objet d’études chez les enfants et les doses sont adaptées à partir des adultes. Cette dernière pratique ne prend pas en compte les particularités pharmacologiques qui caractérisent l’enfant tout au long de son développement et rend illusoire l’extrapolation aux enfants des données acquises chez les adultes. Les travaux effectués dans le cadre de cette thèse ont étudié successivement la pharmacocinétique du busulfan, du voriconazole et du tacrolimus par une approche de population en une étape (modèles non-linéaires à effets mixtes). Ces modèles ont permis d’identifier les principales sources de variabilités interindividuelles sur les paramètres pharmacocinétiques. Les covariables identifiées sont la surface corporelle et le poids. Ces résultats confirment l’importance de tenir en compte l’effet de la croissance en pédiatrie. Ces paramètres ont été inclus de façon allométrique dans les modèles. Cette approche permet de séparer l’effet de la mesure anthropométrique d’autres covariables et permet la comparaison des paramètres pharmacocinétiques en pédiatrie avec ceux des adultes. La prise en compte de ces covariables explicatives devrait permettre d’améliorer la prise en charge a priori des patients. Ces modèles développés ont été évalués pour confirmer leur stabilité, leur performance de simulation et leur capacité à répondre aux objectifs initiaux de la modélisation. Dans le cas du busulfan, le modèle validé a été utilisé pour proposer par simulation une posologie qui améliorerait l’atteinte de l’exposition cible, diminuerait l’échec thérapeutique et les risques de toxicité. Le modèle développé pour le voriconazole, a permis de confirmer la grande variabilité interindividuelle dans sa pharmacocinétique chez les enfants immunosupprimés. Le nombre limité de patients n’a pas permis d’identifier des covariables expliquant cette variabilité. Sur la base du modèle de pharmacocinétique de population du tacrolimus, un estimateur Bayesien a été mis au point, qui est le premier dans cette population de transplantés hépatiques pédiatriques. Cet estimateur permet de prédire les paramètres pharmacocinétiques et l’exposition individuelle au tacrolimus sur la base d’un nombre limité de prélèvements. En conclusion, les travaux de cette thèse ont permis d’appliquer la pharmacocinétique de population en pédiatrie pour explorer les caractéristiques propres à cette population, de décrire la variabilité pharmacocinétique des médicaments utilisés chez les enfants immunosupprimés, en vue de l’individualisation du traitement. Les outils pharmacocinétiques développés s’inscrivent dans une démarche visant à diminuer le taux d'échec thérapeutique et l’incidence des effets indésirables ou toxiques chez les enfants immunosupprimés suite à une transplantation.
Resumo:
Ce mémoire de maîtrise présente une nouvelle approche non supervisée pour détecter et segmenter les régions urbaines dans les images hyperspectrales. La méthode proposée n ́ecessite trois étapes. Tout d’abord, afin de réduire le coût calculatoire de notre algorithme, une image couleur du contenu spectral est estimée. A cette fin, une étape de réduction de dimensionalité non-linéaire, basée sur deux critères complémentaires mais contradictoires de bonne visualisation; à savoir la précision et le contraste, est réalisée pour l’affichage couleur de chaque image hyperspectrale. Ensuite, pour discriminer les régions urbaines des régions non urbaines, la seconde étape consiste à extraire quelques caractéristiques discriminantes (et complémentaires) sur cette image hyperspectrale couleur. A cette fin, nous avons extrait une série de paramètres discriminants pour décrire les caractéristiques d’une zone urbaine, principalement composée d’objets manufacturés de formes simples g ́eométriques et régulières. Nous avons utilisé des caractéristiques texturales basées sur les niveaux de gris, la magnitude du gradient ou des paramètres issus de la matrice de co-occurrence combinés avec des caractéristiques structurelles basées sur l’orientation locale du gradient de l’image et la détection locale de segments de droites. Afin de réduire encore la complexité de calcul de notre approche et éviter le problème de la ”malédiction de la dimensionnalité” quand on décide de regrouper des données de dimensions élevées, nous avons décidé de classifier individuellement, dans la dernière étape, chaque caractéristique texturale ou structurelle avec une simple procédure de K-moyennes et ensuite de combiner ces segmentations grossières, obtenues à faible coût, avec un modèle efficace de fusion de cartes de segmentations. Les expérimentations données dans ce rapport montrent que cette stratégie est efficace visuellement et se compare favorablement aux autres méthodes de détection et segmentation de zones urbaines à partir d’images hyperspectrales.
Resumo:
Les objets d’étude de cette thèse sont les systèmes d’équations quasilinéaires du premier ordre. Dans une première partie, on fait une analyse du point de vue du groupe de Lie classique des symétries ponctuelles d’un modèle de la plasticité idéale. Les écoulements planaires dans les cas stationnaire et non-stationnaire sont étudiés. Deux nouveaux champs de vecteurs ont été obtenus, complétant ainsi l’algèbre de Lie du cas stationnaire dont les sous-algèbres sont classifiées en classes de conjugaison sous l’action du groupe. Dans le cas non-stationnaire, une classification des algèbres de Lie admissibles selon la force choisie est effectuée. Pour chaque type de force, les champs de vecteurs sont présentés. L’algèbre ayant la dimension la plus élevée possible a été obtenues en considérant les forces monogéniques et elle a été classifiée en classes de conjugaison. La méthode de réduction par symétrie est appliquée pour obtenir des solutions explicites et implicites de plusieurs types parmi lesquelles certaines s’expriment en termes d’une ou deux fonctions arbitraires d’une variable et d’autres en termes de fonctions elliptiques de Jacobi. Plusieurs solutions sont interprétées physiquement pour en déduire la forme de filières d’extrusion réalisables. Dans la seconde partie, on s’intéresse aux solutions s’exprimant en fonction d’invariants de Riemann pour les systèmes quasilinéaires du premier ordre. La méthode des caractéristiques généralisées ainsi qu’une méthode basée sur les symétries conditionnelles pour les invariants de Riemann sont étendues pour être applicables à des systèmes dans leurs régions elliptiques. Leur applicabilité est démontrée par des exemples de la plasticité idéale non-stationnaire pour un flot irrotationnel ainsi que les équations de la mécanique des fluides. Une nouvelle approche basée sur l’introduction de matrices de rotation satisfaisant certaines conditions algébriques est développée. Elle est applicable directement à des systèmes non-homogènes et non-autonomes sans avoir besoin de transformations préalables. Son efficacité est illustrée par des exemples comprenant un système qui régit l’interaction non-linéaire d’ondes et de particules. La solution générale est construite de façon explicite.
Resumo:
La fibrillation auriculaire (FA) est la forme d’arythmie la plus fréquente et représente environ un tiers des hospitalisations attribuables aux troubles du rythme cardiaque. Les mécanismes d’initiation et de maintenance de la FA sont complexes et multiples. Parmi ceux-ci, une contribution du système nerveux autonome a été identifiée mais son rôle exact demeure mal compris. Ce travail cible l’étude de la modulation induite par l’acétylcholine (ACh) sur l’initiation et le maintien de la FA, en utilisant un modèle de tissu bidimensionnel. La propagation de l’influx électrique sur ce tissu est décrite par une équation réaction-diffusion non-linéaire résolue sur un maillage rectangulaire avec une méthode de différences finies, et la cinétique d'ACh suit une évolution temporelle prédéfinie qui correspond à l’activation du système parasympathique. Plus de 4400 simulations ont été réalisées sur la base de 4 épisodes d’arythmies, 5 tailles différentes de région modulée par l’ACh, 10 concentrations d’ACh et 22 constantes de temps de libération et de dégradation d’ACh. La complexité de la dynamique des réentrées est décrite en fonction de la constante de temps qui représente le taux de variation d’ACh. Les résultats obtenus suggèrent que la stimulation vagale peut mener soit à une dynamique plus complexe des réentrées soit à l’arrêt de la FA en fonction des quatre paramètres étudiés. Ils démontrent qu’une décharge vagale rapide, représentée par des constantes de temps faibles combinées à une quantité suffisamment grande d’ACh, a une forte probabilité de briser la réentrée primaire provoquant une activité fibrillatoire. Cette activité est caractérisée par la création de plusieurs ondelettes à partir d’un rotor primaire sous l’effet de l’hétérogénéité du gradient de repolarisation causé par l’activité autonomique.