21 resultados para Aurivillius solar fuels riduzione CO2 celle foto-elettrochimiche serigrafia
em Université de Montréal, Canada
Resumo:
Le dioxyde de carbone (CO2) est un résidu naturel du métabolisme cellulaire, la troisième substance la plus abondante du sang, et un important agent vasoactif. À la moindre variation de la teneur en CO2 du sang, la résistance du système vasculaire cérébral et la perfusion tissulaire cérébrale subissent des changements globaux. Bien que les mécanismes exacts qui sous-tendent cet effet restent à être élucidés, le phénomène a été largement exploité dans les études de réactivité vasculaire cérébrale (RVC). Une voie prometteuse pour l’évaluation de la fonction vasculaire cérébrale est la cartographie de la RVC de manière non-invasive grâce à l’utilisation de l’Imagerie par Résonance Magnétique fonctionnelle (IRMf). Des mesures quantitatives et non-invasives de de la RVC peuvent être obtenus avec l’utilisation de différentes techniques telles que la manipu- lation du contenu artériel en CO2 (PaCO2) combinée à la technique de marquage de spin artériel (Arterial Spin Labeling, ASL), qui permet de mesurer les changements de la perfusion cérébrale provoqués par les stimuli vasculaires. Toutefois, les préoccupations liées à la sensibilité et la fiabilité des mesures de la RVC limitent de nos jours l’adoption plus large de ces méthodes modernes de IRMf. J’ai considéré qu’une analyse approfondie ainsi que l’amélioration des méthodes disponibles pourraient apporter une contribution précieuse dans le domaine du génie biomédical, de même qu’aider à faire progresser le développement de nouveaux outils d’imagerie de diagnostique. Dans cette thèse je présente une série d’études où j’examine l’impact des méthodes alternatives de stimulation/imagerie vasculaire sur les mesures de la RVC et les moyens d’améliorer la sensibilité et la fiabilité de telles méthodes. J’ai aussi inclus dans cette thèse un manuscrit théorique où j’examine la possible contribution d’un facteur méconnu dans le phénomène de la RVC : les variations de la pression osmotique du sang induites par les produits de la dissolution du CO2. Outre l’introduction générale (Chapitre 1) et les conclusions (Chapitre 6), cette thèse comporte 4 autres chapitres, au long des quels cinq différentes études sont présentées sous forme d’articles scientifiques qui ont été acceptés à des fins de publication dans différentes revues scientifiques. Chaque chapitre débute par sa propre introduction, qui consiste en une description plus détaillée du contexte motivant le(s) manuscrit(s) associé(s) et un bref résumé des résultats transmis. Un compte rendu détaillé des méthodes et des résultats peut être trouvé dans le(s) dit(s) manuscrit(s). Dans l’étude qui compose le Chapitre 2, je compare la sensibilité des deux techniques ASL de pointe et je démontre que la dernière implémentation de l’ASL continue, la pCASL, offre des mesures plus robustes de la RVC en comparaison à d’autres méthodes pulsés plus âgées. Dans le Chapitre 3, je compare les mesures de la RVC obtenues par pCASL avec l’utilisation de quatre méthodes respiratoires différentes pour manipuler le CO2 artérielle (PaCO2) et je démontre que les résultats peuvent varier de manière significative lorsque les manipulations ne sont pas conçues pour fonctionner dans l’intervalle linéaire de la courbe dose-réponse du CO2. Le Chapitre 4 comprend deux études complémentaires visant à déterminer le niveau de reproductibilité qui peut être obtenu en utilisant des méthodes plus récentes pour la mesure de la RVC. La première étude a abouti à la mise au point technique d’un appareil qui permet des manipulations respiratoires du CO2 de manière simple, sécuritaire et robuste. La méthode respiratoire améliorée a été utilisée dans la seconde étude – de neuro-imagerie – où la sensibilité et la reproductibilité de la RVC, mesurée par pCASL, ont été examinées. La technique d’imagerie pCASL a pu détecter des réponses de perfusion induites par la variation du CO2 dans environ 90% du cortex cérébral humain et la reproductibilité de ces mesures était comparable à celle d’autres mesures hémodynamiques déjà adoptées dans la pratique clinique. Enfin, dans le Chapitre 5, je présente un modèle mathématique qui décrit la RVC en termes de changements du PaCO2 liés à l’osmolarité du sang. Les réponses prédites par ce modèle correspondent étroitement aux changements hémodynamiques mesurés avec pCASL ; suggérant une contribution supplémentaire à la réactivité du système vasculaire cérébral en lien avec le CO2.
Resumo:
Rapport de recherche
Resumo:
"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de Maîtrise en droit (L.L.M.)"
Resumo:
De nouveaux modèles d'atmosphère sont présentés, incluant les profils de raie d'hélium neutre améliorés de Beauchamp (1995) et le formalisme de probabilité d'occupation pour ce même atome. Ces modèles sont utilisés pour calculer une grille de spectres synthétiques correspondant à des atmosphères riches en hélium et contenant des traces d'hydrogène. Cette grille est utilisée pour déterminer les paramètres atmosphériques principaux des étoiles de notre échantillon, soient la température effective, la gravité de surface et l'abondance d'hydrogène. Notre échantillon contient des spectres visibles de haut rapport signal-sur-bruit pour 102 naines blanches riches en hélium, dont 29 ont été observés au cours de ce projet, ce qui en fait le plus grand échantillon de spectres de qualité de naines blanches riches en hélium. Des spectres synthétiques ont été calculés en utilisant différentes valeurs du paramètre α de la théorie de la longueur de mélange dans le but de calibrer empiriquement la valeur de ce paramètre pour les DB. Afin d'améliorer la précision sur les paramètres atmosphériques de quelques étoiles, nous avons utilisé des spectres couvrant la raie Hα pour mieux déterminer l'abondance d'hydrogène. Finalement, nous avons calculé la distribution de masse de notre échantillon et la fonction de luminosité des DB. La distribution de masse montre une coupure à 0.5 fois la masse solaire qui est prédite par les modèles d'évolution stellaire et dévoile une masse moyenne significativement plus élevée pour les étoiles de type DBA. La masse moyenne de l'ensemble des DB et DBA est très proche de celle des DA. La fonction de luminosité nous permet de calculer que le rapport du nombre de DB sur le nombre de DA vaut environ 25%.
Resumo:
Les populations autochtones canadiennes ont un passé difficile qui influence leur vécu actuel. Les recherches canadiennes et ailleurs dans le monde s’entendent sur la surreprésentation des enfants autochtones en protection de l’enfance. Au Canada, la surreprésentation s’explique présentement par la présence de conditions de vie dégradées plutôt qu’en raison d’un traitement différentiel des services de protection à l’égard des enfants autochtones. La présente étude ajoute aux connaissances sur les mauvais traitements et la réponse des services de protection de la jeunesse aux enfants autochtones québécois en s’intéressant à trois questions : leur surreprésentation, leurs différences par rapport aux autres enfants et les prédicteurs du placement. D’abord, à partir des données administratives de la protection de la jeunesse, la surreprésentation des enfants autochtones est évaluée à trois étapes des services : les signalements retenus, les situations fondées et les placements. Les enfants autochtones et les autres enfants sont comparés sur un ensemble de caractéristiques personnelles, familiales, parentales des signalements et des services rendus. Les prédicteurs du placement des enfants desservis par la protection de la jeunesse sont enfin vérifiés, en portant une attention particulière à l’importance du statut autochtone dans cette prédiction. Les résultats révèlent une augmentation de la surreprésentation des enfants autochtones d’une étape à l’autre des services de protection considérés. Ces enfants ont plus souvent des conditions de vie difficiles et sont confrontés à davantage de facteurs de risque que les autres enfants. Le statut autochtone est important dans la prédiction du placement, même après l’ajout d’un ensemble de caractéristiques pouvant contribuer à la prédiction. La complexité d’accès aux services de première ligne dans les communautés autochtones ou l’influence d’une variable non considérée, telle la pauvreté matérielle et économique, constituent de possibles explications. Les implications pour la recherche et la pratique sont discutées.
Resumo:
Nous présentons un modèle pour l’irradiance solaire spectrale entre 200 et 400 nm. Celui-ci est une extension d’un modèle d’irradiance solaire totale basé sur la simulation de la fragmentation et l’érosion des taches qui utilise, en entrée, les positions et aires des taches observées pour chaque pas de temps d’une journée. L’émergence des taches sur la face du Soleil opposée à la Terre est simulée par une injection stochastique. Le modèle simule ensuite leur désintégration, qui produit des taches plus petites et des facules. Par la suite, l’irradiance est calculée en sommant la contribution des taches, des facules et du Soleil inactif. Les paramètres libres du modèle sont ajustés en comparant les séquences temporelles produites avec les données provenant de divers satellites s’étalant sur trois cycles d’activité. Le modèle d’irradiance spectrale, quant à lui, a été obtenu en modifiant le calcul de la contribution des taches et des facules, ainsi que celle du Soleil inactif, afin de tenir compte de leur dépendance spectrale. Le flux de la photosphère inactive est interpolé sur un spectre synthétique non magnétisé, alors que le contraste des taches est obtenu en calculant le rapport du flux provenant d’un spectre synthétique représentatif des taches et de celui provenant du spectre représentatif du Soleil inactif. Le contraste des facules est quand à lui calculé avec une procédure simple d’inversion de corps noir. Cette dernière nécessite l’utilisation d’un profil de température des facules obtenu à l’aide de modèles d’atmosphère. Les données produites avec le modèle d’irradiance spectrale sont comparées aux observations de SOLSTICE sur UARS. L’accord étant peu satisfaisant, particulièrement concernant le niveau d’irradiance minimal ainsi que l’amplitude des variations, des corrections sont appliquées sur le flux du Soleil inactif, sur le profil de température des facules, ainsi qu’à la dépendance centre-bord du contraste des facules. Enfin, un profil de température des facules est reconstruit empiriquement en maximisant l’accord avec les observations grâce à un algorithme génétique. Il est utilisé afin de reconstruire les séquences temporelles d’irradiance jusqu’en 1874 à des longueurs d’ondes d’intérêt pour la chimie et la dynamique stratosphérique.
Resumo:
Objectif : Évaluer les effets sur la croissance des maxillaires, ainsi que les effets dentaires, de l'utilisation du Forsus versus celle des élastiques de classe II. Matériel et méthode : Un échantillon de 30 patients a été traité sans extraction et a eu une phase d'alignement préliminaire avec appareillage orthodontique fixe complet. Vingt-trois (23) patients (14 filles, 9 garçons) ont été traités à l'aide de Forsus (âge moyen : 13,4 ans) et 7 patients (4 filles, 3 garçons) ont été traités avec des élastiques de classe II (âge moyen : 14,3 ans). Une radiographie céphalométrique a été prise à la fin de la phase d'alignement, juste avant la mise en place de l'appareil myofonctionnel choisi, et une autre au moment de l'enlèvement de l'appareil (temps de port moyen : 0,5 an). Les radiographies ont ensuite été tracées à l'aveugle et 17 mesures ont été sélectionnées pour évaluer l'effet des appareils sur les maxillaires (ANS-PNS, SNA, SNB, ANB, Go-Pg, Ar-Go, Co-Gn, axe Y, Ar-Gn, Ar-Go-Me, FMA, POF/FH, PP/FH, B-Pg(PM), 1/-FH, 1/-/1, /1-PM). Un questionnaire pour évaluer le confort face à leur appareil a été remis aux patients à environ la moitié du temps de port estimé. Résultats : Il n'y a aucune différence statistiquement significative entre les deux traitements sur la croissance du maxillaire (ANS-PNS p = 0,93, SNA p = 0,12). De façon générale, il n'y a pas non plus de différence significative entre les deux traitements sur la croissance de la mandibule (Ar-Gn p = 0,03, SNB p = 0,02 et pour les 6 autres mesures p > 0,05). Pour la composante dento-alvéolaire, les deux traitements proclinent les incisives inférieures et rétroclinent les incisives supérieures, le Forsus causant une plus forte rétroclinaison des incisives supérieures (1/-FH p = 0,007, /1-PM p = 0,10). Pour les changements angulaires des plans, le Forsus cause de manière significative une augmentation de l’inclinaison du plan occlusal (POF/FH p = 0,001). Pour le questionnaire sur l'évaluation du confort, il n'y a pas de différence entre les deux traitements en ce qui concerne la gêne face aux activités quotidiennes (p = 0,19). L'hygiène est plus facile avec les élastiques (p = 0,03). Le sommeil n’est perturbé par aucun des appareils (p =0,76). La différence entre le groupe «élastiques» et le groupe «Forsus» pour le confort en général n'est pas significative (p = 0,08). Conclusions : Le but de l’étude étant de vérifier l’efficacité des élastiques de classe II bien portés versus celle des Forsus, on peut conclure que leurs effets sont relativement similaires sur les maxillaires. Cependant, le Forsus cause de manière statistiquement significative une augmentation de l'angle du plan occlusal et une rétroclinaison plus importante des incisives supérieures.
Resumo:
Contexte : La fibrillation auriculaire est commune chez les insuffisants cardiaques. L’efficacité des stratégies de contrôle de la fréquence et du rythme s’équivalent. Nous avons comparé l’impact économique des deux stratégies de traitement chez les patients avec fibrillation auriculaire et insuffisance cardiaque. Méthode : Dans cette sous-étude de l’essai Atrial Fibrillation and Congestive Heart Failure, la consommation de soins de santé des patients Québécois ainsi que leurs coûts ont été quantifiés grâce aux banques de données de la Régie de l’assurance-maladie du Québec et de l’Ontario Case Costing Initiative. Résultats : Trois cent quatre patients ont été inclus, âgés de 68±9 ans, fraction d’éjection de 26±6%. Les caractéristiques de base étaient bien réparties entre le contrôle du rythme (N=149) et de la fréquence (N=155). Les patients soumis au contrôle de la fréquence ont eu moins de procédures cardiovasculaires (146 versus 238, P<0.001) en raison du plus faible nombre de cardioversions et de moindres coûts reliés aux antiarythmiques (48 $±203 versus 1319 $±1058 par patient, P<0.001). Ces différences ont été compensées par un surplus de dépenses dues aux hospitalisations non-cardiovasculaires, aux dispositifs cardiaques implantables et aux médicaments non-cardiovasculaires dans le groupe du contrôle de la fréquence. Au total, les coûts par patient avec les stratégies du contrôle de la fréquence et du rythme s’élèvent à 78 767 $±79 568 et 72 764 $±72 800 (P=0.49). Interprétation : Chez les patients avec fibrillation auriculaire et insuffisance cardiaque, le contrôle de la fréquence est associé avec moins de procédures cardiovasculaires et une pharmacothérapie cardiovasculaire moins coûteuse. Toutefois, les coûts associés aux arythmies représentent moins de la moitié des dépenses de santé et le total des coûts s’équilibre entre les 2 stratégies.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Nous analysons les oscillations torsionnelles se développant dans une simulation magnétohydrodynamique de la zone de convection solaire produisant des champs magnétiques de type solaire (champs axisymétriques subissant des inversions de polarités régulières sur des échelles temporelles décadaires). Puisque ces oscillations sont également similaires à celles observées dans le Soleil, nous analysons les dynamiques zonales aux grandes échelles. Nous séparons donc les termes aux grandes échelles (force de Coriolis exercée sur la circulation méridienne et les champs magnétiques aux grandes échelles) de ceux aux petites échelles (les stress de Reynolds et de Maxwell). En comparant les flux de moments cinétiques entre chacune des composantes, nous nous apercevons que les oscillations torsionnelles sont maintenues par l’écoulement méridien aux grandes échelles, lui même modulé par les champs magnétiques. Une analyse d’échange d’énergie confirme ce résultat, puisqu’elle montre que seul le terme comprenant la force de Coriolis injecte de l’énergie dans l’écoulement. Une analyse de la dynamique rotationnelle ayant lieu à la limite de la zone stable et de la zone de convection démontre que celle-ci est fortement modifiée lors du passage de la base des couches convectives à la base de la fine tachocline s’y formant juste en-dessous. Nous concluons par une discussion au niveau du mécanisme de saturation en amplitude dans la dynamo s’opérant dans la simulation ainsi que de la possibilité d’utiliser les oscillations torsionnelles comme précurseurs aux cycles solaires à venir.
Resumo:
Le phénomène du décrochage scolaire est encore très présent dans notre société, particulièrement chez les garçons. Notre mémoire s’intéresse à la question et vise à mieux comprendre la dynamique motivationnelle d’un échantillon (N=11) d’élèves masculins considéré comme étant « à risque » de décrochage au 3e cycle d’une école primaire de Montréal. De plus, notre expérimentation vise spécifiquement à décrire l’influence de l’utilisation d’une activité pédagogique dite « motivante » : le jeu éducatif numérique « Math en Jeu » sur la dynamique motivationnelle à apprendre en mathématiques. Il s’agit d’une étude de cas avec une approche mixte de collecte de données. Nos résultats révèlent quatre profils de dynamique motivationnelle chez les élèves de notre échantillon : 1) les élèves en difficulté en mathématiques, 2) les élèves démotivés et 3) les élèves démotivés et en difficulté en mathématiques, puis, 4) des cas plus complexes. Notre analyse montre que « Math en Jeu » suscite un grand intérêt chez tous les élèves de notre échantillon. L’influence du jeu sur la dynamique motivationnelle semble toutefois mieux convenir aux élèves avec des dynamiques motivationnelles de type « démotivé » ou « démotivé et en difficulté en mathématiques » et dans une certaine mesure, certains élèves catégorisés comme étant des « cas complexes ». Nos résultats indiquent que le jeu pourrait notamment avoir une certaine influence sur le sentiment de compétence à réussir de l’élève. Toutefois, pour être en mesure de mieux décrire et analyser ces influences, il serait préférable de mener des recherches sur une plus longue durée, dans un contexte naturel de classe et sur un échantillon d’élèves plus grand.
Resumo:
Beaucoup de personnes consomment des drogues d’abus de façon récréative ou expérimentale dans leur vie, mais peu d’entre elles développent une toxicomanie. Nous avons exploré, chez le rat, deux facteurs impliqués dans la transition vers la toxicomanie, soit la vitesse à laquelle la drogue parvient au cerveau et le fait d’être sous traitement antipsychotique. Dans une première étude, notre objectif était de déterminer si augmenter la vitesse de livraison de la cocaïne (0.5 mg/kg) par auto-administration intraveineuse (i.v.; livrée en 5 secondes dans un groupe versus 90 secondes dans l’autre) mènerait à une plus grande consommation de celle-ci lors d’un accès prolongé (6 h/j versus 1 h/j), et à une plus grande motivation à obtenir la drogue telle que mesurée sous un ratio de renforcement progressif à une vitesse différente (10 secondes). Nous avons trouvé que le groupe 5 s consommait plus de cocaïne que le groupe 90 s en accès prolongé, mais aussi en accès limité. Cependant, la motivation des deux groupes était la même à la vitesse de 10 s, ainsi qu’à leurs vitesses initiales. Nous pensons que ceci peut être dû à une forme de plasticité du système méso-cortico-limbique survenue suite à l’auto-administration en accès prolongé en conjonction avec l’augmentation de consommation, chez les deux groupes, rendant impossible une distinction de leur motivation. Dans une deuxième série d’études nous avons émis l’hypothèse que l’antipsychotique typique, halopéridol (HAL, 0.5 mg/kg/j), et non l’atypique, aripiprazole (ARI, 1 mg/kg/j), un modulateur dopaminergique, induirait une augmentation de la poursuite de récompense conditionnée (RC) et de la locomotion (LOCO) en réponse à l’amphétamine (AMPH). Cependant, nous avons trouvé une augmentation chez le groupe HAL, mais non ARI, de la réponse RC, trois semaines, mais non une semaine post traitement, ainsi qu’une augmentation de la LOCO, chez le groupe HAL, mais non ARI, une semaine mais non trois semaines post traitement. L’incohérence des résultats entre les deux tests (RC et LOCO) rend leur interprétation difficile. Ces études restent à être explorées d’avantage afin de pouvoir en tirer des conclusions plus éclairées quant à l’impact de la vitesse d’administration de la cocaïne et du traitement antipsychotique sur le développement d’une toxicomanie.
Resumo:
La musique est étroitement liée à la pratique liturgique des Grecs de l’Antiquité. Un scrupuleux examen des sources confirme l’omniprésence de l’aulos au sein du sacrifice sanglant, un fait qui semble ne pas s’accorder avec certains propos anciens dépréciateurs de l’instrument. Grâce aux sources textuelles et surtout iconographiques, on constate que l’importance attribuée au rôle de la musique, et plus spécialement de l’aulos, dans le sacrifice varie d’une étape rituelle à l’autre. Certaines actions cérémonielles, comme la procession, s’accomplissent au son de la musique, alors que d’autres, comme l’immolation, semblent en être dépourvues. Puis, en observant quelques représentations de sacrifices humains, on remarque que la musique est abordée différemment en fonction du contexte et de la nature du rituel sacrificiel dans lequel elle s’insère. Ainsi, la façon dont on traite la musique dans les sources peut fournir des indices quant aux principes idéologiques relatifs aux différents rituels.
Resumo:
L’explosion de la nanotechnologie a permis l’intégration d’une multitude de nanoparticules dans des produits de consommation. Les nanoparticules d’argent (nAg) sont les plus utilisées à ces fins, selon les derniers recensements disponibles. La plupart des études toxicologiques, à ce jour, ont fait état de l’implication très évidente de l’ion Ag+ dans la toxicité aigüe des nAg; cependant, quelques études ont mis en évidence des effets toxicologiques dus aux nAg. Il y a un certain consensus à propos d’un risque de contamination des eaux douces via leur rejet par les effluents des réseaux d’aqueducs. Puisque les concentrations en Ag+ sont généralement très faibles dans les eaux douces (de l’ordre du pg L-1), de par la formation de complexes non-labiles avec des thiols (organiques et inorganiques) et des sulfures, la toxicité inhérente aux nAg pourrait ne pas être négligeable- comparativement aux tests en laboratoires. Cette étude s’intéressait donc aux mécanismes de bioaccumulation d’argent par l’algue verte C. reinhardtii suite à l’exposition à des nAg de 5 nm (enrobage d’acide polyacrylique). La bioaccumulation d’argent pour l’exposition à Ag+ servait de point de comparaison; également, les abondances de l’ARNm de l’isocitrate lyase 1 (ICL1) et de l’ARNm de Copper Transporter 2 (CTR2) étaient mesurées comme témoins biologiques de la bioaccumulation de Ag+. Les expériences ont été menées en présence d’un tampon organique (NaHEPES, 2 x 10-2 M; Ca2+, 5x 10-5 M) à pH de 7,00. Pour des expositions à temps fixe de 2 heures, la bioaccumulation d’argent pour nAg était supérieure à ce qui était prédit par sa concentration initiale en Ag+; cependant, il n’y avait pas de différence d’abondance des ARNm de ICL1 et de CTR2 entre nAg et Ag+. D’un autre côté, pour une exposition à temps variables, la bioaccumulation d’argent pour nAg était supérieure à ce qui était prédit par sa concentration initiale en Ag+ et une augmentation de l’abondance de l’ARNm de ICL1 était notée pour nAg. Cependant, il n’y avait aucune différence significative au niveau de l’abondance de l’ARNm de CTR2 entre nAg et une solution équivalente en Ag+. L’ajout d’un fort ligand organique (L-Cystéine; log K= 11,5) à une solution de nAg en diminuait radicalement la bioaccumulation d’argent par rapport à nAg-sans ajout de ligand. Par contre, l’abondance des ARNm de ICL1 et de CTR2 étaient stimulées significativement par rapport à une solution contrôle non-exposée à nAg, ni à Ag+. Les résultats suggéraient fortement que les nAg généraient des ions Ag+ au contact de C. reinhardtii.
Resumo:
Le réseau magnétique consiste en un ensemble de petites concentrations de flux magnétique sur la photosphère solaire. Vu sa petite échelle de taille et de flux, à la limite de détection, son comportement n'est connu que depuis récemment. Les interactions du réseau sont pourtant cruciales afin de comprendre la dynamo et l'irradiance solaires, car beaucoup de caractérisques du réseau dépendent de ces interactions. De plus, le réseau est la principale contribution magnétique surfacique à l'irradiance solaire. Les modèles existants du réseau ne tenaient jusqu'à maintenant pas compte des interactions du réseau. Nous avons tenté de combler cette lacune avec notre modèle. Nos simulations impliquent une marche aléatoire en 2D de tubes de flux magnétiques sur la photosphère solaire. Les tubes de flux sont injectés puis soumis à des règles de déplacement et d'interaction. L'injection se fait à deux échelles, respectivement la plus petite et la plus grande observables: les tubes de flux élémentaires et les taches solaires. Des processus de surface imitant ceux observés sont inclus, et consistent en l'émergence, la coalescence, l'annulation et la submergence de flux. La fragmentation des concentrations n'est présente que pour les taches, sous forme de désintégration libérant des tubes de flux. Le modèle est appliqué au cycle solaire 21 (1976-1986, le mieux documenté en termes de caractéristiques de taches solaires. Il en résulte des réponses à deux questions importantes en physique solaire. La première est: l'injection de flux magnétique à deux échelles très distinctes peut-elle conduire à une distribution de flux en loi de puissance comme on l'observe, si l'on inclut des processus de surface qui retraitent le flux? Cette question est étroitement liée à l'origine de la dynamo solaire, qui pourrait produire ladite distribution. Nous trouvons qu'on peut effectivement produire une telle distribution avec ce type d'injection et ce type de processus de surface. Cela implique que la distribution de flux observée ne peut servir à déterminer quel type de dynamo opère dans le Soleil. La deuxième question à laquelle nous avons apporté un élément de réponse est celle à savoir combien de temps il faut au réseau pour retrouver son état d'activité de base. Cet état a été observé lors du minimum de Maunder en 1645-1715 et touche de près la question de l'influence de l'activité solaire sur le climat terrestre. Le récent minimum d'activité est considéré par certains comme ayant atteint cet état. Nous trouvons plutôt que ça n'a pas été le cas. En effet, le temps de relaxation du réseau que nous avons calculé est supérieur au temps écoulé entre la fin du dernier cycle solaire d'activité et celui de l'amorce du présent cycle.