973 resultados para Carr-Purcell-Meiboom-Gill
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Travail d'intégration réalisé dans le cadre du cours PHT-6113.
Resumo:
Certains gènes, modulant la sérotonine (5-hydroxytryptamine, 5-HT), ont été associés aux tempéraments liés à l'anxiété. Une limitation dans la plupart de ces études est que les études sont de nature transversale et l'anxiété a été évaluée à un seul point dans le temps. De plus, seules quelques études ont été réalisées chez les enfants. Le but de la présente étude était d'étudier le rôle des gènes HTR2A et TPH2 dans le développement des trajectoires d’anxiété durant l’enfance. Les associations entre ces gènes, ces trajectoires, le diagnostic d’anxiété à l'âge adulte et les différences entre les sexes ont été examinées dans l'Étude Longitudinale des Enfants de Maternelle au Québec, composée de 3185 enfants recrutés en 1986-1987. Leur anxiété a été cotée par leur professeur annuellement entre 6 et 12 ans. Ces cotes ont été modélisées en trajectoires comportementales. Les données genotypées de 5-HT, disponibles pour 1068 personnes, ont été analysées en utilisant les statistiques du Chi-carré, des régressions logistiques et des analyses de variance. Sur les 37 polymorphismes étudiés, plusieurs ont été associés à la trajectoire de forte anxiété, tels le 5-HTR2A (rs1328684, rs95534511, rs1745837, rs7984966, 7330636) et TPH2 (rs11179050, rs11179052, rs1386498). Bien que les trajectoires d’anxiété en enfance n’aient pas prédit le diagnostic d'anxiété à 21 ans, les relations ont été trouvées entre ce diagnostic, HTR2A et les polymorphismes du nucléotide simple (PNS) de TPH2. On remarque que les PNS associés à l’anxiété durant l’enfance et l’âge adulte ne sont pas les mêmes. La force d'association entre les gènes étudiés et l'anxiété diffère entre les garçons et les filles. Cette étude est la première à identifier une association entre les variantes TPH2, 5-HTR2A et les trajectoires d’anxiété en enfance. Les études futures devraient reproduire les résultats dans d'autres échantillons, enquêter sur l'interaction avec les facteurs de stress, et étudier la pertinence fonctionnelle de la PNS.
Resumo:
Ce mémoire présente les résultats d'une recherche portant sur cinq villes colombiennes sélectionnées selon leur taille et le nombre d’emplois par secteur économique, d’après les données des recensements du Département Administratif National des Statistiques (DANE) qui s’étalent entre 1985 et 2005. La méthode d'analyse adoptée est de type descriptif et met l'accent sur des facteurs de taille et de nombre d’habitants afin d’évaluer la hiérarchie entre les villes entre 1985 et 2005, et de comprendre, pour la même période, la spécialisation des cinq villes à travers leurs données d’emplois respectives. Cette méthode est complétée par l’utilisation des outils d’évaluation régionale et urbaine pour comprendre le processus de polarisation en Colombie. L’économie colombienne est dominée par les villes de grande taille ou les régions métropolitaines qui constituent les plus grands marchés (économies d'agglomération). Cependant, ces zones (Bogota, Medellin, Cali, Barranquilla et Bucaramanga) ne sont pas intégrées. Par conséquent, la prédominance de ces centres s’est considérablement réduite.
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (www.bib.umontreal.ca\MU)
Resumo:
Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.
Resumo:
Mesures effectuées dans le laboratoire de caractérisation optique des semi-conducteurs du Prof. Richard Leonelli du département de physique de l'université de Montréal. Les nanofils d'InGaN/GaN ont été fournis par le groupe du Prof. Zetian Mi du département de génie électrique et informatique de l'université McGill.
Resumo:
Cette étude explore la transformation des critères normatifs qui donnent accès au statut de femmes respectables à travers le concept de nouveau sujet féminin discuté par Radner (1999), Gill (2008; 2012) et McRobbie (1993; 2009) où l’idée de recherche active de « sexiness » chez les femmes à l’époque contemporaine est centrale. Le post-féminisme, une formation discursive qui émerge dans les années 1980, est identifié comme étant à l’origine de ces transformations. Cette position identitaire permettrait aux femmes de résister aux stigmates attachés à celles qui se posent comme sujet sexuel actif plutôt que comme objet sexuel passif et conduirait ainsi à l’« empowerment » sexuel. Or, cette vision du nouveau sujet féminin est contestée puisqu’elle ne représenterait qu’une seule possibilité d’émancipation à travers le corps et deviendrait par sa force normative un nouveau régime disciplinaire du genre féminin. L’interprétation valable à donner au nouveau sujet féminin représente un débat polarisé dans les milieux féministes et ce mémoire cherche à y apporter des éléments de discussion par l’étude des motivations des femmes à s’inscrire à des cours de pole-fitness et des significations qu’elles donnent à leur pratique. Ce mémoire apporte des éléments à la compréhension de l’impact de cette recherche de « sexiness » sur la subjectivité des femmes à travers les concepts de pratiques disciplinaires et stratégies de résistance.
Resumo:
Introduction : Les accéléromètres sont actuellement les appareils les plus utilisés pour mesurer le niveau d’activité physique, et ce, parce qu'ils évaluent les niveaux d'activité physique de façon objective. Toutefois, les mouvements humains sont difficiles à mesurer, et de nombreuses limitations doivent être prises en considération pour la bonne utilisation des accéléromètres. Les études présentées s’intéressent donc à la validité de la fonction podomètre des accéléromètres ainsi qu’à la validation de la composante accéléromètre d’un nouvel appareil multicapteur (SenseDoc). Méthode : Les sujets ayant participé à la première étude, qui consistait en la validation de la fonction podomètre des accéléromètres, ont marché sur un tapis roulant à trois vitesses différentes (2,5 km/h, 3,5 km/h et 4,8 km/h) pendant 5 minutes par palier. Un accéléromètre (ActiGraph GT3X) porté à la ceinture a enregistré le nombre de pas tandis qu'une caméra a enregistré la marche des participants. Pour la seconde étude, les participants portaient un accéléromètre Actigraph et un SenseDoc à la hanche. Les données brutes des accéléromètres et la mesure de la consommation d’oxygène par calorimétrie indirecte ont été mesurées lors de 14 activités réalisées en laboratoire allant de sédentaires à vigoureuses. Résultats : La première étude indique que les accéléromètres ont détecté seulement 53 % des pas à 2,5 km/h, 82 % à 3,5 km/h et 91 % à 4,8 km/h pour les personnes non obèses. Pour les personnes obèses, l'accéléromètre a détecté 47 % des pas à 2.5 km/h, 67 % à 3.5 km/h et 100 % à 4.8 km/h, des résultats significativement différents des personnes non obèses. La seconde étude confirme pour sa part que le SenseDoc est un outil valide de mesure du niveau d’activité physique. Les accéléromètres possèdent une bonne capacité prédictive de la dépense énergétique avec des valeurs de R carré de 0,84 et 0,80 respectivement pour l'Actigraph et le SenseDoc. Conclusion : À vitesse de marche lente, les accéléromètres sous-estiment le nombre de pas, et ce, dans une plus large mesure chez les personnes obèses que chez les personnes non obèses. Également, une méthode valide et transparente de transformation de données brutes d’accélérométrie a été divulguée dans l’étude avec le SenseDoc. Les travaux présentés dans ce mémoire visent à améliorer l’utilisation en milieu clinique et en recherche des accéléromètres et ouvrent la voie à une plus grande uniformité entre les études utilisant différents types d’accéléromètres.
Resumo:
Les suspensivores ont la tâche importante de séparer les particules de l'eau. Bien qu'une grande gamme de morphologies existe pour les structures d'alimentation, elles sont pratiquement toutes constituées de rangées de cylindres qui interagissent avec leur environnement fluide. Le mécanisme de capture des particules utilisé dépend des contraintes morphologiques, des besoins énergétiques et des conditions d'écoulement. Comme nos objectifs étaient de comprendre ces relations, nous avons eu recours à des études de comparaison pour interpréter les tendances en nature et pour comprendre les conditions qui provoquent de nouveaux fonctionnements. Nous avons utilisé la dynamique des fluides numérique (computational fluid dynamics, CFD) pour créer des expériences contrôlées et pour simplifier les analyses. Notre première étude démontre que les coûts énergétiques associés au pompage dans les espaces petits sont élevés. De plus, le CFD suggère que les fentes branchiales des ptérobranches sont des structures rudimentaires, d'un ancêtre plus grande. Ce dernier point confirme l'hypothèse qu'un ver se nourrit par filtration tel que l'ancêtre des deuterostomes. Notre deuxième étude détermine la gamme du nombre de Reynolds number critique où la performance d'un filtre de balane change. Quand le Re est très bas, les différences morphologiques n'ont pas un grand effet sur le fonctionnement. Cependant, une pagaie devient une passoire lorsque le Re se trouve entre 1 et 3,5. Le CFD s’est dévoilé être un outil très utile qui a permis d’obtenir des détails sur les microfluides. Ces études montrent comment la morphologie et les dynamiques des fluides interagissent avec la mécanisme de capture ou de structures utilisées, ainsi que comment des petits changements de taille, de forme, ou de vitesse d'écoulement peuvent conduire à un nouveau fonctionnement.
Resumo:
La civilisation de l’Indus marque les esprits par une apparente uniformité de la culture matérielle sur la totalité de son territoire (environ 1 million de km carré) durant sa période d’apogée (2600-1900 av. J.-C.). Cette étude cherche à tester deux hypothèses qui pourraient expliquer cette homogénéité : 1) Un pouvoir centralisateur contrôlant la production artisanale; et 2) Un vaste réseau d’échanges et de distribution de la production. Dans ce but, la grande majorité des publications accessibles portant sur la production artisanale d’objets en céramique, en pierres semi-précieuses, en coquillage et en métal ont été inventoriées et analysées. Axée sur la spécialisation du travail artisanal, l’étude a identifié quelques objets dits de prestige (perles classiques harappéennes, bracelets en grès cérame) très probablement liés à une élite. La nature de cette élite est ensuite examinée et un nouveau modèle d’organisation sociopolitique de cette civilisation est proposé.
Resumo:
Montréal, Québec se construit vers une forme urbaine compacte, mais il en relève des questionnements quant aux effets sur l’abordabilité et l’accession à la propriété. En tenant compte du processus de la densification urbaine, une enquête sur une série de projets de condominiums immobiliers à travers la ville est menée afin de divulguer les prix des projets nouveaux ou en construction. Au préalable, ceci survole la littérature et les études actuelles portant sur la planification urbaine, notamment celles qui sont reliées au Smart Growth, études dans lesquelles le contexte de densification et de tendances consuméristes à préférer les formes urbaines étalées est mis en évidence. Essentiellement, Moroni (2010) souligne l’approche dichotomique en planification urbaine entre les perspectives «teleocratic» et «nomocratic». La densification montréalaise actuelle contemporaine s’exprime par une multitude de modèles de condos conformes aux nouvelles tendances démographiques et des modes de vie. En s’appuyant sur les critères du programme Accès Condos, sur les critères du SCHL (32% du revenu) et sur le revenu médian des ménages, le niveau d’accessibilité à la propriété d’un condominium peut être mesuré. Les résultats indiquent que selon ces critères, les logements de style condominium, neufs et en construction, sont abordables. L’analyse contribue empiriquement à la littérature en exposant les liens entre les stratégies actuelles de densification urbaine avec l’abordabilité des logements condos. La recherche porte un regard nouveau sur le phénomène condo à Montréal et ses tendances démographiques. La ville est divisée selon le modèle Burgess et la recherche mène un sondage comparatif des prix pour déterminer l’abordabilité. Les résultats suggèrent que les projets condos actuels sont relativement abordables pour les ménages avec un revenu médian et plus, selon Accès Condos.
Resumo:
Il s'agit d'une hypothèse largement répandue que l’égo-dystonie et l’égo-syntonie caractérisent les obsessions dans les troubles des conduites alimentaires (TCA) et que ces facteurs sont cliniquement pertinents pour la conceptualisation et le traitement des TCA. Cependant, les résultats empiriques sur ce sujet sont rares. Compte tenu du chevauchement reconnu entre les TCA, notamment l'anorexie et la boulimie (BN), et le trouble obsessionnel-compulsif (TOC) dans la phénoménologie et les caractéristiques psychologiques, un programme de thérapie cognitive basée sur les inférences (TBI) de 24 semaines, démontré efficace dans le traitement des TOC, a été adapté pour traiter les TCA. La recherche sur le TOC suggère que la transformation des pensées intrusives en obsessions est liée à la mesure dans laquelle les pensées intrusives menacent des perceptions fondamentales du soi et de l’identité. Cette thèse a pour objectif d'examiner le lien entre l’égo-dystonie et les TCA. Pour se faire, nous avons exploré le lien entre la nature égo-dystone des obsessions chez les patients souffrant d'un TCA et la peur de l'image de soi. Nous avons également étudié la relation entre la sévérité des symptômes TCA et l’égo-dystonie dans les obsessions. En outre, nous avons investigué les différences dans la présence de pensées égo-dystones et de peur face à son identité entre des sujets non-cliniques et des personnes atteintes d’un TCA. Enfin, nous avons comparé le degré d’égo-dystonie dans les pensées de personnes atteintes d’un TCA à celui dans les pensées d’individus souffrant d’un TOC. L’égo-dystonie dans les pensées a été mesurée par l'Ego Dystonicity Questionnaire (EDQ) et le degré de peur face à l’identité a été mesuré par le Fear of Self Questionnaire (FSQ) d’une part dans un échantillon de femmes souffrant d’un TCA (n = 57) et d’autre part dans un échantillon de participantes non-cliniques (n = 45). Les résultats révèlent que l’égo-dystonie et la peur face à l’identité étaient fortement corrélées à la fois dans l’échantillon clinique et non-clinique. Les scores de l’EDQ n’étaient pas significativement corrélés à la sévérité des symptômes TCA à l'exception de la sous-échelle d’irrationalité de l’EDQ qui était fortement associée à la sévérité des comportements compulsifs compensatoires. Les participantes souffrant d'un TCA avaient des scores significativement plus élevés à l’EDQ et au FSQ que les sujets non-cliniques. Ensuite, une étude de cas décrit l’application du programme de thérapie cognitive TBI pour une femme de 35 ans avec un diagnostic de BN. La pathologie TCA s’est significativement améliorée au cours de la TBI et six mois suivant la thérapie. Cette étude de cas met en évidence l'importance de cibler les idées surévaluées, les doutes et le raisonnement face au soi et à l’identité dans le traitement psychologique pour les TCA. Enfin, l’objectif final de cette thèse était d’examiner les changements au niveau (1) des symptômes TCA, (2) du degré d’égo-syntonie dans les obsessions, et (3) des mesures de peur face à l’identité, de motivation, d’humeur et d’anxiété au cours de la TBI et au suivi post six mois. L’égo-dystonie, la peur face à l’identité, les symptômes TCA et le stade motivationnel ont été mesurés chez 15 femmes souffrant de BN au cours du traitement et six mois après la TBI. Quatre vingt pourcent de l’échantillon, soit 12 des 15 participantes, ont démontré une diminution cliniquement significative des symptômes TCA et 53% ont cessé leurs comportements compensatoires au suivi post six mois. Les retombées cliniques relatives au traitement des TCA sont discutées.
Resumo:
Les personnes ayant une aphasie, un trouble acquis du langage causé par une lésion cérébrale, parviennent temporairement à mieux prononcer des mots quand elles les chantent dans des chansons familières ou en chant choral. Dans cette thèse nous examinons comment le chant peut entrainer des bénéfices durables sur le langage et la communication de ces personnes. Deux contextes sont envisagés : (1) une thérapie chantée de l’aphasie, la Melodic intonation therapy en anglais (MIT), et (2) une activité de loisir, une chorale de personnes aphasiques. La première étude de cette thèse (Chapitre 2) est une recension critique de la variété de recherches dont la MIT a fait l’objet. Nous soutenons que plusieurs protocoles de traitement présentés sous le label MIT ne correspondent pas à la MIT originale et que les effets immédiats du chant, qui sont examinés dans des études transversales, ne devraient pas être confondus avec les effets durables, observés dans des études longitudinales. Cette grille de lecture permet de réconcilier des conclusions d’études contradictoires à propos des mécanismes de la MIT et met en évidence des questions de recherches en suspens, notamment sur la contribution relative du rythme et de la hauteur musicale dans les effets de cette thérapie, que nous traitons dans le troisième chapitre. Nous y rapportons une étude avec trois participants ayant une aphasie de Broca chronique. Trois traitements ont été comparés dans un devis en carré latin : une thérapie comportant de la parole chantée (i.e., avec rythme et hauteurs musicales) proche de la MIT originale, une thérapie équivalente avec de la parole uniquement rythmée, et une thérapie comportant de la parole normale. Puisque seule la thérapie chantée a amélioré le langage dans le discours naturel des participants, nous soutenons que le chant dans son entièreté est un élément actif de la MIT. Enfin, dans le quatrième chapitre, nous présentons la première étude de groupe contrôlée, randomisée et à simple insu tentant de déterminer si le chant pratiqué comme simple loisir peut aussi avoir un effet bénéfique dans la réadaptation de l’aphasie. Nous avons comparé les progrès en communication fonctionnelle de 17 personnes ayant différents types d’aphasies chroniques réparties dans un groupe chorale, où elles devaient participer à six mois d’activité hebdomadaire de chorale, un groupe théâtre, où elles devaient suivre un atelier de théâtre, et une liste d’attente pour ces deux activités seulement. Nos résultats ont montré une corrélation positive entre l’amélioration de la communication fonctionnelle et le nombre de présences aux activités sociales, quelles qu’elles soient, mais nous n’avons pas trouvé d’effet spécifique à l’activité de chorale. Ainsi, la pratique du chant en chorale pourrait avoir un potentiel thérapeutique général, mais pas spécifique à l’utilisation du chant. D’autres études sont toutefois nécessaires pour le confirmer. Ainsi, cette thèse soutient globalement que dans la réadaptation de l’aphasie, le chant apporte des bénéfices spécifiques sur le langage lorsqu’il est intégré dans une thérapie comme la MIT et des bénéfices comparables à d’autres activités sociales lorsqu’il est pratiqué comme activité de loisir dans une chorale.
Resumo:
Cette thèse présente des reconstructions de l'irradiance totale et spectrale durant les 400 dernières années à l'aide des modèles pour l'irradiance totale et l'irradiance spectrale dans l'ultraviolet développés à l'Université de Montréal. Tous deux sont basés sur la simulation de l'émergence, de la fragmentation et de l'érosion des taches solaires, qui permet d'obtenir une distribution de l'aire des taches sombres et des facules brillantes en fonction du temps. Ces deux composantes sont principalement responsables de la variation de l'irradiance sur l'échelle de temps de la décennie, qui peut être calculée en sommant leur émissivité à celle de la photosphère inactive. La version améliorée du modèle d'irradiance solaire spectrale MOCASSIM inclut une extension de son domaine spectral entre 150 et 400 nm ainsi que de son domaine temporel, débutant originalement en 1874 et couvrant maintenant la période débutant en 1610 jusqu'au présent. Cela permet de reconstruire le spectre ultraviolet durant le minimum de Maunder et de le comparer à celui du minimum de 2009. Les conclusions tirées de cette étude spécifient que l'émissivité dans l'ultraviolet était plus élevée en 2009 que durant le minimum de Maunder, que le niveau de base de la photosphère non magnétisée contribuait pour environ les deux tiers de cette différence et que les structures magnétiques restantes étaient responsables pour le tiers restant. Le modèle d'irradiance totale a vu son domaine temporel étendu sur la même période et une composante représentant le réseau magnétique de façon réaliste y a été ajoutée. Il a été démontré que les observations des 30 dernières années ne sont bien reproduites qu'en incluant la composante du Soleil non magnétisé variable à long terme. Le processus d'optimisation des paramètres libres du modèle a été effectué en minimisant le carré de la somme de l'écart journalier entre les résultats des calculs et les données observées. Les trois composites disponibles, soit celui du PMOD (Physikalisch Meteorologisches Observatorium Davos), d'ACRIM (ACtive Radiometer Irradiance Monitor) et du IRMB (Institut Royal Météorologique de Belgique), ne sont pas en accord entre eux, en particulier au niveau des minima du cycle d'activité, et le modèle permet seulement de reproduire celui du PMOD avec exactitude lorsque la composante variable à long terme est proportionnelle au flux radio à 10.7 cm. Toutefois, en utilisant des polynômes de Lagrange pour représenter la variation du Soleil inactif, l'accord est amélioré pour les trois composites durant les minima, bien que les relations entre le niveau minimal de l'irradiance et la longueur du cycle précédent varient d'un cas à l'autre. Les résultats obtenus avec le modèle d'irradiance spectrale ont été utilisés dans une étude d'intercomparaison de la réponse de la photochimie stratosphérique à différentes représentations du spectre solaire. Les simulations en mode transitoire d'une durée de 10 jours ont été effectuées avec un spectre solaire constant correspondant soit à une période d'activité minimale ou à une période d'activité maximale. Ceci a permis d'évaluer la réponse de la concentration d'ozone à la variabilité solaire au cours d'un cycle et la différence entre deux minima. En plus de ceux de MOCASSIM, les spectres produits par deux modèles ont été utilisés (NRLSSI et MGNM) ainsi que les données de SIM et SOLSTICE/SORCE. La variabilité spectrale de chacun a été extraite et multipliée à un spectre de base représentant le minimum d'activité afin de simuler le spectre au maximum d'activité. Cela a été effectué dans le but d'isoler l'effet de la variabilité seule et d'exclure celui de la valeur absolue du spectre. La variabilité spectrale d'amplitude relativement élevée des observations de SORCE n'a pas provoqué l'inversion de la réponse de l'ozone à hautes altitudes obtenues par d'autres études, ce qui peut être expliqué par la nature même du modèle utilisé ainsi que par sa limite supérieure en altitude. Finalement, la réponse de l'ozone semble être à peu près proportionnelle à la variabilité de l'intégrale du flux pour lambda<241 nm. La comparaison des concentrations d'ozone obtenues avec les spectres originaux au minimum d'activité démontre que leur différence est du même ordre de grandeur que la variabilité entre le minimum et le maximum d'un cycle typique. Le problème du choix de la reconstruction de l'irradiance à utiliser pour les simulations climatiques dans le passé demeure non résolu.