951 resultados para Modélisation du champ électrique


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Demonstration videos can be found on fr.linkedin.com/in/doriangomez/

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La stratégie actuelle de contrôle de la qualité de l’anode est inadéquate pour détecter les anodes défectueuses avant qu’elles ne soient installées dans les cuves d’électrolyse. Des travaux antérieurs ont porté sur la modélisation du procédé de fabrication des anodes afin de prédire leurs propriétés directement après la cuisson en utilisant des méthodes statistiques multivariées. La stratégie de carottage des anodes utilisée à l’usine partenaire fait en sorte que ce modèle ne peut être utilisé que pour prédire les propriétés des anodes cuites aux positions les plus chaudes et les plus froides du four à cuire. Le travail actuel propose une stratégie pour considérer l’histoire thermique des anodes cuites à n’importe quelle position et permettre de prédire leurs propriétés. Il est montré qu’en combinant des variables binaires pour définir l’alvéole et la position de cuisson avec les données routinières mesurées sur le four à cuire, les profils de température des anodes cuites à différentes positions peuvent être prédits. Également, ces données ont été incluses dans le modèle pour la prédiction des propriétés des anodes. Les résultats de prédiction ont été validés en effectuant du carottage supplémentaire et les performances du modèle sont concluantes pour la densité apparente et réelle, la force de compression, la réactivité à l’air et le Lc et ce peu importe la position de cuisson.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse traite de la modélisation numérique de la réponse vibro-acoustique de structures sandwiches-composites avec matériaux viscoélastiques intégrés soumises à différents types d’excitations mécaniques et acoustiques. Dans une première phase, nous avons utilisé une approche de synthèse modale pour calculer les principaux indicateurs vibro-acoustiques de la structure : la vitesse quadratique, la puissance rayonnée, la perte par transmission…Ensuite, l’intégrale de Rayleigh a été exploitée pour calculer la puissance rayonnée de chaque structure. L’obstacle majeur que nous avons alors surmonté, était de gérer efficacement la dépendance en fréquence des propriétés de la couche viscoélastique dans l’approche de synthèse modale. Dans une second phase, en partant du champ vibratoire calculé dans la première étape, nous avons développé une méthode hybride FEM-TMM (méthode des éléments finis – méthode de matrices de transfert) pour prédire avec précision et en un temps de calcul acceptable, et jusqu’en hautes fréquences, les principaux paramètres de conception vibro-acoustique de ces structures, notamment l’amortissement équivalent et les nombres d’ondes suivant les deux directions spatiales x et y de propagation de l’onde acoustique. Les validations numériques que nous avons effectuées, montrent bien la robustesse de l'algorithme que nous avons développé. Ce dernier reste toutefois limité à des structures planes. Dans une troisième phase de ce travail, une étude paramétrique sur l’effet de l’emplacement et de la forme de la couche viscoélastique a été réalisée. Cette étude a été faite en se servant de la méthode hybride FEM-TMM pour calculer la réponse acoustique (puissance transmise et perte par transmission).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En tant qu'enseignant dans le programme des Techniques du génie électrique (T.G.E, anciennement Électrotechnique) nous avons pu constater qu'en moins de 10 ans, le micro-ordinateur est devenu une réalité qui concerne pratiquement tous les cours des trois années de formation, alors qu'ils n'étaient utilisés dans aucun cours avant. Cet exemple est typique de la révolution informatique que nous vivons actuellement et qui pénètre tous les secteurs d'activités de notre société. Dans ce contexte de changements importants, les enseignants ont malgré eux un rôle de pionniers car ils n'ont que peu de ressources à leur disposition pour maîtriser cette technologie et l'intégrer dans leur enseignement. Ce virage informatique, s'il est à peine commencé dans l'enseignement général, pose de nombreux problèmes aux enseignants du secteur professionnel qui doivent trouver la place et déterminer le rôle que doit jouer cette nouvelle technologie dans l'enseignement. La majorité des recherches sur les didacticiels ont pour objet les logiciels qui cherchent à assurer des tâches d'enseignement, tels que les tests, exerciseurs ou tutoriels, et auxquels s'ajoutent maintenant les applications multimédia. Une étude menée dans les collèges (Mataigne, 1992) montre cependant que ce sont d'abord les logiciels de bureautique et ensuite les logiciels de programmation et de simulation-modélisation, qui sont de loin les plus utilisés dans l'enseignement. S'il n'existe pratiquement pas de logiciels de bureautique ou de programmation conçus pour l'enseignement, les logiciels de simulation et de modélisation constituent plus des deux tiers des développements de didacticiels de ces dix dernières années pour le réseau collégial. Ces logiciels, dont la forme et le contenu se rapprochent plus de logiciels conçus pour les entreprises que de logiciels pédagogiques traditionnels, appartiennent à une catégorie où il se fait très peu de recherche didactique et où il n'existe pas de modèle de développement spécifique. Par ailleurs, nous avons constaté que la grande majorité des auteurs de didacticiels sont des enseignants qui réalisent parfois leur logiciel eux-mêmes. La conception d'un didacticiel étant une tâche particulièrement complexe, il nous a semblé utile d'analyser les différences entre les didacticiels traditionnels et les logiciels de simulation-modélisation afin de dégager la problématique du développement de ces derniers. Après avoir analysé les différents modèles de développement proposés par la recherche ou par le génie informatique, nous nous proposons, dans cette recherche, de dégager et de justifier une méthodologie de développement spécifique aux logiciels de simulation-modélisation fondée sur des éléments empruntés aux modèles du génie logiciel et de la didactique, sur notre expérience de développement et sur celle d'experts dans le domaine.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

"Thèse présentée à la Faculté des études supérieures de l'Université de Montréal en vue de l'obtention du grade de Docteur en Droit (LL.D.) Et à A la faculté de droit Jean Monnet en vue de l'obtention du doctorat en Sciences Juridiques"

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse s’intéresse à la gouvernance de changements en contextes pluralistes. Nous souhaitons mieux comprendre l’exercice de gouvernance déployé pour développer et implanter un changement par le biais d’une politique publique visant la transformation d’organisations pluralistes. Pour ce faire, nous étudions l’émergence et l’implantation de la politique encadrant la création de groupes de médecine de famille (GMF) à l’aide d’études de cas correspondant à cinq GMF. Les cas sont informés par plus de cents entrevues réalisées en deux vagues ainsi que par une analyse documentaire et des questionnaires portant sur l’organisation du GMF. Trois articles constituent le cœur de la thèse. Dans le premier article, nous proposons une analyse de l’émergence et de l’implantation de la politique GMF à l’aide d’une perspective processuelle et contextuelle développée à partir du champ du changement organisationnel, tel qu’étudié en théorie des organisations. Les résultats démontrent que la gestion du changement en contexte pluraliste est liée à de multiples processus prescrits et construits. Nous avons qualifié ce phénomène de régulation de l’action social (regulation of collective action). La conceptualisation développée et les résultats de l’analyse permettent de mieux comprendre les interactions entre les processus, le contexte et la nature du changement. Le deuxième article propose une conceptualisation de la gouvernance permettant l’étude de la gouvernance en contextes pluralistes. La conceptualisation de la gouvernance proposée tire profit de plusieurs courants des sciences politiques et de l’administration publique. Elle considère la gouvernance comme un ensemble de processus auxquels participent plusieurs acteurs détenant des capacités variables de gouvernance. Ces processus émergent des actions des acteurs et des instruments qu’ils mobilisent. Ils permettent la réalisation des fonctions de la gouvernance (la prospective, la prise de décisions ainsi que la régulation) assurant la coordination de l’action collective. Le troisième article propose, comme le premier, une analyse de l’émergence et de l’implantation de la politique mais cette fois à l’aide de la conceptualisation de la gouvernance développée dans l’article précédent. Nos résultats permettent des apprentissages particuliers concernant les différentes fonctions de la gouvernance et les processus permettant leur réalisation. Ils révèlent l’influence du pluralisme sur les différentes fonctions de gouvernance. Dans un tel contexte, la fonction de régulation s’exerce de façon indirecte et est étroitement liée aux fonctions de prospective et de prise de décisions. Ces fonctions rendent possibles les apprentissages et le développement de consensus nécessaires à l’action collective. L’analyse des actions et des instruments a permis de mieux comprendre les multiples formes qu’ils prennent, en lien avec les contextes dans lesquels ils sont mobilisés. Les instruments indirects permettent les interactions (p. ex. commission d’étude, comité ou réunion) et la formalisation d’ententes entre acteurs (p. ex. des contrats ou des protocoles de soins). Ils se sont révélés fondamentaux pour coordonner les différents acteurs participant à la gouvernance, et ce tant aux niveaux organisationnel qu’inter organisationnel. Les résultats démontrent que les deux conceptualisations contribuent à l’étude de la gouvernance du changement. Nous avons développé deux perspectives inspirées par les sciences politiques, l’administration publique et la théorie des organisations et les analyses qu’elles ont permises ont révélé leur complémentarité. Les résultats permettent de mieux comprendre les processus impliqués dans un tel changement ainsi que leur lien avec les efforts déployés aux différents niveaux par les acteurs mobilisant leurs capacités de gouvernance pour influencer et construire la politique GMF.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette thèse entend contribuer à la compréhension du processus de conception architecturale par le biais du concept de tectonique, notion dont l’historicité confirme une certaine diversité de significations, mais qui suscite une réflexion fondamentale sur le rapport entre l’esthétique architecturale et les moyens constructifs. La connaissance technique de la construction, constituée principalement au 18ème siècle, permettra une nouvelle réflexion sur le rapport entre l’esthétique architecturale et les moyens constructifs. Au 19ème siècle, moment de l’apparition du concept de « tectonique » dans le contexte du débat sur la notion de style, l’indéniable contribution de l’architecte et théoricien Gottfried Semper reconnaît la complexité matérielle de l’édifice. La reprise du terme au 20ème siècle par l’historien et théoricien Kenneth Frampton va quant à elle déplacer le sens de la tectonique vers l’idée d’un « potentiel d’expression constructive ». Ces deux auteurs représentent deux grandes approches tectoniques convergeant sur la nécessité, pour toute théorie de l’architecture, d’encourager une réflexion critique de la construction. Cette thèse se développe en deux parties, l’une retraçant l’histoire et les enjeux de la tectonique, l’autre, de nature plus concrète, cherchant à tester l’actualité du concept à travers une série d’analyses tectoniques de projets modernes et contemporains. À la croisée de deux contextes géographiques différents, le Canada et le Brésil, le corpus de projets de concours que nous avons constitué considère la tectonique comme un phénomène transculturel. Nous formulons l’hypothèse d’une « tectonique du projet », c’est-à-dire d’un espace théorique dans lequel les questions relatives au bâtiment s’élaborent dans des « tensions » dialectiques. L’actualité des catégories semperiennes, dans lesquelles les différents « éléments » du bâtiment représentent différentes techniques de construction, est revisitée à partir de l’étude des projets de Patkau Architects (1986) et de MMBB Arquitetos (1990). Une tension entre les expressions symbolique et formelle issues du matériau brut est plus explicite dans l’étude des projets de Ramoisy Tremblay architectes (2002) et de Brasil Arquitetura (2005). La théorie de la transformation de matériau (Stoffwechseltheorie) de Semper est réexaminée parallèlement dans les projets d’Arthur Erickson et Geoffrey Massey (1967) et de Paulo Mendes da Rocha (1969). Dans l’ensemble de tensions tectoniques présentes tout au long de la conception, nous avons retenu plus particulièrement : le contact avec le sol, la recherche d’une homogénéité constructive, ou son opposé, la recherche d’une variété matérielle et, finalement la tension entre la dimension représentationnelle et la dimension technique de l’architecture. La modélisation du concept de tectonique, par un ensemble de tensions auxquelles les concepteurs doivent s’adresser en phase de projet, confirme que des questions en apparence simplement « techniques » concernent en fait tout autant le génie de l’invention que la connaissance historique des idées architecturales.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette étude porte sur les différentes formalisations du sens linguistique dans le cadre de la théorie Sens-Texte (TST) ; elle s’intéresse notamment à la représentation sémantique, la représentation la plus importante dans la modélisation du sens d’énoncés et d’unités lexicales de la langue. Cette étude a trois objectifs : premièrement, décrire trois formalisations de la représentation sémantique existant dans la TST – les réseaux sémantiques, les définitions lexicographiques et les définitions de la BDéf (des définitions très formalisées) ; deuxièmement, identifier les disparités et les décalages entre les formalisations choisies ; troisièmement, proposer des modifications aux formalisations existantes pour réduire au maximum ces disparités.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Contexte : Les stratégies pharmacologiques pour traiter la schizophrénie reçoivent une attention croissante due au développement de nouvelles pharmacothérapies plus efficaces, mieux tolérées mais plus coûteuses. La schizophrénie est une maladie chronique présentant différents états spécifiques et définis par leur sévérité. Objectifs : Ce programme de recherche vise à: 1) Évaluer les facteurs associés au risque d'être dans un état spécifique de la schizophrénie, afin de construire les fonctions de risque de la modélisation du cours naturel de la schizophrénie; 2) Développer et valider un modèle de Markov avec microsimulations de Monte-Carlo, afin de simuler l'évolution naturelle des patients qui sont nouvellement diagnostiqués pour la schizophrénie, en fonction du profil individuel des facteurs de risque; 3) Estimer le coût direct de la schizophrénie (pour les soins de santé et autres non reliés aux soins de santé) dans la perspective gouvernementale et simuler l’impact clinique et économique du développement d’un traitement dans une cohorte de patients nouvellement diagnostiqués avec la schizophrénie, suivis pendant les cinq premières années post-diagnostic. Méthode : Pour le premier objectif de ce programme de recherche, un total de 14 320 patients nouvellement diagnostiqués avec la schizophrénie ont été identifiés dans les bases de données de la RAMQ et de Med-Echo. Les six états spécifiques de la schizophrénie ont été définis : le premier épisode (FE), l'état de dépendance faible (LDS), l’état de dépendance élevée (HDS), l’état stable (Stable), l’état de bien-être (Well) et l'état de décès (Death). Pour évaluer les facteurs associés au risque de se trouver dans chacun des états spécifiques de la schizophrénie, nous avons construit 4 fonctions de risque en se basant sur l'analyse de risque proportionnel de Cox pour des risques compétitifs. Pour le deuxième objectif, nous avons élaboré et validé un modèle de Markov avec microsimulations de Monte-Carlo intégrant les six états spécifiques de la schizophrénie. Dans le modèle, chaque sujet avait ses propres probabilités de transition entre les états spécifiques de la schizophrénie. Ces probabilités ont été estimées en utilisant la méthode de la fonction d'incidence cumulée. Pour le troisième objectif, nous avons utilisé le modèle de Markov développé précédemment. Ce modèle inclut les coûts directs de soins de santé, estimés en utilisant les bases de données de la Régie de l'assurance maladie du Québec et Med-Echo, et les coûts directs autres que pour les soins de santé, estimés à partir des enquêtes et publications de Statistique Canada. Résultats : Un total de 14 320 personnes nouvellement diagnostiquées avec la schizophrénie ont été identifiées dans la cohorte à l'étude. Le suivi moyen des sujets était de 4,4 (± 2,6) ans. Parmi les facteurs associés à l’évolution de la schizophrénie, on peut énumérer l’âge, le sexe, le traitement pour la schizophrénie et les comorbidités. Après une période de cinq ans, nos résultats montrent que 41% des patients seront considérés guéris, 13% seront dans un état stable et 3,4% seront décédés. Au cours des 5 premières années après le diagnostic de schizophrénie, le coût direct moyen de soins de santé et autres que les soins de santé a été estimé à 36 701 $ canadiens (CAN) (95% CI: 36 264-37 138). Le coût des soins de santé a représenté 56,2% du coût direct, le coût de l'aide sociale 34,6% et le coût associé à l’institutionnalisation dans les établissements de soins de longue durée 9,2%. Si un nouveau traitement était disponible et offrait une augmentation de 20% de l'efficacité thérapeutique, le coût direct des soins de santé et autres que les soins de santé pourrait être réduit jusqu’à 14,2%. Conclusion : Nous avons identifié des facteurs associés à l’évolution de la schizophrénie. Le modèle de Markov que nous avons développé est le premier modèle canadien intégrant des probabilités de transition ajustées pour le profil individuel des facteurs de risque, en utilisant des données réelles. Le modèle montre une bonne validité interne et externe. Nos résultats indiquent qu’un nouveau traitement pourrait éventuellement réduire les hospitalisations et le coût associé aux établissements de soins de longue durée, augmenter les chances des patients de retourner sur le marché du travail et ainsi contribuer à la réduction du coût de l'aide sociale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Thèse de doctorat réalisée en cotutelle avec l'Institut du social et du politique de l'École Normale supérieure de Cachan.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La question de recherche à la base de cette étude soulève le point de la nature paradoxale du canon de représentation égyptien qui démontre, simultanément, une certaine rigidité dans l’application de règles stylistiques et iconographiques établies, particulièrement dans l’art non commandité par l’État, et des preuves de transformation et d’intégration de motifs nouveaux. Partant de cette problématique, l’étude vise à identifier les mécanismes par lesquels ce canon permet, à la fois, l’innovation et le maintien d’une certaine tradition. L’approche est de nature double et consiste tout d’abord à identifier de grandes tendances et discontinuités stylistiques et iconographiques sur les bols de faïence du Moyen au Nouvel Empire. De plus, elle tente de déterminer si les transformations d’ordre sociopolitique et idéologique, survenant à ces périodes, peuvent être lues dans les variations stylistiques et iconographiques trouvées sur les bols de faïence. Après une description du champ conceptuel de la « représentation » en contexte égyptien, l’auteur effectue l’analyse iconographique exhaustive de ce qui constitue l’apport majeur de son étude, un corpus de 500 bols et fragments de faïence provenant de divers sites égyptiens du Moyen au Nouvel Empire. Les données ont été traitées par le biais de la méthode d’analyse iconologique proposée par Panofsky, qui lui permet de dévoiler un grand nombre de continuités et de transformations d’ordre stylistique et iconographique pour les différentes périodes. Plusieurs facteurs semblent avoir été à l’origine de ces transformations, dont la fluctuation entre un contexte de centralisation et de décentralisation politique de l’État, ainsi que l’intégration de motifs étrangers (proche-orientaux et égéens) résultant d’un contact accru entre l’Égypte et les régions voisines. De plus, les transformations idéologiques apportées par le règne d’Akhénaton et par la « contre-réforme » idéologique à la période ramesside, semblent avoir également contribué à des innovations au sein du canon, même si ce dernier maintient une certaine continuité légitimée par le pouvoir étatique. Le canon de représentation, devient ainsi une forme de langage dont l’État se sert et qui, parfois malgré lui, se transforme et fluctue selon les réalités des différentes périodes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cet article décrit une procédure de modélisation du phénomène de dispersion de la concentration du dioxyde de nitrogène (NO2) en utilisant la technique du perceptron multicouche (MLP). Notre objectif est de prouver que la concentration du NO2 est une variable autorégressive et expliquée par des variables météorologiques. Pour ce faire, nous avons procédé par trois étapes : dans la première étape nous avons utilisé la variable concentration NO2 uniquement, dans la seconde étape nous avons utilisé les variables météorologiques uniquement et dans la troisième étape nous avons utilisé la concentration du NO2 combinée avec les variables météorologiques. Les résultats ont montré que le troisième cas est plus performant que les deux autres ce qui prouve notre hypothèse.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Cette recherche qualitative avait pour but d’explorer le raisonnement clinique d’infirmières de première ligne en CSSS/CLSC lorsqu’elles priorisent leurs interventions auprès de familles vivant en contexte de vulnérabilité dans le cadre du programme des Services intégrés en périnatalité et pour la petite enfance (SIPPE). Il s’agit d’une étude de cas qui comporte un échantillon intentionnel de sept épisodes de soins impliquant deux infirmières auprès de sept familles en période postnatale lorsqu’elles priorisent leurs interventions. La collecte de données a procédé par méthode think aloud, suivie d’entretiens semi-dirigés auprès des infirmières. Une analyse qualitative des données a été effectuée selon des méthodes interprétatives et par comptage de catégories. Ces dernières ont été formulées et mises en relation en s’inspirant de la modélisation du processus de raisonnement clinique de Tanner (2006) ainsi que des stratégies de raisonnement clinique proposés par Fonteyn (1998). Au terme de cette étude, le processus de raisonnement clinique ne semble pas être différent selon le type de priorité d’intervention auprès de familles en contexte de vulnérabilité, particulièrement lorsque nous distinguons la priorité selon un degré d’urgence (prioritaire ou secondaire). Aussi, nous constatons qu’il existe peu de diversité dans les processus de raisonnement clinique mobilisés à travers les sept épisodes de soins; et qu’un processus narratif de raisonnement est fréquent. Si une famille exprime un besoin urgent, l’infirmière y répond prioritairement. Par ailleurs, lorsque des conditions suggèrent un potentiel accru de vulnérabilité des familles, un mode de raisonnement clinique plus systématique, qui comporte une collecte et une mise en relation d’informations afin de formuler une proposition pour soutenir le passage à l’action, semble être mobilisé pour prioriser l’intervention. Il en est ainsi s’il s’agit d’un premier bébé, que la famille n’utilise pas d’autres ressources formelles de soutien. Autrement, s’il s’agit d’un deuxième bébé et que les familles utilisent d’autres ressources, les infirmières tendent plutôt à appliquer une routine d’intervention SIPPE. Aussi, cette recherche témoigne de l’engagement soutenu des infirmières auprès de familles vivant d’importants défis. Il importe toutefois de soutenir le développement d’un répertoire plus varié de processus de raisonnement clinique afin de renforcer leur capacité de prioriser leur intervention qui se déroule dans un contexte de multiples contraintes organisationnelles et interpersonnelles.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le problème inverse en électroencéphalographie (EEG) est la localisation de sources de courant dans le cerveau utilisant les potentiels de surface sur le cuir chevelu générés par ces sources. Une solution inverse implique typiquement de multiples calculs de potentiels de surface sur le cuir chevelu, soit le problème direct en EEG. Pour résoudre le problème direct, des modèles sont requis à la fois pour la configuration de source sous-jacente, soit le modèle de source, et pour les tissues environnants, soit le modèle de la tête. Cette thèse traite deux approches bien distinctes pour la résolution du problème direct et inverse en EEG en utilisant la méthode des éléments de frontières (BEM): l’approche conventionnelle et l’approche réciproque. L’approche conventionnelle pour le problème direct comporte le calcul des potentiels de surface en partant de sources de courant dipolaires. D’un autre côté, l’approche réciproque détermine d’abord le champ électrique aux sites des sources dipolaires quand les électrodes de surfaces sont utilisées pour injecter et retirer un courant unitaire. Le produit scalaire de ce champ électrique avec les sources dipolaires donne ensuite les potentiels de surface. L’approche réciproque promet un nombre d’avantages par rapport à l’approche conventionnelle dont la possibilité d’augmenter la précision des potentiels de surface et de réduire les exigences informatiques pour les solutions inverses. Dans cette thèse, les équations BEM pour les approches conventionnelle et réciproque sont développées en utilisant une formulation courante, la méthode des résidus pondérés. La réalisation numérique des deux approches pour le problème direct est décrite pour un seul modèle de source dipolaire. Un modèle de tête de trois sphères concentriques pour lequel des solutions analytiques sont disponibles est utilisé. Les potentiels de surfaces sont calculés aux centroïdes ou aux sommets des éléments de discrétisation BEM utilisés. La performance des approches conventionnelle et réciproque pour le problème direct est évaluée pour des dipôles radiaux et tangentiels d’excentricité variable et deux valeurs très différentes pour la conductivité du crâne. On détermine ensuite si les avantages potentiels de l’approche réciproquesuggérés par les simulations du problème direct peuvent êtres exploités pour donner des solutions inverses plus précises. Des solutions inverses à un seul dipôle sont obtenues en utilisant la minimisation par méthode du simplexe pour à la fois l’approche conventionnelle et réciproque, chacun avec des versions aux centroïdes et aux sommets. Encore une fois, les simulations numériques sont effectuées sur un modèle à trois sphères concentriques pour des dipôles radiaux et tangentiels d’excentricité variable. La précision des solutions inverses des deux approches est comparée pour les deux conductivités différentes du crâne, et leurs sensibilités relatives aux erreurs de conductivité du crâne et au bruit sont évaluées. Tandis que l’approche conventionnelle aux sommets donne les solutions directes les plus précises pour une conductivité du crâne supposément plus réaliste, les deux approches, conventionnelle et réciproque, produisent de grandes erreurs dans les potentiels du cuir chevelu pour des dipôles très excentriques. Les approches réciproques produisent le moins de variations en précision des solutions directes pour différentes valeurs de conductivité du crâne. En termes de solutions inverses pour un seul dipôle, les approches conventionnelle et réciproque sont de précision semblable. Les erreurs de localisation sont petites, même pour des dipôles très excentriques qui produisent des grandes erreurs dans les potentiels du cuir chevelu, à cause de la nature non linéaire des solutions inverses pour un dipôle. Les deux approches se sont démontrées également robustes aux erreurs de conductivité du crâne quand du bruit est présent. Finalement, un modèle plus réaliste de la tête est obtenu en utilisant des images par resonace magnétique (IRM) à partir desquelles les surfaces du cuir chevelu, du crâne et du cerveau/liquide céphalorachidien (LCR) sont extraites. Les deux approches sont validées sur ce type de modèle en utilisant des véritables potentiels évoqués somatosensoriels enregistrés à la suite de stimulation du nerf médian chez des sujets sains. La précision des solutions inverses pour les approches conventionnelle et réciproque et leurs variantes, en les comparant à des sites anatomiques connus sur IRM, est encore une fois évaluée pour les deux conductivités différentes du crâne. Leurs avantages et inconvénients incluant leurs exigences informatiques sont également évalués. Encore une fois, les approches conventionnelle et réciproque produisent des petites erreurs de position dipolaire. En effet, les erreurs de position pour des solutions inverses à un seul dipôle sont robustes de manière inhérente au manque de précision dans les solutions directes, mais dépendent de l’activité superposée d’autres sources neurales. Contrairement aux attentes, les approches réciproques n’améliorent pas la précision des positions dipolaires comparativement aux approches conventionnelles. Cependant, des exigences informatiques réduites en temps et en espace sont les avantages principaux des approches réciproques. Ce type de localisation est potentiellement utile dans la planification d’interventions neurochirurgicales, par exemple, chez des patients souffrant d’épilepsie focale réfractaire qui ont souvent déjà fait un EEG et IRM.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

De nos jours, il est bien accepté que le cycle magnétique de 11 ans du Soleil est l'oeuvre d'une dynamo interne présente dans la zone convective. Bien qu'avec la puissance de calculs des ordinateurs actuels il soit possible, à l'aide de véritables simulations magnétohydrodynamiques, de résoudre le champ magnétique et la vitessse dans toutes les directions spatiales, il n'en reste pas moins que pour étudier l'évolution temporelle et spatiale de la dynamo solaire à grande échelle, il reste avantageux de travailler avec des modèles plus simples. Ainsi, nous avons utilisé un modèle simplifié de la dynamo solaire, nommé modèle de champ moyen, pour mieux comprendre les mécanismes importants à l'origine et au maintien de la dynamo solaire. L'insertion d'un tenseur-alpha complet dans un modèle dynamo de champ moyen, provenant d'un modèle global-MHD [Ghizaru et al., 2010] de la convection solaire, nous a permis d'approfondir le rôle que peut jouer la force électromotrice dans les cycles magnétiques produits par ce modèle global. De cette façon, nous avons pu reproduire certaines caractéristiques observées dans les cycles magnétiques provenant de la simulation de Ghizaru et al., 2010. Tout d'abord, le champ magnétique produit par le modèle de champ moyen présente deux modes dynamo distincts. Ces modes, de périodes similaires, sont présents et localisés sensiblement aux mêmes rayons et latitudes que ceux produits par le modèle global. Le fait que l'on puisse reproduire ces deux modes dynamo est dû à la complexité spatiale du tenseur-alpha. Par contre, le rapport entre les périodes des deux modes présents dans le modèle de champ moyen diffère significativement de celui trouvé dans le modèle global. Par ailleurs, on perd l'accumulation d'un fort champ magnétique sous la zone convective dans un modèle où la rotation différentielle n'est plus présente. Ceci suggère que la présence de rotation différentielle joue un rôle non négligeable dans l'accumulation du champ magnétique à cet endroit. Par ailleurs, le champ magnétique produit dans un modèle de champ moyen incluant un tenseur-alpha sans pompage turbulent global est très différent de celui produit par le tenseur original. Le pompage turbulent joue donc un rôle fondamental au sein de la distribution spatiale du champ magnétique. Il est important de souligner que les modèles dépourvus d'une rotation différentielle, utilisant le tenseur-alpha original ou n'utilisant pas de pompage turbulent, parviennent tous deux à produire une dynamo oscillatoire. Produire une telle dynamo à l'aide d'un modèle de ce type n'est pas évident, a priori. Finalement, l'intensité ainsi que le type de profil de circulation méridienne utilisés sont des facteurs affectant significativement la distribution spatiale de la dynamo produite.