454 resultados para réseaux numériques


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les preuves astronomiques stipulent qu'environ 4\% de la densité de masse-énergie de l'univers serait composé d'atomes. Le reste est séparé entre la matière sombre, qui représente 24\% de la densité de masse-énergie, et l'énergie sombre, qui s'accapare les 71\% restant. Le neutralino est une particule prédite par la théorie de la supersymétrie et est un candidat à la composition de la matière sombre. Le Projet d'Identification des Candidats Supersymétriques Sombres (PICASSO) vise à détecter le neutralino en utilisant des détecteurs à gouttelettes de C$_4$F$_{10}$ en surchauffe. Lors du passage d'une particule dans les gouttelettes de C$_4$F$_{10}$, une transition de phase aura lieu si l'énergie déposée est au-delà du seuil prédit par le critère de nucléation d'une transition de phase (théorie de Seitz). L'onde acoustique émise durant la transition de phase est ensuite transformée en impulsion électrique par des capteurs piézoélectriques placés sur le pourtour du détecteur. Le signal est amplifié, numérisé puis enregistré afin de pouvoir être analysé par des outils numériques. L'ouvrage qui suit présente les travaux effectués sur la compréhension des signaux des détecteurs à gouttelettes en surchauffe dans le but d'améliorer la discrimination du bruit de fond. Un détecteur à petites gouttelettes, r $\approx 15\mu m$ a été étudié et comparé à une simulation Monte Carlo. Il s'est avéré que les possibilités de discrimination du bruit de fond provenant des particules alpha étaient réduites pour un détecteur à petites gouttelettes, et ce en accord avec le modèle théorique. Différentes composantes du système d'acquisition ont été testées dont le couplage entre le capteur piézoélectrique et la paroi en acrylique, l'efficacité des capteurs piézoélectriques à gain intégré et les conséquences de la force du gain sur la qualité du signal. Une comparaison avec des résultats de l'expérience SIMPLE (Superheated Instrument for Massive ParticLe Experiments) a été effectuée en mesurant des signaux de détecteurs PICASSO à l'aide d'un microphone électrostatique à électret. Il a été conclu que les détecteurs PICASSO ne parviennent pas à reproduire la discrimination quasi parfaite présentée par SIMPLE.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les façons d'aborder l'étude du spectre du laplacien sont multiples. Ce mémoire se concentre sur les partitions spectrales optimales de domaines planaires. Plus précisément, lorsque nous imposons des conditions aux limites de Dirichlet, nous cherchons à trouver la ou les partitions qui réalisent l'infimum (sur l'ensemble des partitions à un certain nombre de composantes) du maximum de la première valeur propre du laplacien sur tous ses sous-domaines. Dans les dernières années, cette question a été activement étudiée par B. Helffer, T. Hoffmann-Ostenhof, S. Terracini et leurs collaborateurs, qui ont obtenu plusieurs résultats analytiques et numériques importants. Dans ce mémoire, nous proposons un problème analogue, mais pour des conditions aux limites de Neumann cette fois. Dans ce contexte, nous nous intéressons aux partitions spectrales maximales plutôt que minimales. Nous cherchons alors à vérifier le maximum sur toutes les $k$-partitions possibles du minimum de la première valeur propre non nulle de chacune des composantes. Cette question s'avère plus difficile que sa semblable dans la mesure où plusieurs propriétés des valeurs propres de Dirichlet, telles que la monotonicité par rapport au domaine, ne tiennent plus. Néanmoins, quelques résultats sont obtenus pour des 2-partitions de domaines symétriques et des partitions spécifiques sont trouvées analytiquement pour des domaines rectangulaires. En outre, des propriétés générales des partitions spectrales optimales et des problèmes ouverts sont abordés.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire est composé de trois articles et présente les résultats de travaux de recherche effectués dans le but d'améliorer les techniques actuelles permettant d'utiliser des données associées à certaines tâches dans le but d'aider à l'entraînement de réseaux de neurones sur une tâche différente. Les deux premiers articles présentent de nouveaux ensembles de données créés pour permettre une meilleure évaluation de ce type de techniques d'apprentissage machine. Le premier article introduit une suite d'ensembles de données pour la tâche de reconnaissance automatique de chiffres écrits à la main. Ces ensembles de données ont été générés à partir d'un ensemble de données déjà existant, MNIST, auquel des nouveaux facteurs de variation ont été ajoutés. Le deuxième article introduit un ensemble de données pour la tâche de reconnaissance automatique d'expressions faciales. Cet ensemble de données est composé d'images de visages qui ont été collectées automatiquement à partir du Web et ensuite étiquetées. Le troisième et dernier article présente deux nouvelles approches, dans le contexte de l'apprentissage multi-tâches, pour tirer avantage de données pour une tâche donnée afin d'améliorer les performances d'un modèle sur une tâche différente. La première approche est une généralisation des neurones Maxout récemment proposées alors que la deuxième consiste en l'application dans un contexte supervisé d'une technique permettant d'inciter des neurones à apprendre des fonctions orthogonales, à l'origine proposée pour utilisation dans un contexte semi-supervisé.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le contenu de cette thèse est divisé de la façon suivante. Après un premier chapitre d’introduction, le Chapitre 2 est consacré à introduire aussi simplement que possible certaines des théories qui seront utilisées dans les deux premiers articles. Dans un premier temps, nous discuterons des points importants pour la construction de l’intégrale stochastique par rapport aux semimartingales avec paramètre spatial. Ensuite, nous décrirons les principaux résultats de la théorie de l’évaluation en monde neutre au risque et, finalement, nous donnerons une brève description d’une méthode d’optimisation connue sous le nom de dualité. Les Chapitres 3 et 4 traitent de la modélisation de l’illiquidité et font l’objet de deux articles. Le premier propose un modèle en temps continu pour la structure et le comportement du carnet d’ordres limites. Le comportement du portefeuille d’un investisseur utilisant des ordres de marché est déduit et des conditions permettant d’éliminer les possibilités d’arbitrages sont données. Grâce à la formule d’Itô généralisée il est aussi possible d’écrire la valeur du portefeuille comme une équation différentielle stochastique. Un exemple complet de modèle de marché est présenté de même qu’une méthode de calibrage. Dans le deuxième article, écrit en collaboration avec Bruno Rémillard, nous proposons un modèle similaire mais cette fois-ci en temps discret. La question de tarification des produits dérivés est étudiée et des solutions pour le prix des options européennes de vente et d’achat sont données sous forme explicite. Des conditions spécifiques à ce modèle qui permettent d’éliminer l’arbitrage sont aussi données. Grâce à la méthode duale, nous montrons qu’il est aussi possible d’écrire le prix des options européennes comme un problème d’optimisation d’une espérance sur en ensemble de mesures de probabilité. Le Chapitre 5 contient le troisième article de la thèse et porte sur un sujet différent. Dans cet article, aussi écrit en collaboration avec Bruno Rémillard, nous proposons une méthode de prévision des séries temporelles basée sur les copules multivariées. Afin de mieux comprendre le gain en performance que donne cette méthode, nous étudions à l’aide d’expériences numériques l’effet de la force et la structure de dépendance sur les prévisions. Puisque les copules permettent d’isoler la structure de dépendance et les distributions marginales, nous étudions l’impact de différentes distributions marginales sur la performance des prévisions. Finalement, nous étudions aussi l’effet des erreurs d’estimation sur la performance des prévisions. Dans tous les cas, nous comparons la performance des prévisions en utilisant des prévisions provenant d’une série bivariée et d’une série univariée, ce qui permet d’illustrer l’avantage de cette méthode. Dans un intérêt plus pratique, nous présentons une application complète sur des données financières.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail réalisé à l'EBSI, Université de Montréal, sous la direction de M. Yvon Lemay dans le cadre du cours SCI6112 - Évaluation des archives, à l'hiver 2014.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse analyse les négociations interculturelles des Gens du Centre (groupe amazonien multi-ethnique) avec les discours universels de droits humains et de développement mobilisés par l’État colombien. L’analyse se concentre sur le Plan de sauvegarde ethnique Witoto chapitre Leticia (ESP), qui est un des 73 plans formulés et implémentés par l’État colombien pour reconnaître les droits des peuples autochtones en danger par le déplacement forcé causé par les conflits armés internes. J’analyse l’ESP à travers la notion de friction (Tsing, 2005) qui fait référence aux caractéristiques complexes, inégalitaires et changeantes des rencontres contemporaines entre les différences des savoirs locaux et globaux. Mon analyse se base aussi sur des approches foucaldiennes et/ou subalternes de pouvoir comme la recherche anticoloniale et de la décolonisation, les perspectives critiques et contre-hégémoniques des droits humains, le post-développement, et les critiques du féminisme au développement. L’objectif de la thèse est d’analyser les savoirs (concepts de loi, de justice et de développement); les logiques de pensée (pratiques, épistémologies, rôles et espaces pour partager et produire des savoirs); et les relations de pouvoir (formes de leadership, associations, réseaux, et formes d’empowerment et disempowerment) produits et recréés par les Gens du Centre au sein des frictions avec les discours de droits humains et du développement. La thèse introduit comment la région habitée par les Gens du Centre (le Milieu Amazone transfrontalier) a été historiquement connectée aux relations inégalitaires de pouvoir qui influencent les luttes actuelles de ce groupe autochtone pour la reconnaissance de leurs droits à travers l’ESP. L’analyse se base à la fois sur une recherche documentaire et sur deux terrains ethnographiques, réalisés selon une perspective critique et autoréflexive. Ma réflexion méthodologique explore comment la position des chercheurs sur le terrain influence le savoir ethnographique et peut contribuer à la création des relations interculturelles inclusives, flexibles et connectées aux besoins des groupes locaux. La section analytique se concentre sur comment le pouvoir circule simultanément à travers des échelles nationale, régionale et locale dans l’ESP. J’y analyse comment ces formes de pouvoir produisent des sujets individuels et collectifs et s’articulent à des savoirs globaux ou locaux pour donner lieu à de nouvelles formes d’exclusion ou d’émancipation des autochtones déplacés. Les résultats de la recherche suggèrent que les Gens du Centre approchent le discours des droits humains à travers leurs savoirs autochtones sur la « loi de l’origine ». Cette loi établit leur différence culturelle comme étant à la base du processus de reconnaissance de leurs droits comme peuple déplacé. D’ailleurs, les Gens du Centre approprient les discours et les projets de développement à travers la notion d’abondance qui, comprise comme une habileté collective qui connecte la spiritualité, les valeurs culturelles, et les rôles de genre, contribue à assurer l’existence physique et culturelle des groupes autochtones. Ma thèse soutient que, même si ces savoirs et logiques de pensée autochtones sont liés à des inégalités et à formes de pouvoir local, ils peuvent contribuer à des pratiques de droits humains et de développement plurielles, égalitaires et inclusives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le travail des chefs d’établissement (ChE) a évolué au gré des politiques éducatives. Ces derniers deviennent des agents du changement ou managers dans des établissements autonomes soumis à l'obligation de résultats. En France en 2006, les ChE rencontrent de nouveaux défis avec les réseaux ambition réussite (RAR) au collège. Une situation inédite qui pose une question nouvelle aux ChE : comment piloter des équipes composites dans un collège en RAR ? Le parti pris dans cette thèse est celui de l’ergonomie de l’activité qui questionne un paradoxe : d’un côté, la focale est mise sur le développement du travail collectif dans les établissements et son impact sur les performances, d’un autre côté sont négligés l'organisation du travail à laquelle se livrent les cadres pédagogiques comme le travail d'organisation des professeurs pour faire vivre ces collectifs. Le but ici est de montrer l’importance du travail réel pour comprendre les conditions et difficultés des cadres pédagogiques pour organiser le travail des professeurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Inspiré par la réflexion épistémologique de l'anthropologue Michel Verdon, ce mémoire propose un cadre conceptuel pour l'étude de l'organisation sociale des castes en Inde. L'ethnographie de Jonathan Parry, Caste and Kinship in Kangra, est analysée et réinterprétée dans un langage dit « opérationnel ». Les différentes approches des castes oscillent entre deux pôles théoriques opposés : l'idéalisme, représenté notamment par la démarche structuraliste de Louis Dumont, et le substantialisme, jadis adopté par les dirigeants coloniaux et incarné plus récemment dans les travaux de Dipankar Gupta. Toutes deux holistes, ces options conduisent pourtant à une impasse dans l'étude comparative de l'organisation sociale, car elles rendent les groupes « ontologiquement variables » et, par conséquent, incomparables. En repensant les prémisses sur lesquelles repose la conception générale de l'organisation sociale, un cadre opérationnel confère à la notion de groupe une réalité binaire, discontinue, évitant ainsi la variabilité ontologique des groupes et favorisant le comparatisme. Il rend également possible l'étude des rapports entre groupes et réseaux. La relecture de l'ethnographie Caste and Kinship in Kangra montre la pertinence d'une telle approche dans l'étude des castes. Le caractère segmentaire de ces dernières est remis en cause et l'autonomie des foyers, qui forment des réseaux d'alliances en matière d'activités rituelles, est mise de l'avant. Cette nouvelle description incite enfin à de nouvelles comparaisons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’importance que revêt la localisation des entreprises dans le fonctionnement et la compétitivité de celles-ci amène à porter l’attention sur la problématique des clusters et l’influence qu’ils peuvent avoir sur la production de connaissances. À travers une perspective théorique qui repose sur la prise en compte des travaux portant sur les districts industriels et ceux plus récents, sur les clusters, nous mettons en évidence une évolution conceptuelle du phénomène de la localisation des entreprises. La place qu’occupe la production de connaissances constitue désormais un élément central des travaux récents qui portent sur les districts et les clusters industriels. Notre examen des dynamiques de fonctionnement de ces systèmes permet d’affirmer que la production de connaissances est une caractéristique centrale des clusters ainsi que leur principal avantage compétitif. Étroitement liée aux réseaux inter-organisationnels, la production de connaissances n’est pas un phénomène naturel, elle découle des mécanismes intrinsèques aux clusters, qu’on cherche à mettre en évidence. Pour ce faire, notre méthodologie qui emprunte les principaux repères de l’analyse stratégique des organisations conduit à l’étude du fonctionnement concret d’un réseau local d’innovation, constitué d’entreprises et d’institutions locales présentes dans le cluster montréalais de l’aérospatiale. Un réseau constitué par l’intermédiaire du Consortium de Recherche et d’Innovation en Aérospatiale du Québec, une institution centrale dans le fonctionnement de ce cluster.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En plus de la triade de symptômes caractérisant l’autisme, ce trouble neurodévelopmental est associé à des particularités perceptives et motrices et, au niveau cérébral, par une connectivité atypique entre les différentes régions du cerveau. Au niveau anatomique, un des résultats les plus communs est la réduction du corps calleux. Toutefois, des effets directs de cette altération anatomique sur l’intégrité et l’efficacité du transfert interhémisphérique restent à être démontrés. Pour la présente thèse, trois différentes études investiguent différents aspects du traitement de l’information visuomotrice : le transfert interhémisphérique entre les régions bilatérales motrices et visuelles, la vitesse de traitement perceptif, et les habiletés motrices visuellement guidées. Dans la première étude, le paradigme visuomoteur de Poffenberger a été utilisé pour mesurer le temps de transfert interhémisphérique (TTIH). L’imagerie par résonnance magnétique fonctionnelle (IRMf) et structurale ainsi que l’imagerie de diffusion ont aussi été utilisées pour étudier les réseaux cérébraux impliqués dans la tâche de Poffenberger. Les autistes ont été comparés à un groupe d’individus à développement typique. La deuxième étude avait pour but d’investiguer la vitesse de traitement perceptif en autisme. Dans la troisième étude, deux tâches motrices (Purdue et Annett) ont été utilisées pour examiner la nature et l’importance des déficits moteurs. La tâche de Purdue inclut deux conditions bimanuelles utilisées comme indice additionnel d’intégration interhémisphérique. Dans les études 2 et 3, le groupe d’autistes a aussi été comparé à un groupe d’individus Asperger afin de voir si, et comment, les deux sous-groupes peuvent être distingués en ce qui concerne le traitement visuel et les déficits moteurs. Aucune différence entre les groupes n’a été observée en termes de TTIH. Les résultats de l’étude IRMf révèlent des différences d’activations corticales en lien avec la tâche de Poffenberger. Dans les groupes d’autistes et de typiques, l’efficacité de la communication interhémisphérique était associée à différentes portions du corps calleux (frontales/motrices chez les typiques, postérieures/visuelles chez les autistes). De façon globale, les résultats de cette étude démontrent un patron atypique de transfert interhémisphérique de l’information visuomotrice en autisme, reflétant un rôle plus important des mécanismes visuels dans le comportement sensorimoteur possiblement en lien avec une réorganisation cérébrale. Les résultats des études comportementales 2 et 3 indiquent que les autistes excellent dans la tâche mesurant la vitesse de traitement perceptif alors que les Asperger accomplissent la tâche à des niveaux similaires à ceux des typiques. La nature des déficits moteurs diffère aussi entre les deux sous-groupes; la dextérité et la coordination bimanuelle est affectée chez les individus Asperger mais pas chez les autistes, qui eux sont plus atteints au niveau de la rapidité unimanuelle. Les sous-groupes d’autistes et de syndrome d’Asperger sont caractérisés par des profils cognitifs différents dont les particularités perceptives et motrices font partie intégrante.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les souvenirs sont encodés dans le cerveau grâce aux configurations uniques de vastes réseaux neuronaux. Chaque connexion dans ces circuits est apte à être modifiée. Ces changements durables s’opèrent au niveau des synapses grâce à une synthèse de protéines de novo et génèrent ce qu’on nomme des traces mnésiques. Plusieurs preuves indiquent que, dans certaines formes de plasticité synaptique à long terme, cette synthèse a lieu dans les dendrites près des synapses activées plutôt que dans le corps cellulaire. Cependant, les mécanismes qui régulent cette traduction de protéines demeurent encore nébuleux. La phase d’initiation de la traduction est une étape limitante et hautement régulée qui, selon plusieurs chercheurs, constitue la cible principale des mécanismes de régulation de la traduction dans la plasticité synaptique à long terme. Le présent projet de recherche infirme cette hypothèse dans une certaine forme de plasticité synaptique, la dépression à long terme dépendante des récepteurs métabotropiques du glutamate (mGluR-LTD). À l’aide d’enregistrements électrophysiologiques de neurones hippocampiques en culture couplés à des inhibiteurs pharmacologiques, nous montrons que la régulation de la traduction implique les étapes de l’élongation et de la terminaison et non celle de l’initiation. De plus, nous démontrons grâce à des stratégies de knockdown d’expression d’ARN que la protéine de liaison d’ARNm Staufen 2 joue un rôle déterminant dans la mGluR-LTD induite en cultures. Dans leur ensemble, les résultats de la présente étude viennent appuyer un modèle de régulation de la traduction locale de protéines qui est indépendante de l’initiation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le génocide arménien de 1915 a eu de conséquentes répercussions identitaires sur les différentes générations d’Arméniens en diaspora, créant ainsi, pour les communautés arméniennes diasporiques, une responsabilité de perpétuer la mémoire collective traumatique. Cependant, des différences s’observent entre ces générations dans la définition de l’arménité ainsi que dans les sources d’approvisionnement identitaire. Ainsi, notre question de recherche vise à comprendre comment les contenus des imaginaires nationaux et les sources de (re)production culturelle changent entre les deuxième, troisième et quatrième générations d’Arméniens établis à Montréal. L’objectif de cette présente recherche est de faire combiner la littérature scientifique émergente sur le nationalisme diasporique, ainsi que celle sur le rôle du cyberespace. Par le biais d'entrevues auprès d'Arméniens, exilés depuis le génocide arménien de 1915 et établis à Montréal, nous montrerons, dans un premier temps, comment le contenu des imaginaires nationaux change par le passage d'une identité traditionnelle à une identité symbolique. Deuxièmement, nous verrons comment les sources de (re)production culturelle se transforment par le passage de sources traditionnelles aux sources numériques avec l'avènement du cyberespace.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire concerne la modélisation mathématique de l’érythropoïèse, à savoir le processus de production des érythrocytes (ou globules rouges) et sa régulation par l’érythropoïétine, une hormone de contrôle. Nous proposons une extension d’un modèle d’érythropoïèse tenant compte du vieillissement des cellules matures. D’abord, nous considérons un modèle structuré en maturité avec condition limite mouvante, dont la dynamique est capturée par des équations d’advection. Biologiquement, la condition limite mouvante signifie que la durée de vie maximale varie afin qu’il y ait toujours un flux constant de cellules éliminées. Par la suite, des hypothèses sur la biologie sont introduites pour simplifier ce modèle et le ramener à un système de trois équations différentielles à retard pour la population totale, la concentration d’hormones ainsi que la durée de vie maximale. Un système alternatif composé de deux équations avec deux retards constants est obtenu en supposant que la durée de vie maximale soit fixe. Enfin, un nouveau modèle est introduit, lequel comporte un taux de mortalité augmentant exponentiellement en fonction du niveau de maturité des érythrocytes. Une analyse de stabilité linéaire permet de détecter des bifurcations de Hopf simple et double émergeant des variations du gain dans la boucle de feedback et de paramètres associés à la fonction de survie. Des simulations numériques suggèrent aussi une perte de stabilité causée par des interactions entre deux modes linéaires et l’existence d’un tore de dimension deux dans l’espace de phase autour de la solution stationnaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La scoliose idiopathique de l’adolescent (SIA) est une déformation tri-dimensionelle du rachis. Son traitement comprend l’observation, l’utilisation de corsets pour limiter sa progression ou la chirurgie pour corriger la déformation squelettique et cesser sa progression. Le traitement chirurgical reste controversé au niveau des indications, mais aussi de la chirurgie à entreprendre. Malgré la présence de classifications pour guider le traitement de la SIA, une variabilité dans la stratégie opératoire intra et inter-observateur a été décrite dans la littérature. Cette variabilité s’accentue d’autant plus avec l’évolution des techniques chirurgicales et de l’instrumentation disponible. L’avancement de la technologie et son intégration dans le milieu médical a mené à l’utilisation d’algorithmes d’intelligence artificielle informatiques pour aider la classification et l’évaluation tridimensionnelle de la scoliose. Certains algorithmes ont démontré être efficace pour diminuer la variabilité dans la classification de la scoliose et pour guider le traitement. L’objectif général de cette thèse est de développer une application utilisant des outils d’intelligence artificielle pour intégrer les données d’un nouveau patient et les évidences disponibles dans la littérature pour guider le traitement chirurgical de la SIA. Pour cela une revue de la littérature sur les applications existantes dans l’évaluation de la SIA fut entreprise pour rassembler les éléments qui permettraient la mise en place d’une application efficace et acceptée dans le milieu clinique. Cette revue de la littérature nous a permis de réaliser que l’existence de “black box” dans les applications développées est une limitation pour l’intégration clinique ou la justification basée sur les évidence est essentielle. Dans une première étude nous avons développé un arbre décisionnel de classification de la scoliose idiopathique basé sur la classification de Lenke qui est la plus communément utilisée de nos jours mais a été critiquée pour sa complexité et la variabilité inter et intra-observateur. Cet arbre décisionnel a démontré qu’il permet d’augmenter la précision de classification proportionnellement au temps passé à classifier et ce indépendamment du niveau de connaissance sur la SIA. Dans une deuxième étude, un algorithme de stratégies chirurgicales basé sur des règles extraites de la littérature a été développé pour guider les chirurgiens dans la sélection de l’approche et les niveaux de fusion pour la SIA. Lorsque cet algorithme est appliqué à une large base de donnée de 1556 cas de SIA, il est capable de proposer une stratégie opératoire similaire à celle d’un chirurgien expert dans prêt de 70% des cas. Cette étude a confirmé la possibilité d’extraire des stratégies opératoires valides à l’aide d’un arbre décisionnel utilisant des règles extraites de la littérature. Dans une troisième étude, la classification de 1776 patients avec la SIA à l’aide d’une carte de Kohonen, un type de réseaux de neurone a permis de démontrer qu’il existe des scoliose typiques (scoliose à courbes uniques ou double thoracique) pour lesquelles la variabilité dans le traitement chirurgical varie peu des recommandations par la classification de Lenke tandis que les scolioses a courbes multiples ou tangentielles à deux groupes de courbes typiques étaient celles avec le plus de variation dans la stratégie opératoire. Finalement, une plateforme logicielle a été développée intégrant chacune des études ci-dessus. Cette interface logicielle permet l’entrée de données radiologiques pour un patient scoliotique, classifie la SIA à l’aide de l’arbre décisionnel de classification et suggère une approche chirurgicale basée sur l’arbre décisionnel de stratégies opératoires. Une analyse de la correction post-opératoire obtenue démontre une tendance, bien que non-statistiquement significative, à une meilleure balance chez les patients opérés suivant la stratégie recommandée par la plateforme logicielle que ceux aillant un traitement différent. Les études exposées dans cette thèse soulignent que l’utilisation d’algorithmes d’intelligence artificielle dans la classification et l’élaboration de stratégies opératoires de la SIA peuvent être intégrées dans une plateforme logicielle et pourraient assister les chirurgiens dans leur planification préopératoire.