993 resultados para Modèle numérique non linéaire


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Ce mémoire concerne la modélisation mathématique de l’érythropoïèse, à savoir le processus de production des érythrocytes (ou globules rouges) et sa régulation par l’érythropoïétine, une hormone de contrôle. Nous proposons une extension d’un modèle d’érythropoïèse tenant compte du vieillissement des cellules matures. D’abord, nous considérons un modèle structuré en maturité avec condition limite mouvante, dont la dynamique est capturée par des équations d’advection. Biologiquement, la condition limite mouvante signifie que la durée de vie maximale varie afin qu’il y ait toujours un flux constant de cellules éliminées. Par la suite, des hypothèses sur la biologie sont introduites pour simplifier ce modèle et le ramener à un système de trois équations différentielles à retard pour la population totale, la concentration d’hormones ainsi que la durée de vie maximale. Un système alternatif composé de deux équations avec deux retards constants est obtenu en supposant que la durée de vie maximale soit fixe. Enfin, un nouveau modèle est introduit, lequel comporte un taux de mortalité augmentant exponentiellement en fonction du niveau de maturité des érythrocytes. Une analyse de stabilité linéaire permet de détecter des bifurcations de Hopf simple et double émergeant des variations du gain dans la boucle de feedback et de paramètres associés à la fonction de survie. Des simulations numériques suggèrent aussi une perte de stabilité causée par des interactions entre deux modes linéaires et l’existence d’un tore de dimension deux dans l’espace de phase autour de la solution stationnaire.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La non-violence fait référence à une idéologie et un ensemble de pratiques qui ont pour caractéristique commune de rejeter la violence sous toutes ses formes dans l’actualisation quotidienne. La non-violence est cependant devenue également un outil auquel certains recourrent dans des objectifs qui ne servent pas nécessairement le bien commun. En d’autres termes, la non-violence n’est pas systématiquement un outil de paix. Elle est un moyen d’obtenir ce que l’on veut, sans recourir à la violence. Cette thèse propose une vision de la non-violence au service du bien commun. Elle puise dans l’historicité de grands événements et acteurs qui ont utilisé la non-violence pour libérer une collectivité de formes d’oppression qui amenuisaient la dignité humaine. Elle fait référence à des auteurs et acteurs qui ont influencé le théologien processuel David Ray Griffin dans sa propre démarche d’enseignement et de recherche théologiques sur une quarantaine d’années, soient de la guerre du Vietnam à celle d’Iraq. Les dates survolées vont de 1968 à 2008. Une première démarche entreprise par la recherche est de comprendre le plus précisément possible quelles sont les avenues les plus récentes concernant la non-violence et d’explorer ses influences sur la vie et la carrière du théologien processuel États-Unien David Ray Griffin. En second lieu, une rétrospective historique des événements marquants aux États-Unis permet de cerner le contexte au sein duquel Griffin a évolué et comment son discours a laissé transparaître ces influences historiques, sociales et académiques. Une analyse plus centrée sur la politique extérieure des États-Unis en matière d’économie et de militarisme aiguille vers l’identification de signes que Griffin qualifie lui-même d’anti-théologiques, ce qui l’incite à élaborer une vision paradigmatique globalisante, équilibrée selon lui, où les ressources planétaires sont redistribuées dans un souci d’équité et de justice. Pour ce faire, un tribunal international, une religion globale, à l’image de ce que propose la pensée processuelle whiteheadienne-hartshornienne sont proposés. Griffin en brosse les grands traits dans un discours où l’exhortation s’assortit d’une méthodologie et d’une pédagogie éprouvés depuis 40 ans. Une grille d’analyse des textes griffiniens est par la suite élaborée, structurant les différentes composantes fondamentales de sa pensée. Un modèle d’intégration des valeurs de la non-violence est dégagé des lectures, applicable à d’autres disciplines. Appuyé sur une tradition authentique d’auteurs non-violents, David Ray Griffin présente les caractéristiques d’un homme de paix, duquel les idéaux débordent le cadre national pour rejoindre le planétaire, dans une visée résolument sotériologique. Cette visée devient urgente alors que les événements des attentats terroristes du World Trade Center du 11 septembre 2001 font dire à Griffin que non seulement les États-Unis sont engagés dans une démarche impérialiste démoniaque, mais qu’ils contribuent de manière accélérée à la destruction de la planète. Il faut absolument, croit-il, renverser le courant et devenir, pour le monde, un leader de la réparation des écosystèmes, des économies et des sociétés. S’adjoignant des auteurs d’autres disciplines, et toujours dans un cadre processuel, Griffin entreprend le long périple pédagogique qu’est celui de convaincre le plus grand nombre d’individus possible que le temps est venu d’agir.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

En apprentissage automatique, domaine qui consiste à utiliser des données pour apprendre une solution aux problèmes que nous voulons confier à la machine, le modèle des Réseaux de Neurones Artificiels (ANN) est un outil précieux. Il a été inventé voilà maintenant près de soixante ans, et pourtant, il est encore de nos jours le sujet d'une recherche active. Récemment, avec l'apprentissage profond, il a en effet permis d'améliorer l'état de l'art dans de nombreux champs d'applications comme la vision par ordinateur, le traitement de la parole et le traitement des langues naturelles. La quantité toujours grandissante de données disponibles et les améliorations du matériel informatique ont permis de faciliter l'apprentissage de modèles à haute capacité comme les ANNs profonds. Cependant, des difficultés inhérentes à l'entraînement de tels modèles, comme les minima locaux, ont encore un impact important. L'apprentissage profond vise donc à trouver des solutions, en régularisant ou en facilitant l'optimisation. Le pré-entraînnement non-supervisé, ou la technique du ``Dropout'', en sont des exemples. Les deux premiers travaux présentés dans cette thèse suivent cette ligne de recherche. Le premier étudie les problèmes de gradients diminuants/explosants dans les architectures profondes. Il montre que des choix simples, comme la fonction d'activation ou l'initialisation des poids du réseaux, ont une grande influence. Nous proposons l'initialisation normalisée pour faciliter l'apprentissage. Le second se focalise sur le choix de la fonction d'activation et présente le rectifieur, ou unité rectificatrice linéaire. Cette étude a été la première à mettre l'accent sur les fonctions d'activations linéaires par morceaux pour les réseaux de neurones profonds en apprentissage supervisé. Aujourd'hui, ce type de fonction d'activation est une composante essentielle des réseaux de neurones profonds. Les deux derniers travaux présentés se concentrent sur les applications des ANNs en traitement des langues naturelles. Le premier aborde le sujet de l'adaptation de domaine pour l'analyse de sentiment, en utilisant des Auto-Encodeurs Débruitants. Celui-ci est encore l'état de l'art de nos jours. Le second traite de l'apprentissage de données multi-relationnelles avec un modèle à base d'énergie, pouvant être utilisé pour la tâche de désambiguation de sens.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Introduction. In utero, l’infection des membranes maternelles et fœtales, la chorioamniotite, passe souvent inaperçue et, en particulier lorsque associée à une acidémie, due à l’occlusion du cordon ombilical (OCO), comme il se produirait au cours du travail, peut entrainer des lésions cérébrales et avoir des répercussions neurologiques péri - et postnatales à long terme chez le fœtus. Il n'existe actuellement aucun moyen de détecter précocement ces conditions pathologiques in utéro afin de prévenir ou de limiter ces atteintes. Hypothèses. 1)l’électroencéphalogramme (EEG) fœtal obtenu du scalp fœtal pourrait servir d’outil auxiliaire à la surveillance électronique fœtale du rythme cardiaque fœtal (RCF) pour la détection précoce d'acidémie fœtale et d'agression neurologique; 2) la fréquence d’échantillonnage de l’ECG fœtal (ECGf) a un impact important sur le monitoring continu de la Variabilité du Rythme Cardiaque (VRCf) dans la prédiction de l’acidémie fœtale ; 3) les patrons de la corrélation de la VRCf aux cytokines pro-inflammatoires refléteront les états de réponses spontanées versus inflammatoires de la Voie Cholinergique Anti-inflammatoire (VCA); 4) grâce au développement d’un modèle de prédictions mathématiques, la prédiction du pH et de l’excès de base (EB) à la naissance sera possible avec seulement une heure de monitoring d’ECGf. Méthodes. Dans une série d’études fondamentales et cliniques, en utilisant respectivement le mouton et une cohorte de femmes en travail comme modèle expérimental et clinique , nous avons modélisé 1) une situation d’hypoxie cérébrale résultant de séquences d’occlusion du cordon ombilical de sévérité croissante jusqu’à atteindre un pH critique limite de 7.00 comme méthode expérimentale analogue au travail humain pour tester les première et deuxième hypothèses 2) un inflammation fœtale modérée en administrant le LPS à une autre cohorte animale pour vérifier la troisième hypothèse et 3) un modèle mathématique de prédictions à partir de paramètres et mesures validés cliniquement qui permettraient de déterminer les facteurs de prédiction d’une détresse fœtale pour tester la dernière hypothèse. Résultats. Les séries d’OCO répétitives se sont soldés par une acidose marquée (pH artériel 7.35±0.01 à 7.00±0.01), une diminution des amplitudes à l'électroencéphalogramme( EEG) synchronisé avec les décélérations du RCF induites par les OCO accompagnées d'une baisse pathologique de la pression artérielle (PA) et une augmentation marquée de VRCf avec hypoxie-acidémie aggravante à 1000 Hz, mais pas à 4 Hz, fréquence d’échantillonnage utilisée en clinique. L’administration du LPS entraîne une inflammation systémique chez le fœtus avec les IL-6 atteignant un pic 3 h après et des modifications de la VRCf retraçant précisément ce profil temporel des cytokines. En clinique, avec nos cohortes originale et de validation, un modèle statistique basée sur une matrice de 103 mesures de VRCf (R2 = 0,90, P < 0,001) permettent de prédire le pH mais pas l’EB, avec une heure d’enregistrement du RCF avant la poussée. Conclusions. La diminution de l'amplitude à l'EEG suggère un mécanisme d'arrêt adaptatif neuroprotecteur du cerveau et suggère que l'EEG fœtal puisse être un complément utile à la surveillance du RCF pendant le travail à haut risque chez la femme. La VRCf étant capable de détecter une hypoxie-acidémie aggravante tôt chez le fœtus à 1000Hz vs 4 Hz évoque qu’un mode d'acquisition d’ECG fœtal plus sensible pourrait constituer une solution. Des profils distinctifs de mesures de la VRCf, identifiés en corrélation avec les niveaux de l'inflammation, ouvre une nouvelle voie pour caractériser le profil inflammatoire de la réponse fœtale à l’infection. En clinique, un monitoring de chevet de prédiction du pH et EB à la naissance, à partir de mesures de VRCf permettrait des interprétations visuelles plus explicites pour des prises de décision plus exactes en obstétrique au cours du travail.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Le dioxyde de carbone (CO2) est un résidu naturel du métabolisme cellulaire, la troisième substance la plus abondante du sang, et un important agent vasoactif. À la moindre variation de la teneur en CO2 du sang, la résistance du système vasculaire cérébral et la perfusion tissulaire cérébrale subissent des changements globaux. Bien que les mécanismes exacts qui sous-tendent cet effet restent à être élucidés, le phénomène a été largement exploité dans les études de réactivité vasculaire cérébrale (RVC). Une voie prometteuse pour l’évaluation de la fonction vasculaire cérébrale est la cartographie de la RVC de manière non-invasive grâce à l’utilisation de l’Imagerie par Résonance Magnétique fonctionnelle (IRMf). Des mesures quantitatives et non-invasives de de la RVC peuvent être obtenus avec l’utilisation de différentes techniques telles que la manipu- lation du contenu artériel en CO2 (PaCO2) combinée à la technique de marquage de spin artériel (Arterial Spin Labeling, ASL), qui permet de mesurer les changements de la perfusion cérébrale provoqués par les stimuli vasculaires. Toutefois, les préoccupations liées à la sensibilité et la fiabilité des mesures de la RVC limitent de nos jours l’adoption plus large de ces méthodes modernes de IRMf. J’ai considéré qu’une analyse approfondie ainsi que l’amélioration des méthodes disponibles pourraient apporter une contribution précieuse dans le domaine du génie biomédical, de même qu’aider à faire progresser le développement de nouveaux outils d’imagerie de diagnostique. Dans cette thèse je présente une série d’études où j’examine l’impact des méthodes alternatives de stimulation/imagerie vasculaire sur les mesures de la RVC et les moyens d’améliorer la sensibilité et la fiabilité de telles méthodes. J’ai aussi inclus dans cette thèse un manuscrit théorique où j’examine la possible contribution d’un facteur méconnu dans le phénomène de la RVC : les variations de la pression osmotique du sang induites par les produits de la dissolution du CO2. Outre l’introduction générale (Chapitre 1) et les conclusions (Chapitre 6), cette thèse comporte 4 autres chapitres, au long des quels cinq différentes études sont présentées sous forme d’articles scientifiques qui ont été acceptés à des fins de publication dans différentes revues scientifiques. Chaque chapitre débute par sa propre introduction, qui consiste en une description plus détaillée du contexte motivant le(s) manuscrit(s) associé(s) et un bref résumé des résultats transmis. Un compte rendu détaillé des méthodes et des résultats peut être trouvé dans le(s) dit(s) manuscrit(s). Dans l’étude qui compose le Chapitre 2, je compare la sensibilité des deux techniques ASL de pointe et je démontre que la dernière implémentation de l’ASL continue, la pCASL, offre des mesures plus robustes de la RVC en comparaison à d’autres méthodes pulsés plus âgées. Dans le Chapitre 3, je compare les mesures de la RVC obtenues par pCASL avec l’utilisation de quatre méthodes respiratoires différentes pour manipuler le CO2 artérielle (PaCO2) et je démontre que les résultats peuvent varier de manière significative lorsque les manipulations ne sont pas conçues pour fonctionner dans l’intervalle linéaire de la courbe dose-réponse du CO2. Le Chapitre 4 comprend deux études complémentaires visant à déterminer le niveau de reproductibilité qui peut être obtenu en utilisant des méthodes plus récentes pour la mesure de la RVC. La première étude a abouti à la mise au point technique d’un appareil qui permet des manipulations respiratoires du CO2 de manière simple, sécuritaire et robuste. La méthode respiratoire améliorée a été utilisée dans la seconde étude – de neuro-imagerie – où la sensibilité et la reproductibilité de la RVC, mesurée par pCASL, ont été examinées. La technique d’imagerie pCASL a pu détecter des réponses de perfusion induites par la variation du CO2 dans environ 90% du cortex cérébral humain et la reproductibilité de ces mesures était comparable à celle d’autres mesures hémodynamiques déjà adoptées dans la pratique clinique. Enfin, dans le Chapitre 5, je présente un modèle mathématique qui décrit la RVC en termes de changements du PaCO2 liés à l’osmolarité du sang. Les réponses prédites par ce modèle correspondent étroitement aux changements hémodynamiques mesurés avec pCASL ; suggérant une contribution supplémentaire à la réactivité du système vasculaire cérébral en lien avec le CO2.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Le traumatisme crânien léger (TCL) est l'un des troubles neurologiques les plus courants affectant la santé publique. Aussi, les troubles du sommeil sont fréquents chez les patients atteints de TCL. Les études chez les rongeurs montrent que certains marqueurs de plasticité synaptique diminuent après le TCL, ce qui pourrait nuire à la plasticité du cerveau. Nous suggérons que la perte de sommeil intensifie l'effet négatif de TCL, qui peut refléter les changements des marqueurs de plasticité synaptique ou des changements des voies physiologiques qui régulent le sommeil. En utilisant un modèle de traumatisme crânien sur crâne fermé (closed head injury), nous avons étudié la relation bidirectionnelle entre le TCL et le sommeil en évaluant les effets de TCL sur l’activité électrique du cerveau par électroencéphalographie (EEG), et ceux de la privation de sommeil (PS) sur l'expression génique post-TCL. Premièrement, l'activité EEG a été enregistrée pour voir si l'architecture du sommeil est altérée suite au TCL. Nous avons ensuite voulu tester si la PS suite TCL induit des changements dans l'expression des gènes : Arc, Homer1a, Hif1a, Bdnf, Fos et éphrines, qui ont été liés à la plasticité synaptique et à la régulation du sommeil. Nous avons également étudié l'effet de la PS post-TCL sur le génome complet dans les régions cibles (cortex et l'hippocampe). Les principaux résultats obtenus dans cette étude confirment que TCL modifie de manière significative l'activité spectrale pendant l'éveil, le sommeil Rapid Eye Movement (REM) et le sommeil non-REM dans le deuxième 24 heures post-TCL. Fait intéressant, la capacité de maintenir de longues périodes d'éveil a été altérée immédiatement après TCL (première 24h post-TCL). La dynamique de l'activité delta pendant l'éveil a été modifié par le TCL. Parallèlement à ces modifications, des changements dans l'expression des gènes ont été observés dans le cortex et l'hippocampe. Seulement Arc et EfnA3 ont montré une interaction TCL / PS et ce dans l’hippocampe, tandis que l'expression de tous les autres gènes semblait être affectée par la PS ou TCL indépendamment. Nos résultats montrent pour la première fois que le TCL induit l'expression de deux chimiokines (Ccl3 et Cxcl5) à la fois dans le cortex cérébral et l'hippocampe 2,5 jours post-TCL. Également, nous avons observé que le TCL induit une diminution de l'expression de Lgals3 et S100A8 dans le cortex, et une augmentation d’Olig2 dans l'hippocampe. Les résultats concernant les effets de la PS sur le génome complet du cortex et de l'hippocampe montrent des changements significatifs dans les gènes impliqués dans diverses fonctions physiologiques, telles que les rythmes circadiens, la réponse inflammatoire, ainsi que de l'activation des cellules gliales. En général, nos résultats précisent les changements dans la qualité de l’éveil ainsi que dans l'expression de divers gènes après TCL.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Travail réalisé à l'EBSI, Université de Montréal, sous la direction de M. Yvon Lemay dans le cadre du cours SCI6850 – Recherche individuelle, à l'hiver 2015

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Ce mémoire s'intéresse à la détection de mouvement dans une séquence d'images acquises à l'aide d'une caméra fixe. Dans ce problème, la difficulté vient du fait que les mouvements récurrents ou non significatifs de la scène tels que les oscillations d'une branche, l'ombre d'un objet ou les remous d'une surface d'eau doivent être ignorés et classés comme appartenant aux régions statiques de la scène. La plupart des méthodes de détection de mouvement utilisées à ce jour reposent en fait sur le principe bas-niveau de la modélisation puis la soustraction de l'arrière-plan. Ces méthodes sont simples et rapides mais aussi limitées dans les cas où l'arrière-plan est complexe ou bruité (neige, pluie, ombres, etc.). Cette recherche consiste à proposer une technique d'amélioration de ces algorithmes dont l'idée principale est d'exploiter et mimer deux caractéristiques essentielles du système de vision humain. Pour assurer une vision nette de l’objet (qu’il soit fixe ou mobile) puis l'analyser et l'identifier, l'œil ne parcourt pas la scène de façon continue, mais opère par une série de ``balayages'' ou de saccades autour (des points caractéristiques) de l'objet en question. Pour chaque fixation pendant laquelle l'œil reste relativement immobile, l'image est projetée au niveau de la rétine puis interprétée en coordonnées log polaires dont le centre est l'endroit fixé par l'oeil. Les traitements bas-niveau de détection de mouvement doivent donc s'opérer sur cette image transformée qui est centrée pour un point (de vue) particulier de la scène. L'étape suivante (intégration trans-saccadique du Système Visuel Humain (SVH)) consiste ensuite à combiner ces détections de mouvement obtenues pour les différents centres de cette transformée pour fusionner les différentes interprétations visuelles obtenues selon ses différents points de vue.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L’hypertrophie cardiaque représente la réponse primaire du cœur dans le but d’améliorer la fonction cardiaque qui est compromise suite à un accident ischémique ou une surcharge hémodynamique. Cependant, l’hypertrophie cardiaque a pour conséquence pathologique la fibrose réactive, qui est caractérisée par la synthèse incontrôlée et le dépôt du collagène par les myofibroblastes. Ainsi, l’accumulation accrue du collagène dans le cœur hypertrophié mène à l’augmentation de la rigidité cardiaque et la détérioration progressive de la fonction contractile du cœur. Plusieurs études ont démontré que la protéine nestine, appartenant à la famille des filaments intermédiaires, est ré-exprimée dans les myofibroblastes durant la fibrose réparative et est impliquée dans la prolifération cellulaire. Basée sur ces observations, cette étude teste l’hypothèse selon laquelle nestine est induite dans les myofibroblastes suivant le développement de la fibrose réactive dans le cœur des rats ayant subi une constriction aortique supra-rénale. Deux semaines suivant une constriction aortique supra-rénale chez le rat, un patron d’hypertrophie concentrique cardiaque a été observé et associé avec une réponse de fibrose réactive caractérisée par le dépôt accru de collagène dans le tissu interstitiel et la région péri-vasculaire de nombreux vaisseaux sanguins cardiaques. De plus, les niveaux de la protéine nestine sont augmentés significativement dans les cœurs des rats hypertrophiés, et ce, de façon corrélative avec la pression artérielle moyenne et la pression systolique du ventricule gauche. Les techniques d’immunofluorescences ont révélé une apparition accrue des cellules immunoréactives à nestine, qui présentent un phénotype mésenchymateux caractérisé par la co-expression de collagène dans le tissu interstitiel et la région péri-vasculaire des cœurs hypertrophiés. Ces données suggèrent que les fibroblastes résidents peuvent exprimer la protéine nestine ou que l’expression de nestine est induite en réponse aux facteurs pro-fibrotiques impliqués dans la fibrose réactive. En effet, l’exposition des myofibroblastes normaux et des myofibroblastes isolés des cœurs hypertrophiés à l’AII, TGF-B1 et EGF augmente significativement l’expression de la protéine nestine, tandis que l’expression de l’α-SMA demeure inchangée. De plus, de manière prédominante dans le cœur hypertrophié, des cellules non-vasculaires CD31(+) ont été détectées dans le tissu interstitiel et la région péri-vasculaire. Ces cellules co-expriment nestine et collagène suggérant une transition des cellules endothéliales vers un phénotype mésenchymateux. Finalement, la protéine nestine, sous sa forme filamenteuse, a été détectée dans les cellules endothéliales de l’artère coronaire humaine et leur exposition au TGF-B1, induit l’expression de collagène. En revanche, l’expression de collagène a été détectée dans les cellules microvasculaires de rats CD31(+), alors que l’expression de nestine est absente. En réponse aux traitements de TGF-B1 et EGF, l’expression de nestine, sous sa forme non-filamenteuse, est détectée dans les cellules microvasculaires de rats. Collectivement, ces données supportent la prémisse selon laquelle la réponse de fibrose réactive dans les cœurs hypertrophiés, suite à une constriction aortique supra-rénale, est attribuée en partie à l’augmentation de l’apparition des cellules mésenchymateuses positives à l’expression de nestine qui proviennent des fibroblastes résidents du ventricule. De plus, les données in vivo et in vitro suggèrent que les cellules endothéliales déplacées représentent une source additionnelle des cellules mésenchymateuses nestine(+) dans le cœur hypertrophié et contribuent au développement de la fibrose réactive. Cibler la protéine nestine peut représenter une approche thérapeutique afin d’atténuer la réponse de fibrose réactive indépendamment de l’origine des cellules mésenchymateuses.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La sténose valvulaire aortique (SVA) est la maladie des valves cardiaques la plus répandue dans les pays développés qui touche les personnes âgées. La SVA est un processus actif caractérisé par des dépôts de lipides, de l’inflammation, de la fibrose et une calcification active des feuillets qui progresse vers un épaississement et durcissement de la valve aortique et une diminution de l’aire de la valve aortique. Nous avons émis l’hypothèse que la pathogénèse de la SVA modifie progressivement l’endothélium de la valve aortique, ce qui engendre l’expression de biomarqueurs spécifiques aux tissus et à la maladie. On rapporte dans cet étude, l’utilisation de la technique de sélection in vivo par phage display d’une librairie de peptides aléatoires afin de trouver de nouveaux peptides candidats qui se lieraient à des biomarqueurs spécifiques à la valve aortique malade d’une souris. Des souris ATX (LDLr-/-;Tg(hApoB+/+)) âgées atteintes de la SVA ont été utilisées pour la sélection in vivo d’une librairie de peptides aléatoires de 7 acides aminés contraints ou linéaires. Après 4 tours de criblage, on a caractérisé 14 phages différents qui ont été séparés en 5 motifs consensus pour la librairie linéaire et 11 phages différents qui représentent 5 différents motifs consensus pour la libraire de peptides contraints. La spécificité de 4 phages candidats de la librairie linéaire et de 5 phages de la librairie contrainte a été étudiée par l’immunomarquage des peptides d’intérêt exprimés par les phages sur les coupes de tissus de la valve aortique malade par rapport aux tissus contrôles du foie, du rein, de la rate, du ventricule et du poumon. Parmi eux, 6 phages représentent des peptides candidats intéressants qui ont besoin d’être testés davantage pour évaluer leur spécificité in vivo à la valve. Bien qu’il reste encore de la validation à effectuer, les peptides candidats spécifiques trouvés peuvent représenter des agents moléculaires d’imagerie utiles ou des transporteurs dans la livraison de drogue qui ciblent la valve aortique malade.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La douleur chronique non cancéreuse (DCNC) est un phénomène complexe et des interventions multimodales qui abordent à la fois ses dimensions biologiques et psychosociales sont considérées comme l’approche optimale pour traiter ce type de désordre. La prescription d'opioïdes pour la DCNC a augmenté d’une façon fulgurante au cours des deux dernières décennies, mais les preuves supportant l'efficacité à long terme de ce type de médicament en termes de réduction de la sévérité de la douleur et d’amélioration de la qualité de vie des patients souffrant de DCNC sont manquantes. L'objectif de cette étude était d'investiguer dans un contexte de vraie vie l'efficacité à long terme des opioïdes pour réduire l’intensité et l’impact de la douleur et améliorer la qualité de vie reliée à la santé des patients souffrant de DCNC sur une période d’une année. Méthodes: Les participants à cette étude étaient 1490 patients (âge moyen = 52,37 (écart-type = 13,9); femmes = 60,9%) enrôlés dans le Registre Québec Douleur entre octobre 2008 et Avril 2011 et qui ont complété une série de questionnaires avant d'initier un traitement dans un centre multidisciplinaire tertiaire de gestion de la douleur ainsi qu’à 6 et 12 mois plus tard. Selon leur profil d'utilisation d'opioïdes (PUO), les patients ont été classés en 1) non-utilisateurs, 2) utilisateurs non persistants, et 3) utilisateurs persistants. Les données ont été analysées à l'aide du modèle d'équation d'estimation généralisée. Résultats: Chez les utilisateurs d’opioïdes, 52% en ont cessé la prise à un moment ou à un autre pendant la période de suivi. Après ajustement pour l'âge et le sexe, le PUO a prédit d’une manière significative l’intensité de la douleur ressentie en moyenne sur des périodes de 7 jours (p <0,001) ainsi que la qualité de vie physique (pQDV) dans le temps (p <0,001). Comparés aux non-utilisateurs, les utilisateurs persistants avaient des niveaux significativement plus élevés d'intensité de douleur et une moins bonne pQDV. Une interaction significative a été trouvée entre le PUO et le temps dans la prédiction de l’intensité de douleur ressentie à son maximum (p = 0,001), les utilisateurs persistants sont ceux rapportant les scores les plus élevés à travers le temps. Une interaction significative a aussi été observée entre le PUO et le type de douleur dans la prédiction de l'impact de la douleur dans diverses sphères de la vie quotidienne (p = 0,048) et de la mQDV (p = 0,042). Indépendamment du type de douleur, les utilisateurs persistants ont rapporté des scores plus élevés d'interférence de douleur ainsi qu’une moins bonne mQDV par rapport aux non-utilisateurs. Cependant, la magnitude de ces effets était de petite taille (d de Cohen <0,5), une observation qui remet en question la puissance et la signification clinique des différences observées entre ces groupes. Conclusion: Nos résultats contribuent à maintenir les doutes sur l'efficacité d’une thérapie à long terme à base d’opioïdes et remettent ainsi en question le rôle que peut jouer ce type de médicament dans l'arsenal thérapeutique pour la gestion de la DCNC.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Les néoplasies pulmonaires demeurent la première cause de décès par cancer au Québec représentant près de 6000 décès par année. Au cours des dernières années, la radiothérapie stéréotaxique d’ablation (SABR) s’est imposée comme un traitement alternatif à la résection anatomique pour les patients inopérables atteints d’un cancer pulmonaire non à petites cellules de stade précoce. Il s’agit d’une modalité de traitement qui permet d’administrer des doses élevées, typiquement 30-60 Gy en 1-8 fractions, dans le but de cibler précisément le volume de traitement tout en épargnant les tissus sains. Le Centre Hospitalier de l’Université de Montréal s’est muni en 2009 d’un appareil de SABR de fine pointe, le CyberKnife™ (CK), un accélérateur linéaire produisant un faisceau de photons de 6 MV dirigé par un bras robotisé, permettant d’administrer des traitements non-coplanaires avec une précision infra-millimétrique. Ce mémoire est dédié à la caractérisation de certains enjeux cliniques et physiques associés au traitement par CK. Il s’articule autour de deux articles scientifiques revus par les pairs. D’une part, une étude prospective clinique présentant les avantages de la SABR pulmonaire, une technique qui offre un excellent contrôle tumoral à long terme et aide au maintien de la qualité de vie et de la fonction pulmonaire. D’autre part, une étude de physique médicale illustrant les limites de l’acquisition d’images tomodensitométriques en auto-rétention respiratoire lors de la planification de traitement par CK.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Les néoplasies pulmonaires demeurent la première cause de décès par cancer au Québec représentant près de 6000 décès par année. Au cours des dernières années, la radiothérapie stéréotaxique d’ablation (SABR) s’est imposée comme un traitement alternatif à la résection anatomique pour les patients inopérables atteints d’un cancer pulmonaire non à petites cellules de stade précoce. Il s’agit d’une modalité de traitement qui permet d’administrer des doses élevées, typiquement 30-60 Gy en 1-8 fractions, dans le but de cibler précisément le volume de traitement tout en épargnant les tissus sains. Le Centre Hospitalier de l’Université de Montréal s’est muni en 2009 d’un appareil de SABR de fine pointe, le CyberKnife™ (CK), un accélérateur linéaire produisant un faisceau de photons de 6 MV dirigé par un bras robotisé, permettant d’administrer des traitements non-coplanaires avec une précision infra-millimétrique. Ce mémoire est dédié à la caractérisation de certains enjeux cliniques et physiques associés au traitement par CK. Il s’articule autour de deux articles scientifiques revus par les pairs. D’une part, une étude prospective clinique présentant les avantages de la SABR pulmonaire, une technique qui offre un excellent contrôle tumoral à long terme et aide au maintien de la qualité de vie et de la fonction pulmonaire. D’autre part, une étude de physique médicale illustrant les limites de l’acquisition d’images tomodensitométriques en auto-rétention respiratoire lors de la planification de traitement par CK.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Les informations sensorielles sont traitées dans le cortex par des réseaux de neurones co-activés qui forment des assemblées neuronales fonctionnelles. Le traitement visuel dans le cortex est régit par différents aspects des caractéristiques neuronales tels que l’aspect anatomique, électrophysiologique et moléculaire. Au sein du cortex visuel primaire, les neurones sont sélectifs à divers attributs des stimuli tels que l’orientation, la direction, le mouvement et la fréquence spatiale. Chacun de ces attributs conduit à une activité de décharge maximale pour une population neuronale spécifique. Les neurones du cortex visuel ont cependant la capacité de changer leur sélectivité en réponse à une exposition prolongée d’un stimulus approprié appelée apprentissage visuel ou adaptation visuelle à un stimulus non préférentiel. De ce fait, l’objectif principal de cette thèse est d’investiguer les mécanismes neuronaux qui régissent le traitement visuel durant une plasticité induite par adaptation chez des animaux adultes. Ces mécanismes sont traités sous différents aspects : la connectivité neuronale, la sélectivité neuronale, les propriétés électrophysiologiques des neurones et les effets des drogues (sérotonine et fluoxétine). Le modèle testé se base sur les colonnes d’orientation du cortex visuel primaire. La présente thèse est subdivisée en quatre principaux chapitres. Le premier chapitre (A) traite de la réorganisation du cortex visuel primaire suite à une plasticité induite par adaptation visuelle. Le second chapitre (B) examine la connectivité neuronale fonctionnelle en se basant sur des corrélations croisées entre paires neuronales ainsi que sur des corrélations d’activités de populations neuronales. Le troisième chapitre (C) met en liaison les aspects cités précédemment (les effets de l’adaptation visuelle et la connectivité fonctionnelle) aux propriétés électrophysiologiques des neurones (deux classes de neurones sont traitées : les neurones à décharge régulière et les neurones à décharge rapide ou burst). Enfin, le dernier chapitre (D) a pour objectif l’étude de l’effet du couplage de l’adaptation visuelle à l’administration de certaines drogues, notamment la sérotonine et la fluoxétine (inhibiteur sélectif de recapture de la sérotonine). Méthodes En utilisant des enregistrements extracellulaires d’activités neuronales dans le cortex visuel primaire (V1) combinés à un processus d’imagerie cérébrale optique intrinsèque, nous enregistrons l’activité de décharge de populations neuronales et nous examinons l’activité de neurones individuels extraite des signaux multi-unitaires. L’analyse de l’activité cérébrale se base sur différents algorithmes : la distinction des propriétés électrophysiologiques des neurones se fait par calcul de l’intervalle de temps entre la vallée et le pic maximal du potentiel d’action (largeur du potentiel d’action), la sélectivité des neurones est basée sur leur taux de décharge à différents stimuli, et la connectivité fonctionnelle utilise des calculs de corrélations croisées. L’utilisation des drogues se fait par administration locale sur la surface du cortex (après une craniotomie et une durotomie). Résultats et conclusions Dans le premier chapitre, nous démontrons la capacité des neurones à modifier leur sélectivité après une période d’adaptation visuelle à un stimulus particulier, ces changements aboutissent à une réorganisation des cartes corticales suivant un patron spécifique. Nous attribuons ce résultat à la flexibilité de groupes fonctionnels de neurones qui étaient longtemps considérés comme des unités anatomiques rigides. En effet, nous observons une restructuration extensive des domaines d’orientation dans le but de remodeler les colonnes d’orientation où chaque stimulus est représenté de façon égale. Ceci est d’autant plus confirmé dans le second chapitre où dans ce cas, les cartes de connectivité fonctionnelle sont investiguées. En accord avec les résultats énumérés précédemment, les cartes de connectivité montrent également une restructuration massive mais de façon intéressante, les neurones utilisent une stratégie de sommation afin de stabiliser leurs poids de connectivité totaux. Ces dynamiques de connectivité sont examinées dans le troisième chapitre en relation avec les propriétés électrophysiologiques des neurones. En effet, deux modes de décharge neuronale permettent la distinction entre deux classes neuronales. Leurs dynamiques de corrélations distinctes suggèrent que ces deux classes jouent des rôles clés différents dans l’encodage et l’intégration des stimuli visuels au sein d’une population neuronale. Enfin, dans le dernier chapitre, l’adaptation visuelle est combinée avec l’administration de certaines substances, notamment la sérotonine (neurotransmetteur) et la fluoxétine (inhibiteur sélectif de recapture de la sérotonine). Ces deux substances produisent un effet similaire en facilitant l’acquisition des stimuli imposés par adaptation. Lorsqu’un stimulus non optimal est présenté en présence de l’une des deux substances, nous observons une augmentation du taux de décharge des neurones en présentant ce stimulus. Nous présentons un modèle neuronal basé sur cette recherche afin d’expliquer les fluctuations du taux de décharge neuronale en présence ou en absence des drogues. Cette thèse présente de nouvelles perspectives quant à la compréhension de l’adaptation des neurones du cortex visuel primaire adulte dans le but de changer leur sélectivité dans un environnement d’apprentissage. Nous montrons qu’il y a un parfait équilibre entre leurs habiletés plastiques et leur dynamique d’homéostasie.