40 resultados para Non-perturbative methods

em Université de Montréal, Canada


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Nous avons investigué, via les simulations de Monte Carlo, les propriétés non-perturbatives du modèle de Higgs abélien en 2+1 dimensions sans et avec le terme de Chern-Simons dans la phase de symétrie brisée, en termes de ses excitations topologiques: vortex et anti-vortex. Le but du présent travail est de rechercher les phases possibles du système dans ce secteur et d'étudier l'effet du terme de Chern-Simons sur le potentiel de confinement induit par les charges externes trouvé par Samuel. Nous avons formulé une description sur réseau du modèle effectif en utilisant une tesselation tétraédrique de l'espace tridimensionnel Euclidien pour générer des boucles de vortex fermées. En présence du terme de Chern-Simons, dans une configuration donnée, nous avons formulé et calculé le nombre d'enlacement entre les différentes boucles de vortex fermées. Nous avons analysé les propriétés du vide et calculé les valeurs moyennes de la boucle de Wilson, de la boucle de Polyakov à différentes températures et de la boucle de 't Hooft en présence du terme de Chern-Simons. En absence du terme de Chern-Simons, en variant la masse des boucles de vortex, nous avons trouvé deux phases distinctes dans le secteur de la symétrie brisée, la phase de Higgs habituelle et une autre phase caractérisée par l'apparition de boucles infinies. D'autre part, nous avons trouvé que la force entre les charges externes est écrantée correpondant à la loi périmètre pour la boucle de Wilson impliquant qu'il n'y a pas de confinement. Cependant, après la transition, nous avons trouvé qu'il existe toujours une portion de charges externes écrantée, mais qu'après une charge critique, l'énergie libre diverge. En présence du terme de Chern-Simons, et dans la limite de constante de couplage faible de Chern-Simons nous avons trouvé que les comportements de la boucle de Wilson et de la boucle de 't Hooft ne changent pas correspondants à une loi périmètre, impliquant qu'il n'y a pas de confinement. De plus, le terme de Chern-Simons ne contribue pas à la boucle de Wilson.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le sujet de l’avortement provoqué demeure encore tabou au Togo et la compréhension du phénomène reste incomplète. La présente étude vise à dresser un portrait complet de ses divers aspects dans la capitale togolaise, qui a connu une baisse importante de la fécondité au cours des dernières années. À partir des données des Enquêtes démographiques et de santé (EDS) de 1988 et 1998, et de celles de l’Enquête sur la planification familiale et l’avortement provoqué (EPAP) de 2002, l’étude montre que le recours à l’avortement est à la hausse à Lomé, bien que l’estimation de son ampleur dépende de la méthode utilisée. Plus de 32 % des femmes ayant déjà été enceintes ont déclaré avoir avorté au moins une fois. Toutefois, l’avortement est plus fréquent chez les jeunes, qui y ont recours de manière plus précoce et plus rapprochée que leurs aînées. En contribuant ainsi à la régulation des naissances, l’avortement réduit la fécondité de 10 à 12 %. En utilisant les données de l’EPAP, réalisée auprès de 4755 femmes âgées de 15-49 ans, nous avons aussi étudié le recours à l’avortement comme une séquence d’étapes débutant par l’exposition au risque de grossesse jusqu’au recours à l’avortement, en passant par une absence de pratique contraceptive et le fait qu’une grossesse qui survient soit déclarée « non désirée ». L’ethnie et la génération sont associées à certaines étapes de la séquence alors que la religion, la parité, le statut matrimonial et le niveau d’instruction sont associés aux quatre étapes. Ainsi, le risque élevé d’avorter chez les femmes instruites découle en fait de leur risque élevé à toutes les étapes. En étant moins à risque de grossesse, les femmes qui ont au moins deux enfants sont plus susceptibles que les nullipares, d’utiliser une contraception moderne, de déclarer une grossesse comme non désirée et d’avorter. Si plusieurs grossesses non désirées surviennent aux âges jeunes, c’est surtout le caractère « hors union » de la grossesse qui fait qu’elle est considérée comme « non désirée » et interrompue. En outre, les femmes qui ont déjà avorté ou utilisé une contraception sont plus enclines à recourir à un avortement. Les résultats montrent également que le partenaire soutient souvent la femme dans la décision d’avorter et s’acquitte des coûts dans la majorité des cas. Malgré le fait qu’ils soient illégaux, plus de 40 % des avortements sont pratiqués à Lomé dans des centres de santé, par un membre du personnel médical, et à l’aide du curetage ou de l’aspiration. Mais, la moitié de ces avortements (22 %) avait été tentée au préalable par des méthodes non médicales. Plusieurs avortements ont aussi lieu soit à domicile (36 %), soit chez des tradi-thérapeutes (24 %), grâce à des méthodes non médicales. Par ailleurs, près de 60 % des avortements ont entraîné des complications sanitaires, conduisant la majorité des femmes à une hospitalisation. Sur le plan psychologique et relationnel, nous avons montré que la plupart des avortements ont entraîné des regrets et remords, de même que des problèmes entre les femmes et leurs parents. Les parents soutiennent en fait peu les femmes dans la décision d’avorter et interviennent rarement dans le paiement des coûts. L’étude a enfin révélé que la loi sur l’avortement est peu connue. Cependant, être âgée de 25 ans ou plus, en union ou très instruite, connaître des méthodes contraceptives, le recours d’une parente ou amie à l’avortement sont associés, toutes choses égales par ailleurs, à une plus grande chance de connaître la loi. L’analyse, en appuyant des déclarations des professionnels de la santé et des femmes, montre que malgré sa forte prévalence à Lomé, le recours à l’avortement demeure largement stigmatisé. Les quelques professionnels et femmes qui se sont prononcés en faveur de sa légalisation pensent que celle-ci permettrait de « réduire les avortements clandestins et risqués ». En fait, ce sont les femmes les plus instruites, âgées de 25 ans ou plus, utilisant la contraception, ayant déjà avorté ou connaissant quelqu’un l’ayant fait, qui sont plus aptes à approuver la légalisation de l’avortement. Celles qui appartiennent aux églises de type « pentecôtiste », plus sévères quant aux relations sexuelles hors mariage, sont par contre moins susceptibles que les catholiques d’avoir une telle attitude positive.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dans un premier temps, nous avons modélisé la structure d’une famille d’ARN avec une grammaire de graphes afin d’identifier les séquences qui en font partie. Plusieurs autres méthodes de modélisation ont été développées, telles que des grammaires stochastiques hors-contexte, des modèles de covariance, des profils de structures secondaires et des réseaux de contraintes. Ces méthodes de modélisation se basent sur la structure secondaire classique comparativement à nos grammaires de graphes qui se basent sur les motifs cycliques de nucléotides. Pour exemplifier notre modèle, nous avons utilisé la boucle E du ribosome qui contient le motif Sarcin-Ricin qui a été largement étudié depuis sa découverte par cristallographie aux rayons X au début des années 90. Nous avons construit une grammaire de graphes pour la structure du motif Sarcin-Ricin et avons dérivé toutes les séquences qui peuvent s’y replier. La pertinence biologique de ces séquences a été confirmée par une comparaison des séquences d’un alignement de plus de 800 séquences ribosomiques bactériennes. Cette comparaison a soulevée des alignements alternatifs pour quelques unes des séquences que nous avons supportés par des prédictions de structures secondaires et tertiaires. Les motifs cycliques de nucléotides ont été observés par les membres de notre laboratoire dans l'ARN dont la structure tertiaire a été résolue expérimentalement. Une étude des séquences et des structures tertiaires de chaque cycle composant la structure du Sarcin-Ricin a révélé que l'espace des séquences dépend grandement des interactions entre tous les nucléotides à proximité dans l’espace tridimensionnel, c’est-à-dire pas uniquement entre deux paires de bases adjacentes. Le nombre de séquences générées par la grammaire de graphes est plus petit que ceux des méthodes basées sur la structure secondaire classique. Cela suggère l’importance du contexte pour la relation entre la séquence et la structure, d’où l’utilisation d’une grammaire de graphes contextuelle plus expressive que les grammaires hors-contexte. Les grammaires de graphes que nous avons développées ne tiennent compte que de la structure tertiaire et négligent les interactions de groupes chimiques spécifiques avec des éléments extra-moléculaires, comme d’autres macromolécules ou ligands. Dans un deuxième temps et pour tenir compte de ces interactions, nous avons développé un modèle qui tient compte de la position des groupes chimiques à la surface des structures tertiaires. L’hypothèse étant que les groupes chimiques à des positions conservées dans des séquences prédéterminées actives, qui sont déplacés dans des séquences inactives pour une fonction précise, ont de plus grandes chances d’être impliqués dans des interactions avec des facteurs. En poursuivant avec l’exemple de la boucle E, nous avons cherché les groupes de cette boucle qui pourraient être impliqués dans des interactions avec des facteurs d'élongation. Une fois les groupes identifiés, on peut prédire par modélisation tridimensionnelle les séquences qui positionnent correctement ces groupes dans leurs structures tertiaires. Il existe quelques modèles pour adresser ce problème, telles que des descripteurs de molécules, des matrices d’adjacences de nucléotides et ceux basé sur la thermodynamique. Cependant, tous ces modèles utilisent une représentation trop simplifiée de la structure d’ARN, ce qui limite leur applicabilité. Nous avons appliqué notre modèle sur les structures tertiaires d’un ensemble de variants d’une séquence d’une instance du Sarcin-Ricin d’un ribosome bactérien. L’équipe de Wool à l’université de Chicago a déjà étudié cette instance expérimentalement en testant la viabilité de 12 variants. Ils ont déterminé 4 variants viables et 8 létaux. Nous avons utilisé cet ensemble de 12 séquences pour l’entraînement de notre modèle et nous avons déterminé un ensemble de propriétés essentielles à leur fonction biologique. Pour chaque variant de l’ensemble d’entraînement nous avons construit des modèles de structures tertiaires. Nous avons ensuite mesuré les charges partielles des atomes exposés sur la surface et encodé cette information dans des vecteurs. Nous avons utilisé l’analyse des composantes principales pour transformer les vecteurs en un ensemble de variables non corrélées, qu’on appelle les composantes principales. En utilisant la distance Euclidienne pondérée et l’algorithme du plus proche voisin, nous avons appliqué la technique du « Leave-One-Out Cross-Validation » pour choisir les meilleurs paramètres pour prédire l’activité d’une nouvelle séquence en la faisant correspondre à ces composantes principales. Finalement, nous avons confirmé le pouvoir prédictif du modèle à l’aide d’un nouvel ensemble de 8 variants dont la viabilité à été vérifiée expérimentalement dans notre laboratoire. En conclusion, les grammaires de graphes permettent de modéliser la relation entre la séquence et la structure d’un élément structural d’ARN, comme la boucle E contenant le motif Sarcin-Ricin du ribosome. Les applications vont de la correction à l’aide à l'alignement de séquences jusqu’au design de séquences ayant une structure prédéterminée. Nous avons également développé un modèle pour tenir compte des interactions spécifiques liées à une fonction biologique donnée, soit avec des facteurs environnants. Notre modèle est basé sur la conservation de l'exposition des groupes chimiques qui sont impliqués dans ces interactions. Ce modèle nous a permis de prédire l’activité biologique d’un ensemble de variants de la boucle E du ribosome qui se lie à des facteurs d'élongation.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’examen de la rétine par des moyens non invasifs et in vivo a été un objectif de recherche pendant plusieurs années. Pour l’œil comme pour tous les organes du corps humain, un apport soutenu en oxygène est nécessaire pour le maintien de l’homéostasie. La concentration en oxygène du sang des vaisseaux rétiniens peut être déterminée principalement à partir des mesures du spectre de réflexion du fond de l’œil. En envoyant une lumière, à différentes longueurs d’onde, sur la rétine et en analysant la nature de la lumière réfléchie par la rétine, il est possible d’obtenir des informations quantitatives sur le niveau d'oxygène dans les vaisseaux sanguins de la rétine ou sur le flux sanguin. Cependant, la modélisation est compliquée due aux différentes interactions et aux chemins que la lumière prend à travers les tissus oculaires avant de quitter l’œil. L’objectif de cette thèse a été de développer et de valider un modèle mathématique afin de calculer les dérivées d’hémoglobine à partir de mesures spectrales de réflectométrie sur les vaisseaux sanguins de la rétine. L’instrument utilisé pour mesurer la fonction spectrale de réflectométrie a été un spectroréflectomètre multi-canal, une technologie capable de mesurer in vivo et en continu 800 spectres simultanément. L'équation mathématique qui décrit la fonction spectrale de réflectométrie dans la zone spectrale de 480 nm à 650 nm a été exprimée comme la combinaison linéaire de plusieurs termes représentant les signatures spectrales de l'hémoglobine SHb, de l'oxyhémoglobine SOHB, l’absorption et la diffusion des milieux oculaires et une famille de fonctions multigaussiennes utilisées pour compenser l’incompatibilité du modèle et les données expérimentales dans la zone rouge du spectre. Les résultats du modèle révèlent que le signal spectral obtenu à partir de mesures de réflectométrie dans l’œil est complexe, contenant la lumière absorbée, réfléchie et diffusée, mais chacun avec une certaine prédominance spécifique en fonction de la zone spectrale. La fonction spectrale d’absorption du sang est dominante dans la zone spectrale 520 à 580 nm, tandis que dans la zone spectrale de longueurs d’ondes plus grandes que 590 nm, la diffusion sur les cellules rouges du sang est dominante. Le modèle a été utilisé afin de mesurer la concentration d’oxygène dans les capillaires de la tête du nerf optique suite à un effort physique dynamique. L’effort physique a entraîné une réduction de la concentration d’oxygène dans les capillaires, ainsi qu’une réduction de la pression intraoculaire, tandis que la saturation sanguine en oxygène, mesurée au niveau du doigt, restait constante. Le modèle mathématique développé dans ce projet a ainsi permis, avec la technique novatrice de spectroréflectométrie multicanal, de déterminer in vivo et d’une manière non invasive l’oxygénation sanguine des vaisseaux rétiniens.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Mesures effectuées dans le laboratoire de caractérisation optique des semi-conducteurs du Prof. Richard Leonelli du département de physique de l'université de Montréal. Les nanofils d'InGaN/GaN ont été fournis par le groupe du Prof. Zetian Mi du département de génie électrique et informatique de l'université McGill.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette recherche part d’un double intérêt. Pour la spiritualité, dont on entend beaucoup parler dans un 21e siècle inquiet et en quête de nouveaux repères. Et pour le cinéma, ou 7e art, phénomène culturel phare des temps modernes, qui reflète abondamment les problématiques et questionnements du monde. À une époque où on observe une tendance à l’homogénéisation culturelle, résultat de la mondialisation économique, cette thèse traite du « cinéma transnational ». Elles aussi, les œuvres de ce cinéma traversent l’espace planétaire, mais tout en conservant un solide ancrage local et une singularité artistique. Ce sont en bonne partie les films que l’on retrouve dans les festivals internationaux, tels Cannes, Venise et Berlin. Le cinéma traduisant toutes les interrogations possibles du présent, plusieurs films apparaissent donc porteurs d’un questionnement à portée spirituelle. Et ce, avec des moyens non discursifs, propres à l’art cinématographique. Ils invitent aussi à la rencontre de l’autre. L’objectif de la thèse consiste à décrire comment, par l’analyse d’une douzaine de films transnationaux, on peut dégager de nouveaux concepts sur la façon avec laquelle se vit la spiritualité à notre époque, en relation avec l’autre, et pourquoi cette spiritualité s’accompagne nécessairement de considérations éthiques. Pour accomplir cette tâche, la thèse s’appuie sur les travaux de deux philosophes, Gilles Deleuze (France) et Stanley Cavell (États-Unis), qui ont marqué les études cinématographiques au cours des dernières décennies, par des approches jugées complémentaires pour cette recherche. Le premier a développé sa pensée à partir de ce qui distingue le cinéma des autres arts, et le second, à partir de l’importance du cinéma pour les spectateurs et les spectatrices. Enfin, la thèse se veut une théologie, ou pensée théologico-philosophique, indépendante d’une tradition religieuse et au diapason des réalités du 21e siècle.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

It is well-known that non-cooperative and cooperative game theory may yield different solutions to games. These differences are particularly dramatic in the case of truels, or three-person duels, in which the players may fire sequentially or simultaneously, and the games may be one-round or n-round. Thus, it is never a Nash equilibrium for all players to hold their fire in any of these games, whereas in simultaneous one-round and n-round truels such cooperation, wherein everybody survives, is in both the a -core and ß -core. On the other hand, both cores may be empty, indicating a lack of stability, when the unique Nash equilibrium is one survivor. Conditions under which each approach seems most applicable are discussed. Although it might be desirable to subsume the two approaches within a unified framework, such unification seems unlikely since the two approaches are grounded in fundamentally different notions of stability.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Moulin (1999) characterizes the fixed-path rationing methods by efficiency, strategy-proofness, consistency, and resource-monotonicity. In this note, we give a straightforward proof of his result.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

We propose finite sample tests and confidence sets for models with unobserved and generated regressors as well as various models estimated by instrumental variables methods. The validity of the procedures is unaffected by the presence of identification problems or \"weak instruments\", so no detection of such problems is required. We study two distinct approaches for various models considered by Pagan (1984). The first one is an instrument substitution method which generalizes an approach proposed by Anderson and Rubin (1949) and Fuller (1987) for different (although related) problems, while the second one is based on splitting the sample. The instrument substitution method uses the instruments directly, instead of generated regressors, in order to test hypotheses about the \"structural parameters\" of interest and build confidence sets. The second approach relies on \"generated regressors\", which allows a gain in degrees of freedom, and a sample split technique. For inference about general possibly nonlinear transformations of model parameters, projection techniques are proposed. A distributional theory is obtained under the assumptions of Gaussian errors and strictly exogenous regressors. We show that the various tests and confidence sets proposed are (locally) \"asymptotically valid\" under much weaker assumptions. The properties of the tests proposed are examined in simulation experiments. In general, they outperform the usual asymptotic inference methods in terms of both reliability and power. Finally, the techniques suggested are applied to a model of Tobin’s q and to a model of academic performance.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In the context of multivariate regression (MLR) and seemingly unrelated regressions (SURE) models, it is well known that commonly employed asymptotic test criteria are seriously biased towards overrejection. in this paper, we propose finite-and large-sample likelihood-based test procedures for possibly non-linear hypotheses on the coefficients of MLR and SURE systems.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper considers various asymptotic approximations in the near-integrated firstorder autoregressive model with a non-zero initial condition. We first extend the work of Knight and Satchell (1993), who considered the random walk case with a zero initial condition, to derive the expansion of the relevant joint moment generating function in this more general framework. We also consider, as alternative approximations, the stochastic expansion of Phillips (1987c) and the continuous time approximation of Perron (1991). We assess how these alternative methods provide or not an adequate approximation to the finite-sample distribution of the least-squares estimator in a first-order autoregressive model. The results show that, when the initial condition is non-zero, Perron's (1991) continuous time approximation performs very well while the others only offer improvements when the initial condition is zero.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this paper we propose exact likelihood-based mean-variance efficiency tests of the market portfolio in the context of Capital Asset Pricing Model (CAPM), allowing for a wide class of error distributions which include normality as a special case. These tests are developed in the frame-work of multivariate linear regressions (MLR). It is well known however that despite their simple statistical structure, standard asymptotically justified MLR-based tests are unreliable. In financial econometrics, exact tests have been proposed for a few specific hypotheses [Jobson and Korkie (Journal of Financial Economics, 1982), MacKinlay (Journal of Financial Economics, 1987), Gib-bons, Ross and Shanken (Econometrica, 1989), Zhou (Journal of Finance 1993)], most of which depend on normality. For the gaussian model, our tests correspond to Gibbons, Ross and Shanken’s mean-variance efficiency tests. In non-gaussian contexts, we reconsider mean-variance efficiency tests allowing for multivariate Student-t and gaussian mixture errors. Our framework allows to cast more evidence on whether the normality assumption is too restrictive when testing the CAPM. We also propose exact multivariate diagnostic checks (including tests for multivariate GARCH and mul-tivariate generalization of the well known variance ratio tests) and goodness of fit tests as well as a set estimate for the intervening nuisance parameters. Our results [over five-year subperiods] show the following: (i) multivariate normality is rejected in most subperiods, (ii) residual checks reveal no significant departures from the multivariate i.i.d. assumption, and (iii) mean-variance efficiency tests of the market portfolio is not rejected as frequently once it is allowed for the possibility of non-normal errors.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Contexte. Les études cas-témoins sont très fréquemment utilisées par les épidémiologistes pour évaluer l’impact de certaines expositions sur une maladie particulière. Ces expositions peuvent être représentées par plusieurs variables dépendant du temps, et de nouvelles méthodes sont nécessaires pour estimer de manière précise leurs effets. En effet, la régression logistique qui est la méthode conventionnelle pour analyser les données cas-témoins ne tient pas directement compte des changements de valeurs des covariables au cours du temps. Par opposition, les méthodes d’analyse des données de survie telles que le modèle de Cox à risques instantanés proportionnels peuvent directement incorporer des covariables dépendant du temps représentant les histoires individuelles d’exposition. Cependant, cela nécessite de manipuler les ensembles de sujets à risque avec précaution à cause du sur-échantillonnage des cas, en comparaison avec les témoins, dans les études cas-témoins. Comme montré dans une étude de simulation précédente, la définition optimale des ensembles de sujets à risque pour l’analyse des données cas-témoins reste encore à être élucidée, et à être étudiée dans le cas des variables dépendant du temps. Objectif: L’objectif général est de proposer et d’étudier de nouvelles versions du modèle de Cox pour estimer l’impact d’expositions variant dans le temps dans les études cas-témoins, et de les appliquer à des données réelles cas-témoins sur le cancer du poumon et le tabac. Méthodes. J’ai identifié de nouvelles définitions d’ensemble de sujets à risque, potentiellement optimales (le Weighted Cox model and le Simple weighted Cox model), dans lesquelles différentes pondérations ont été affectées aux cas et aux témoins, afin de refléter les proportions de cas et de non cas dans la population source. Les propriétés des estimateurs des effets d’exposition ont été étudiées par simulation. Différents aspects d’exposition ont été générés (intensité, durée, valeur cumulée d’exposition). Les données cas-témoins générées ont été ensuite analysées avec différentes versions du modèle de Cox, incluant les définitions anciennes et nouvelles des ensembles de sujets à risque, ainsi qu’avec la régression logistique conventionnelle, à des fins de comparaison. Les différents modèles de régression ont ensuite été appliqués sur des données réelles cas-témoins sur le cancer du poumon. Les estimations des effets de différentes variables de tabac, obtenues avec les différentes méthodes, ont été comparées entre elles, et comparées aux résultats des simulations. Résultats. Les résultats des simulations montrent que les estimations des nouveaux modèles de Cox pondérés proposés, surtout celles du Weighted Cox model, sont bien moins biaisées que les estimations des modèles de Cox existants qui incluent ou excluent simplement les futurs cas de chaque ensemble de sujets à risque. De plus, les estimations du Weighted Cox model étaient légèrement, mais systématiquement, moins biaisées que celles de la régression logistique. L’application aux données réelles montre de plus grandes différences entre les estimations de la régression logistique et des modèles de Cox pondérés, pour quelques variables de tabac dépendant du temps. Conclusions. Les résultats suggèrent que le nouveau modèle de Cox pondéré propose pourrait être une alternative intéressante au modèle de régression logistique, pour estimer les effets d’expositions dépendant du temps dans les études cas-témoins

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’atteinte de la fonction endothéliale représente une phase précoce de l’athérosclérose, un stade où les patients sont généralement asymptomatiques. Il existe donc un intérêt certain à détecter la dysfonction endothéliale. Nous avons développé une technique de mesure des variations de flot artériel au niveau des membres supérieurs, basée sur la spectroscopie proche infrarouge (NIRS). Cette approche permettrait d’étudier le niveau d’atteinte vasculaire et probablement de quantifier le degré de dysfonction endothéliale périphérique lors d’une hyperémie réactive. L'expérience a été exécutée sur deux cohortes de 13 et de 15 patients et a été comparée à la pléthysmographie par jauge de contrainte (SGP) qui est considérée comme une méthode de référence. Par la suite, nous avons caractérisé la réponse endothéliale par modélisation de la courbe hyperémique du flot artériel. Des études préliminaires avaient démontré que la réponse hyperémique adoptait majoritairement une forme bi-modale. Nous avons tenté de séparer les composantes endothéliales-dépendantes et endothéliales-indépendantes de l’hyperémie. La quantification des deux composantes de la réaction hyperémique permet de calculer un indice de la ‘santé’ du système endothélial local. Cet indice est nommé le ηfactor. Les résultats montrent une forte corrélation des mesures de flots entre la technique développée et la méthode de référence (r=0.91). Nous avons conclu que NIRS est une approche précise pour la mesure non-invasive du flot artériel. Nous avons obtenu une bonne répétabilité (ICC = 0.9313) pour le ηfactor indiquant sa robustesse. Cependant des études supplémentaires sont nécessaires pour valider la valeur de diagnostic du facteur défini. Mots clés: hyperémie réactive, réponse myogénique, oxyde nitrique, athérosclérose, spectroscopie proche infrarouge

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La bio-informatique est un champ pluridisciplinaire qui utilise la biologie, l’informatique, la physique et les mathématiques pour résoudre des problèmes posés par la biologie. L’une des thématiques de la bio-informatique est l’analyse des séquences génomiques et la prédiction de gènes d’ARN non codants. Les ARN non codants sont des molécules d’ARN qui sont transcrites mais pas traduites en protéine et qui ont une fonction dans la cellule. Trouver des gènes d’ARN non codants par des techniques de biochimie et de biologie moléculaire est assez difficile et relativement coûteux. Ainsi, la prédiction des gènes d’ARNnc par des méthodes bio-informatiques est un enjeu important. Cette recherche décrit un travail d’analyse informatique pour chercher des nouveaux ARNnc chez le pathogène Candida albicans et d’une validation expérimentale. Nous avons utilisé comme stratégie une analyse informatique combinant plusieurs logiciels d’identification d’ARNnc. Nous avons validé un sous-ensemble des prédictions informatiques avec une expérience de puces à ADN couvrant 1979 régions du génome. Grace à cette expérience nous avons identifié 62 nouveaux transcrits chez Candida albicans. Ce travail aussi permit le développement d’une méthode d’analyse pour des puces à ADN de type tiling array. Ce travail présente également une tentation d’améliorer de la prédiction d’ARNnc avec une méthode se basant sur la recherche de motifs d’ARN dans les séquences.