401 resultados para Systèmes de Lévy
Resumo:
OBJECTIF: Évaluer le rôle de l’endostatine, un nouveau marqueur anti-angiogénique, pour prédire le risque de prééclampsie (PE). METHODES: Il s’agit d’une étude cas témoins nichée dans deux cohortes prospectives. Les échantillons sanguins étaient collectés entre 11 et 17 semaines puis entre 18 et 26 semaines d’aménorrhée. L’hypertension gestationnelle était définie par une tension artérielle supérieure ou égale à 140/90mmHg à 2 reprises. Les cas de prééclampsie étaient définis par une hypertension gestationnelle associée à une protéinurie supérieure ou égale à 0.3 g /24h après 20 semaines de grossesse. La concentration d’endostatine était mesurée par une technique d’ELISA. Les résultats étaient exprimés en multiples de la médiane (MoM) et ajustés pour l’âge maternel, l’âge gestationnel, l’ethnie, et la cohorte d’origine. Une régression logistique était utilisée pour calculer des odds ratios (OR) ajustés et prédire le risque de PE. RESULTATS: Au total nous avons étudié 77 PE et 150 témoins chez des grossesses uniques. Parmi les PE 21 étaient de survenue précoce, avec un diagnostic avant 34 semaines et 41 étaient des PE sévères. Les cas avaient un IMC plus élevé que les témoins et étaient plus souvent Africaines. Les taux médians d’endostatine étaient significativement plus élevés chez les PE que chez les témoins au 1er trimestre (94.2 versus 90.7 ng/ml, p=0.004) et 2ème trimestre (105.8 versus 99.3 ng/ml p=0.002). Le taux d’endostatine entre 18 et 26 semaines était même plus élevé chez les patientes qui développaient une PE précoce. Lorsque l’endostatine était supérieure au 75èmepercentile (exprimée en MoM), le OR ajusté était de 1.33 95IC [0.68-2.58] à 11-17 semaines et 1.77 [0.94-3.34] à 18-26 semaines. L’OR ajusté pour les PE précoces était 3.51 [1.18-10.43] entre 11-17 semaines et 2.17 [0.67-7.06] entre 18-26 semaines. CONCLUSIONS: Un taux élevé d’endostatine dès le 1er trimestre est associé à une augmentation du risque de PE et surtout d’un risque de prééclampsie précoce. Toutefois l’endostatine seule a une trop faible valeur prédictive pour avoir une utilité clinique.
Resumo:
Les pédiatres intensivistes ont plusieurs éléments disponibles pour guider leurs décisions par rapport à la ventilation mécanique. Par contre, aucune étude prospective ne décrit les éléments auxquels les intensivistes se réfèrent pour modifier les paramètres du respirateur. Objectifs : Décrire la pratique actuelle de la modification des paramètres du respirateur aux soins intensifs du CHU Sainte-Justine, un hôpital pédiatrique tertiaire. Hypothèse : 80% des modifications des paramètres du respirateur influant sur l’épuration du CO2 sont liées à l’analyse de la PCO2 ou du pH et 80% des modifications des paramètres d’oxygénation sont liés à l’analyse de l’oxymétrie de pouls. Méthodes : En se servant d’un logiciel de recueil de données, les soignants ont enregistré un critère de décision primaire et tous les critères de décision secondaires menant à chaque modification de paramètre du respirateur au moment même de la modification. Résultats : Parmi les 194 modifications des paramètres du respirateur influant sur l’épuration du CO2, faites chez vingts patients, 42.3% ±7.0% avaient pour critère primaire la PCO2 ou le pH sanguin. Parmi les 41 modifications de la pression expiratoire positive et les 813 modifications de la fraction d’oxygène inspirée, 34.1% ±14.5% et 84.5% ±2.5% avaient pour critère primaire l’oxymétrie de pouls, respectivement. Conclusion : Les médecins surestiment le rôle de la PCO2 et du pH sanguins et sousestiment le rôle d’autres critères de décision dans la gestion de la ventilation mécanique. L’amélioration de notre compréhension de la pratique courante devrait aider à l’éboration des systèmes d’aide à la décision clinique en assistance respiratoire.
Resumo:
La membrane cellulaire est principalement une bicouche phospholipidique constituant une barrière qui régule les échanges entre la cellule et son environnement. Son intérieur hydrophobe empêche le passage d’espèces hydrophiles, chargées, de grande masse moléculaire et polaires, qui sont généralement transportées par des protéines à travers la bicouche. Dans certains cas de systèmes défectueux (e.g. les canalopathies), l’équilibre des concentrations en ions à l’intérieur et à l’extérieur des cellules est perturbé et les cellules sont compromises. C’est pourquoi le développement de transporteurs transmembranaires synthétiques est nécessaire. De nombreux travaux ont été faits dans le développement de transporteurs synthétiques d’anions (particulièrement du chlorure). Dans cette thèse, nous présentons nos travaux sur un nouveau transporteur d’anion appelé axe parapluie, capable de changer de conformation dépendamment de la polarité de son environnement. Dans un premier temps, nous avons conçu le design, puis synthétisé ces axes parapluie qui montrent une importante activité en tant que transporteur de chlorures. Ces composés réunissent deux concepts : - Le parapluie, constitué d’acides biliaires amphiphiles (une face hydrophile, une face hydrophobe). La flexibilité des articulations combinée à la grande surface des acides choliques permettent d’empêcher les interactions défavorables entre les parties hydrophiles et hydrophobes, ce qui facilite l’insertion dans la bicouche. - Un site ammonium secondaire en tant que site de reconnaissance, capable de former des ponts hydrogène avec des ions chlorure. De plus, l’axe peut complexer une roue de type éther couronne pour former un pseudo-rotaxane ou rotaxane parapluie ce qui résulte en l’inhibition partielle de leurs propriétés de transport. Ceci nous mène au second objectif de cette thèse, le développement d’un nouveau moyen de transport pour les médicaments cycliques. Certains macrocycles polaires et biologiquement actifs tels que les nactines ont besoin d’atteindre leur objectif à l’intérieur de la cellule pour jouer leur rôle. La membrane cellulaire est alors un obstacle. Nous avons imaginé tirer profit de notre axe parapluie pour transporter un médicament cyclique (en tant que roue d’un rotaxane parapluie). Les assemblages des rotaxanes parapluie furent accomplis par la méthode de clipage. Le comportement de l’axe et du rotaxane parapluie fut étudié par RMN et fluorimétrie. Le mouvement du parapluie passant d’une conformation fermée à exposée dépendamment du milieu fut observé pour le rotaxane parapluie. Il en fut de même pour les interactions entre le rotaxane parapluie et des vésicules constituées de phospholipides. Finalement, la capacité du rotaxane parapluie à franchir la bicouche lipidique pour transporter la roue à l’intérieur de la vésicule fut démontrée à l’aide de liposomes contenant de la α-chymotrypsine. Cette dernière pu cliver certains liens amide de l’axe parapluie afin de relarguer la roue.
Resumo:
La dépression est une pathologie grave qui, malgré de multiples stratégies thérapeutiques, demeure résistante chez un tiers des patients. Les techniques de stimulation cérébrale sont devenues une alternative intéressante pour les patients résistants à diverses pharmacothérapies. La stimulation du nerf vague (SNV) a ainsi fait preuve de son efficacité en clinique et a récemment été approuvée comme traitement additif pour la dépression résistante. Cependant, les mécanismes d’action de la SNV en rapport avec la dépression n’ont été que peu étudiés. Cette thèse a donc eu comme premier objectif de caractériser l’impact de la SNV sur les différents systèmes monoaminergiques impliqués dans la pathophysiologie de la dépression, à savoir la sérotonine (5-HT), la noradrénaline (NA) et la dopamine (DA), grâce à l’utilisation de techniques électrophysiologiques et de la microdialyse in vivo chez le rat. Des études précliniques avaient déjà révélé qu’une heure de SNV augmente le taux de décharge des neurones NA du locus coeruleus, et que 14 jours de stimulation sont nécessaires pour observer un effet comparable sur les neurones 5-HT. Notre travail a démontré que la SNV modifie aussi le mode de décharge des neurones NA qui présente davantage de bouffées, influençant ainsi la libération terminale de NA, qui est significativement augmentée dans le cortex préfrontal et l’hippocampe après 14 jours. L’augmentation de la neurotransmission NA s’est également manifestée par une élévation de l’activation tonique des récepteurs postsynaptiques α2-adrénergiques de l’hippocampe. Après lésion des neurones NA, nous avons montré que l’effet de la SNV sur les neurones 5-HT était indirect, et médié par le système NA, via l’activation des récepteurs α1-adrénergiques présents sur les neurones du raphé. Aussi, tel que les antidépresseurs classiques, la SNV augmente l’activation tonique des hétérorécepteurs pyramidaux 5-HT1A, dont on connait le rôle clé dans la réponse thérapeutique aux antidépresseurs. Par ailleurs, nous avons constaté que malgré une diminution de l’activité électrique des neurones DA de l’aire tegmentale ventrale, la SNV induit une augmentation de la DA extracellulaire dans le cortex préfrontal et particulièrement dans le noyau accumbens, lequel joue un rôle important dans les comportements de récompense et l’hédonie. Un deuxième objectif a été de caractériser les paramètres optimaux de SNV agissant sur la dépression, en utilisant comme indicateur le taux de décharge des neurones 5-HT. Des modalités de stimulation moins intenses se sont avérées aussi efficaces que les stimulations standards pour augmenter l’activité électrique des neurones 5-HT. Ces nouveaux paramètres de stimulation pourraient s’avérer bénéfiques en clinique, chez des patients ayant déjà répondu à la SNV. Ils pourraient minimiser les effets secondaires reliés aux périodes de stimulation et améliorer ainsi la qualité de vie des patients. Ainsi, ces travaux de thèse ont caractérisé l’influence de la SNV sur les trois systèmes monoaminergiques, laquelle s’avère en partie distincte de celle des antidépresseurs classiques tout en contribuant à son efficacité en clinique. D’autre part, les modalités de stimulation que nous avons définies seraient intéressantes à tester chez des patients recevant la SNV, car elles devraient contribuer à l’amélioration des bénéfices cliniques de cette thérapie.
Resumo:
Cette thèse s'intéresse au lien qui existe entre le système électoral et deux comportements importants de la vie civique, soit la participation à une élection et la désertion stratégique du candidat préféré vers un autre candidat. Ces thèmes sont abordés dans de nombreux et de très importants ouvrages en science politique. En passant par la théorie (Downs, 1957) jusqu'à des études de terrain par l'entremise de sondages (Abramson, 2010; Blais, 2010), diverses méthodologies ont été employées pour mieux expliquer les choix des électeurs. Ma contribution à l'avancement des connaissances dans ce domaine passe par l'usage de la méthode expérimentale pour mieux saisir les similitudes et différences dans les comportements des électeurs sous le système uninominal à un tour (UT) et la représentation proportionnelle (RP) ainsi que les mécanismes au niveau individuel qui produisent ces similitudes et différences. Le cœur de la thèse est composé des trois articles dont voici les résumés : Article 1. Des élections expérimentales faites à Montréal, Paris et Bruxelles permettent d'estimer l’influence directe du mode de scrutin sur la décision des électeurs de voter ou non, et de voter pour leur parti préféré ou non. En tout, 16 groupes de 21 électeurs votent sous différents systèmes électoraux, soit le UT et la RP. Les préférences sont attribuées aléatoirement et connues de tous les participants. Nos résultats indiquent que le vote n'est pas globalement plus sincère et que la participation électorale n'est pas plus élevée sous le système proportionnel. Toutefois, nous observons moins de désertion d'un petit parti sous le système proportionnel. Article 2. Les expériences permettent également d'expliquer pourquoi les électeurs votent parfois pour un parti autre que leur parti préféré. La conclusion principale est que la décision de voter de façon sincère ou non est influencée par les préférences individuelles, mais aussi par les perceptions des chances de gagner des candidats ainsi que des chances que son propre vote puisse décider le résultat de l'élection. Les électeurs qui désertent leur premier choix prennent en considération quel candidat est le plus près de leurs positions politiques, mais également de la viabilité de cette alternative. De plus, les électeurs qui aiment prendre des risques ont davantage tendance à déserter. Article 3. Le modèle de l'électeur pivot est mis à l'épreuve pour mieux comprendre la décision de voter ou non lors d'une élection. Nos expériences permettent de répliquer, avec un devis expérimental différent, les résultats importants des travaux de Duffy et Tavits (2008). Nos résultats confirment que la perception d'être pivot augmente la participation, que ces perceptions sont sujettes à la surestimation et que cette surestimation ne décline pas complètement dans le temps. Nous allons également plus loin que les recherches de Duffy et Tavits et nous trouvons que la participation n'est pas plus forte sous RP que sous UT et que la probabilité d'être pivot a un impact plus important chez les électeurs évitant de prendre des risques.
Resumo:
Traditionnellement, les applications orientées objets légataires intègrent différents aspects fonctionnels. Ces aspects peuvent être dispersés partout dans le code. Il existe différents types d’aspects : • des aspects qui représentent des fonctionnalités métiers ; • des aspects qui répondent à des exigences non fonctionnelles ou à d’autres considérations de conception comme la robustesse, la distribution, la sécurité, etc. Généralement, le code qui représente ces aspects chevauche plusieurs hiérarchies de classes. Plusieurs chercheurs se sont intéressés à la problématique de la modularisation de ces aspects dans le code : programmation orientée sujets, programmation orientée aspects et programmation orientée vues. Toutes ces méthodes proposent des techniques et des outils pour concevoir des applications orientées objets sous forme de composition de fragments de code qui répondent à différents aspects. La séparation des aspects dans le code a des avantages au niveau de la réutilisation et de la maintenance. Ainsi, il est important d’identifier et de localiser ces aspects dans du code légataire orienté objets. Nous nous intéressons particulièrement aux aspects fonctionnels. En supposant que le code qui répond à un aspect fonctionnel ou fonctionnalité exhibe une certaine cohésion fonctionnelle (dépendances entre les éléments), nous proposons d’identifier de telles fonctionnalités à partir du code. L’idée est d’identifier, en l’absence des paradigmes de la programmation par aspects, les techniques qui permettent l’implémentation des différents aspects fonctionnels dans un code objet. Notre approche consiste à : • identifier les techniques utilisées par les développeurs pour intégrer une fonctionnalité en l’absence des techniques orientées aspects • caractériser l’empreinte de ces techniques sur le code • et développer des outils pour identifier ces empreintes. Ainsi, nous présentons deux approches pour l’identification des fonctionnalités existantes dans du code orienté objets. La première identifie différents patrons de conception qui permettent l’intégration de ces fonctionnalités dans le code. La deuxième utilise l’analyse formelle de concepts pour identifier les fonctionnalités récurrentes dans le code. Nous expérimentons nos deux approches sur des systèmes libres orientés objets pour identifier les différentes fonctionnalités dans le code. Les résultats obtenus montrent l’efficacité de nos approches pour identifier les différentes fonctionnalités dans du code légataire orienté objets et permettent de suggérer des cas de refactorisation.
Resumo:
Les réseaux maillés sans fil (RMSF), grâce à leurs caractéristiques avantageuses, sont considérés comme une solution efficace pour le support des services de voix, vidéo et de données dans les réseaux de prochaine génération. Le standard IEEE 802.16-d a spécifié pour les RMSF, à travers son mode maillé, deux mécanismes de planifications de transmission de données; à savoir la planification centralisée et la planification distribuée. Dans ce travail, on a évalué le support de la qualité de service (QdS) du standard en se focalisant sur la planification distribuée. Les problèmes du système dans le support du trafic de voix ont été identifiés. Pour résoudre ces problèmes, on a proposé un protocole pour le support de VoIP (AVSP) en tant qu’extension au standard original pour permettre le support de QdS au VoIP. Nos résultats préliminaires de simulation montrent qu’AVSP offre une bonne amélioration au support de VoIP.
Resumo:
Avec l’usage élargi de la CAAO, ces outils ont été largement utilisés dans le processus de conception architecturale. En dépit des fonctionnalités avancées offertes par les systèmes de CAAO, l'utilisation de la CAAO est principalement concentrée dans les étapes de production, comme un support graphique pour le dessin, la modélisation, le rendu et la simulation. Par conséquent, il est raisonnable de considérer que la situation actuelle relative à l’usage de la CAAO dans la profession d'architecte appelle à de nouvelles améliorations. En d'autres termes, nous devons trouver un moyen de mieux intégrer la technologie et les outils de CAAO dans le processus de conception architecturale, qui est notre question de recherche. Nous avons besoin de savoir comment la CAAO pourrait être utilisée pour améliorer la capacité de conception de l'architecte. Il ressort des discussions et des recherches menées pour cette étude que nous voulons un soutien de la technologie pour nous aider à mieux concevoir et non pas que la technologie conçoive à notre place. Nous aimerions avoir un système de CAAO qui pourrait nous servir d’assistant à la conception. En étudiant la situation de l'intégration des outils de CAAO dans les pratiques actuelles de conception des architectes et en examinant les approches utilisées dans les premières tentatives de développement d’un outil de CAAO intégré au processus de conception, on peut conclure que l'approche exploratoire et heuristique serait une meilleure approche qui pourrait être adaptée pour développer un système CAAO en soutien au travail de l’architecte. De plus, une étude plus approfondie a démontré que les deux sous- approches des approches exploratoires et heuristiques (approches basées sur les cas et les contraintes), sont applicables, mais aucune d'elles n'est suffisante. Par conséquent, l’approche hybride qui prend en compte les avantages de chacune des deux sous- approches précitées serait la plus applicable. Elle nous permettrait de développer un outil CAAD qui pourrait vraiment être intégré dans le processus de conception architecturale. Cette conclusion a été vérifiée par une étude complémentaire basée sur des entrevues.
Criteria for the validation of specialized verb equivalents : application in bilingual terminography
Resumo:
Multilingual terminological resources do not always include valid equivalents of legal terms for two main reasons. Firstly, legal systems can differ from one language community to another and even from one country to another because each has its own history and traditions. As a result, the non-isomorphism between legal and linguistic systems may render the identification of equivalents a particularly challenging task. Secondly, by focusing primarily on the definition of equivalence, a notion widely discussed in translation but not in terminology, the literature does not offer solid and systematic methodologies for assigning terminological equivalents. As a result, there is a lack of criteria to guide both terminologists and translators in the search and validation of equivalent terms. This problem is even more evident in the case of predicative units, such as verbs. Although some terminologists (L‘Homme 1998; Lerat 2002; Lorente 2007) have worked on specialized verbs, terminological equivalence between units that belong to this part of speech would benefit from a thorough study. By proposing a novel methodology to assign the equivalents of specialized verbs, this research aims at defining validation criteria for this kind of predicative units, so as to contribute to a better understanding of the phenomenon of terminological equivalence as well as to the development of multilingual terminography in general, and to the development of legal terminography, in particular. The study uses a Portuguese-English comparable corpus that consists of a single genre of texts, i.e. Supreme Court judgments, from which 100 Portuguese and 100 English specialized verbs were selected. The description of the verbs is based on the theory of Frame Semantics (Fillmore 1976, 1977, 1982, 1985; Fillmore and Atkins 1992), on the FrameNet methodology (Ruppenhofer et al. 2010), as well as on the methodology for compiling specialized lexical resources, such as DiCoInfo (L‘Homme 2008), developed in the Observatoire de linguistique Sens-Texte at the Université de Montréal. The research reviews contributions that have adopted the same theoretical and methodological framework to the compilation of lexical resources and proposes adaptations to the specific objectives of the project. In contrast to the top-down approach adopted by FrameNet lexicographers, the approach described here is bottom-up, i.e. verbs are first analyzed and then grouped into frames for each language separately. Specialized verbs are said to evoke a semantic frame, a sort of conceptual scenario in which a number of mandatory elements (core Frame Elements) play specific roles (e.g. ARGUER, JUDGE, LAW), but specialized verbs are often accompanied by other optional information (non-core Frame Elements), such as the criteria and reasons used by the judge to reach a decision (statutes, codes, previous decisions). The information concerning the semantic frame that each verb evokes was encoded in an xml editor and about twenty contexts illustrating the specific way each specialized verb evokes a given frame were semantically and syntactically annotated. The labels attributed to each semantic frame (e.g. [Compliance], [Verdict]) were used to group together certain synonyms, antonyms as well as equivalent terms. The research identified 165 pairs of candidate equivalents among the 200 Portuguese and English terms that were grouped together into 76 frames. 71% of the pairs of equivalents were considered full equivalents because not only do the verbs evoke the same conceptual scenario but their actantial structures, the linguistic realizations of the actants and their syntactic patterns were similar. 29% of the pairs of equivalents did not entirely meet these criteria and were considered partial equivalents. Reasons for partial equivalence are provided along with illustrative examples. Finally, the study describes the semasiological and onomasiological entry points that JuriDiCo, the bilingual lexical resource compiled during the project, offers to future users.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Cette thèse porte sur les questions d'évaluation et de couverture des options dans un modèle exponentiel-Lévy avec changements de régime. Un tel modèle est construit sur un processus additif markovien un peu comme le modèle de Black- Scholes est basé sur un mouvement Brownien. Du fait de l'existence de plusieurs sources d'aléa, nous sommes en présence d'un marché incomplet et ce fait rend inopérant les développements théoriques initiés par Black et Scholes et Merton dans le cadre d'un marché complet. Nous montrons dans cette thèse que l'utilisation de certains résultats de la théorie des processus additifs markoviens permet d'apporter des solutions aux problèmes d'évaluation et de couverture des options. Notamment, nous arrivons à caracté- riser la mesure martingale qui minimise l'entropie relative à la mesure de probabilit é historique ; aussi nous dérivons explicitement sous certaines conditions, le portefeuille optimal qui permet à un agent de minimiser localement le risque quadratique associé. Par ailleurs, dans une perspective plus pratique nous caract érisons le prix d'une option Européenne comme l'unique solution de viscosité d'un système d'équations intégro-di érentielles non-linéaires. Il s'agit là d'un premier pas pour la construction des schémas numériques pour approcher ledit prix.
Resumo:
Quelles sont les voies par lesquelles les changements sociaux affectent les identités collectives et de quelle manière une nouvelle identité vient à être adoptée par une population. Les grandes transformations qui eurent lieu en Mongolie du 19e siècle à la moitié du 20e siècle seront abordées pour tenter de répondre à ces questions. Dans un court laps de temps, cette région passa par trois systèmes politiques différents; d'une partie semi-autonome du territoire de l'empire Qing à une théocratie bouddhiste puis à une République populaire. Dans chacun des cas, les contextes sociaux ayant provoqué des changements dans la définition identitaire seront abordés ainsi que la forme par laquelle les nouveaux concepts d'identité collective allaient être sélectionnés, modifiés ou construits.