458 resultados para Formule du nombre de classes de Dirichlet
Resumo:
Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation.
Resumo:
Les troubles schizophréniques (SCZ) ont une forte héritabilité, de l’ordre de 80%, mais, une très faible part du risque génétique a été identifiée. La plupart des études ont considéré l’implication de polymorphismes fréquents, chacun ayant un effet relativement faible individuellement, alors que les études de variants du nombre de copies (CNVs) ainsi que les études d’anomalies chromosomiques ont pointé l’implication possible de variants rares et de novo à une forte pénétrance. Dans une première partie, nous présentons une synthèse sur les facteurs génétiques dans la SCZ, puis une revue des arguments en faveur de l’implication d’anomalies du système glutamatergique dans la SCZ, domaine sur lequel s’est centré notre travail. Notre travail s’inscrit dans un projet plus vaste, Synapse to Disease (S2D) ayant pour objectif de séquencer 1000 gènes synaptiques dans des cohortes de patients atteints de schizophrénie ou de troubles du spectre autistique. Nous avons exploré en particulier le système glutamatergique et les récepteurs NMDA. Dans un premier article, nous montrons une association d’une mutation troncante de novo de la kinésine 17, impliquée dans le transport de la sous-unité GRIN2B des récepteurs NMDA. Dans un second article, nous explorons les mutations rares et de novo dans les sous-unités des récepteurs NMDA et montrons l’association de mutation de novo dans GRIN2A et GRIN2B avec des cas de SCZ et d’autisme. Nos résultats renforcent l’idée qu’une part des cas de schizophrénie pourrait être due à l’implication de mutations rare à effet majeur, hypothèse alternative mais non exclusive à l’hypothèse d’interactions entre variants génétiques fréquents à effet mineur.
Resumo:
Le recours au plasma pour stériliser des dispositifs médicaux (DM) est un domaine de recherche ne datant véritablement que de la fin des années 1990. Les plasmas permettent, dans les conditions adéquates, de réaliser la stérilisation à basse température (≤ 65°C), tel qu’exigé par la présence de polymères dans les DM et ce contrairement aux procédés par chaleur, et aussi de façon non toxique, contrairement aux procédés chimiques comme, par exemple, l’oxyde d’éthylène (OEt). Les laboratoires du Groupe de physique des plasmas à l’Université de Montréal travaillent à l’élaboration d’un stérilisateur consistant plus particulièrement à employer les effluents d’une décharge N2-%O2 basse pression (2-8 Torrs) en flux, formant ce que l’on appelle une post-décharge en flux. Ce sont les atomes N et O de cette décharge qui viendront, dans les conditions appropriées, entrer en collisions dans la chambre de stérilisation pour y créer des molécules excitées NO*, engendrant ainsi l’émission d’une quantité appréciable de photons UV. Ceux-ci constituent, dans le cas présent, l’agent biocide qui va s’attaquer directement au bagage génétique du micro-organisme (bactéries, virus) que l’on souhaite inactiver. L’utilisation d’une lointaine post-décharge évite du même coup la présence des agents érosifs de la décharge, comme les ions et les métastables. L’un des problèmes de cette méthode de stérilisation est la réduction du nombre de molécules NO* créées par suite de la perte des atomes N et O, qui sont des radicaux connus pour interagir avec les surfaces, sur les parois des matériaux des DM que l’on souhaite stériliser. L’objectif principal de notre travail est de déterminer l’influence d’une telle perte en surface, dite aussi réassociation en surface, par l’introduction de matériaux comme le Téflon, l’acier inoxydable, l’aluminium et le cuivre sur le taux d’inactivation des spores bactériennes. Nous nous attendons à ce que la réassociation en surface de ces atomes occasionne ainsi une diminution de l’intensité UV et subséquemment, une réduction du taux d’inactivation. Par spectroscopie optique d’émission (SOE), nous avons déterminé les concentrations perdues de N et de O par la présence des matériaux dans le stérilisateur, ainsi que la diminution de l’émission UV en découlant. Nous avons observé que cette diminution des concentrations atomiques est d’autant plus importante que les surfaces sont catalytiques. Au cours de l’étude du phénomène de pertes sur les parois pour un mélange N2-%O2 nous avons constaté l’existence d’une compétition en surface entre les atomes N et O, dans laquelle les atomes d’oxygènes semblent dominer largement. Cela implique qu’au-delà d’un certain %O2 ajouté à la décharge N2, seuls les atomes O se réassocient en surface. Par ailleurs, l’analyse des courbes de survie bi-phasiques des micro-organismes a permis d’établir une étroite corrélation, par lien de cause à effet, entre la consommation des atomes N et O en surface et la diminution du taux d’inactivation des spores dans la première phase. En revanche, nous avons constaté que notre principal agent biocide (le rayonnement ultraviolet) est moins efficace dans la deuxième phase et, par conséquent, il n’a pas été possible d’établir un lien entre la diminution des concentrations et le taux d’inactivation de cette phase-là.
Resumo:
La problématique des réfugiés fait partie du cadre plus large des politiques migratoires et de la migration internationale en général. Étant un pays d’immigration, le Canada a dû composer avec plusieurs vagues migratoires et s’y adapter en changeant sa politique d’immigration (au niveau fédéral et provincial) en définissant, en termes numériques, les objectifs annuels d’admission des immigrants (le nombre souhaité d’immigrants), ainsi que les objectifs politiques, humanitaires, économiques et démographiques à long terme. Le groupe visé par le présent rapport (les demandeurs d’asile et les réfugiés) se distingue de toute autre catégorie d’immigration par la spécificité de sa condition - une fuite involontaire et une absence de protection des autorités nationales de leur pays. Au plan international et dans le cadre de la politique canadienne, un réfugié: « l’individu qui fuit la persécution » devient un «demandeur d’asile » au moment de faire face à un processus de reconnaissance du statut de réfugié, conforme aux définitions, aux lois et à la politique d’immigration canadiennes. Les étapes de ce processus sont importantes, parce qu’elles établissent une continuité de la demande d’asile, mais aussi parce qu’elles influencent la comptabilisation et les statistiques sur les demandeurs d’asile et les réfugiés. Les données de Citoyenneté et Immigration Canada figurent parmi les rares sources disponibles donnant à la fois des informations sur les demandeurs d’asile et les réfugiés. Cette population au Canada est mal connue et assez difficile à décrire à cause de la faiblesse des statistiques. Du point de vue démographique, une meilleure connaissance du nombre et de l’évolution des immigrants de la catégorie « demandeur d’asile » ou « réfugié », ainsi que de leurs caractéristiques sociodémographiques (sexe, âge, scolarité, connaissances linguistiques, pays d’origine, etc.) aide à cerner leurs besoins en services et à leur fournir des politiques adéquates d’intégration à la culture et à la vie canadiennes.
Resumo:
La thymectomie est un geste chirurgical fréquemment nécessaire lors des interventions cardiaques en période néonatale. Il est connu que la résection du thymus entraîne une lymphopénie ne semblant pas avoir de conséquences cliniques graves. La lymphopénie constatée serait plus importante chez les patients ayant eu une chirurgie cardiaque de type Fontan. Toutefois, on ignore si la lymphopénie est uniquement secondaire à la thymectomie ou si elle est liée à ce type particulier de chirurgie cardiaque. La présente recherche porte sur 19 patients opérés selon l'approche Fontan; ils ont été comparés à 6 patients "contrôle" ayant eu une thymectomie au cours d'une chirurgie cardiaque d'un autre type. Les résultats indiquent que les patients de type Fontan accusent une diminution du nombre de cellules naïves CD4+ et CD8+ et plus particulièrement une baisse de leurs émigrants thymiques (CD45RA+CD31+/CD4+). On note en contrepartie une expansion du répertoire mémoire (CD45RO+). Ces altérations lymphocytaires sont comparables aux contrôles. Il semble donc que les anomalies lymphocytaires relevées soient reliées principalement à la thymectomie et non pas au type de chirurgie. Les infections plus importantes chez les Fontan, quant à elles, pourraient s'expliquer par une évolution post-opératoire défavorable.
Resumo:
La stimulation du récepteur de la rénine/prorénine [(P) RR], un membre récemment découvert du système rénine-angiotensine (SRA), augmente l'activité du SRA et des voies de signalisation angiotensine II-indépendante. Pour étudier l'impact potentiel du (P)RR dans le développement de l`obésité, nous avons émis l'hypothèse que les souris déficientes en (P)RR uniquement dans le tissus adipeux (KO) auront une diminution du poids corporel en ciblant le métabolisme du tissu adipeux, l'activité locomoteur et/ou la prise alimentaire. Ainsi, des souris KO ont été générées en utilisant la technologie Cre/Lox. Le gain de poids et la prise alimentaire ont été évalués hebdomadairement dans les mâles et femelles KO et de type sauvage (WT) pendant 4 semaines alors qu’ils étaient maintenu sur une diète normal. De plus, un groupe de femelles a été placé pour 6 semaines sur une diète riche en gras et en glucides (HF/HC). La composition corporelle et l'activité ambulatoire ont été évaluées par l’EchoMRI et à l’aide de cages Physioscan, respectivement. Les tissus adipeux ont été prélevés et pesés. De plus, les gras péri-gonadaux ont été utilisés pour le microarray. Finalement, le niveaux d'expression d'ARNm du (P)RR ont été évalués. Comme le gène du (P)RR est situé sur le chromosome X, les mâles étaient des KOs complets et les femelles étaient des KOs partielles. Les souris KO avaient un poids corporel significativement plus petit par rapport à WT, les différences étant plus prononcées chez les mâles. De plus, les femelles KOs étaient résistantes à l'obésité lorsqu'elles ont été placées sur la diète HF/HC et donc elles avaient significativement moins de masse grasse par rapport aux WTs. L’analyse histologique des gras péri-gonadaux des KOs nous ont dévoilés qu’il avait une réduction du nombre d'adipocytes mais de plus grande taille. Bien qu'il n'y ait eu aucun changement dans la consommation alimentaire, une augmentation de près de 3 fois de l'activité ambulatoire a été détectée chez les mâles. De plus, nous avons observé que leurs tibias étaient de longueur réduite ce qui suggère fortement l'affection de leur développement. Les gras péri-gonadaux des souris KO avaient une expression réduite de l`ABLIM2 (Actin binding LIM protein family, member 2) qui est associé avec le diabète de type II chez l'humain. Ainsi, les données recueillies suggèrent fortement que le (P)RR est impliquée dans la régulation du poids corporelle.
Resumo:
La variabilité génétique actuelle est influencée par une combinaison complexe de variables historiques et contemporaines. Dès lors, une interprétation juste de l’impact des processus actuels nécessite une compréhension profonde des processus historiques ayant influencé la variabilité génétique. En se basant sur la prémisse que des populations proches devraient partager une histoire commune récente, nombreuses études, effectuées à petite échelle spatiale, ne prennent pas en considération l’effet potentiel des processus historiques. Cette thèse avait pour but de vérifier la validité de cette prémisse en estimant l’effet de la dispersion historique à grande et à petite échelle spatiale. Le premier volet de cette thèse avait pour but d’évaluer l’impact de la dispersion historique sur la répartition des organismes à grande échelle spatiale. Pour ce faire, les moules d’eau douce du genre flotteurs (Pyganodon spp.) ont servies de modèle biologique. Les moules d'eau douce se dispersent principalement au stade larvaire en tant que parasites des poissons. Une série de modèles nuls ont été développés pour évaluer la co-occurrence entre des parasites et leurs hôtes potenitels. Les associations distinctes du flotteur de Terre-Neuve (P. fragilis) avec des espèces de poissons euryhalins permettent d’expliquer sa répartition. Ces associations distinctes ont également pu favoriser la différenciation entre le flotteur de Terre-Neuve et son taxon soeur : le flotteur de l’Est (P. cataracta). Cette étude a démontré les effets des associations biologiques historiques sur les répartitions à grande échelle spatiale. Le second volet de cette thèse avait pour but d’évaluer l’impact de la dispersion historique sur la variabilité génétique, à petite échelle spatiale. Cette fois, différentes populations de crapet de roche (Ambloplites rupestris) et de crapet soleil (Lepomis gibbosus), dans des drainages adjacents ont servies de modèle biologique. Les différences frappantes observées entre les deux espèces suggèrent des patrons de colonisation opposés. La faible diversité génétique observée en amont des drainages et la forte différenciation observée entre les drainages pour les populations de crapet de roche suggèrent que cette espèce aurait colonisé les drainages à partir d'une source en aval. Au contraire, la faible différenciation et la forte diversité génétique observées en amont des drainages pour les populations de crapet soleil suggèrent une colonisation depuis l’amont, induisant du même coup un faux signal de flux génique entre les drainages. La présente étude a démontré que la dispersion historique peut entraver la capacité d'estimer la connectivité actuelle, à petite échelle spatiale, invalidant ainsi la prémisse testée dans cette thèse. Les impacts des processus historiques sur la variabilité génétique ne sont pas faciles à démontrer. Le troisième volet de cette thèse avait pour but de développer une méthode permettant de les détecter. La méthode proposée est très souple et favorise la comparaison entre la variabilité génétique et plusieurs hypothèses de dispersion. La méthode pourrait donc être utilisée pour comparer des hypothèses de dispersion basées sur le paysage historique et sur le paysage actuel et ainsi permettre l’évaluation des impacts historiques et contemporains sur la variabilité génétique. Les performances de la méthode sont présentées pour plusieurs scénarios de simulations, d’une complexité croissante. Malgré un impact de la différentiation globale, du nombre d’individus ou du nombre de loci échantillonné, la méthode apparaît hautement efficace. Afin d’illustrer le potentiel de la méthode, deux jeux de données empiriques très contrastés, publiés précédemment, ont été ré analysés. Cette thèse a démontré les impacts de la dispersion historique sur la variabilité génétique à différentes échelles spatiales. Les effets historiques potentiels doivent être pris en considération avant d’évaluer les impacts des processus écologiques sur la variabilité génétique. Bref, il faut intégrer l’évolution à l’écologie.
Resumo:
Les dernières décennies ont été marquées par une augmentation du nombre des cas de cancers, ce qui a subséquemment conduit à une augmentation dans la consommation des agents de chimiothérapie. La toxicité et le caractère cancérogène de ces molécules justifient l’intérêt crucial porté à leur égard. Quelques études ont fait l’objet de détection et de quantification des agents de chimiothérapie dans des matrices environnementales. Dans ce projet, une méthode utilisant la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS) précédée d’une extraction sur phase solide (SPE) automatisée ou en ligne a été développée pour la détection et la quantification d’un groupe de six agents de chimiothérapie. Parmi ceux-ci figurent les plus utilisés au Québec (gemcitabine, méthotrexate, cyclophosphamide, ifosfamide, irinotécan, épirubicine) et présentant des propriétés physico-chimiques et des structures chimiques différentes. La méthode développée a été validée dans une matrice réelle représentant l’affluent d’une station d’épuration dans la région de Montréal. Deux des six composés cytotoxiques étudiés en l’occurrence (cyclophosphamide et méthotrexate) ont été détectés dans huit échantillons sur les neuf qui ont été recensés, essentiellement au niveau de l’affluent et l’effluent de quelques stations d’épuration de la région de Montréal. Les résultats des analyses effectuées sur les échantillons réels ont montré qu’il n’y avait pas de différence significative dans la concentration entre l’affluent et l’effluent, et donc que les systèmes d’épuration semblent inefficaces pour la dégradation de ces molécules.
Resumo:
Les premières cellules progénitrices lympho-myéloïdes (LMPP) entrent dans le thymus et commencent leur processus de différenciation au stade double négatif (DN, CD4-CD8-). Après un réarrangement fonctionnel de la chaine bêta de leur récepteur des cellules T (RCT), les cellules reçoivent des signaux de différenciation, de prolifération, de survie et de sélection et passent au stade double positif (DP, CD4+CD8+). Ensuite, la chaine alpha du RCT est réarrangée et testée via les sélections positive et négative. Si le RCT reçoit un signal ni trop fort, ni trop faible, les cellules passent au stade simple positif où elles exprimeront soit la molécule CD4 ou CD8. ERK3, une MAPK non-conventionnelle, joue un rôle important dans le développement thymique. Des études précédentes ont démontré qu’une déficience en ERK3 diminue de 50 % la cellularité thymique et de 75% le nombre de cellules simples positives CD4 (CD4SP). Nous avons posé comme hypothèses qu’il y a une augmentation de l’apoptose chez les thymocytes DP de souris Erk3-/- et que cette déficience chez les thymocytes DP affecterait la sélection positive des cellules DP, réduisant ainsi le nombre de thymocytes CD4SP. Afin de vérifier la première hypothèse, nous avons regardé les niveaux d’apoptose grâce à la cytométrie en flux et par immunohistochimie. Dans les deux cas, nous étions incapables de détecter une différence du niveau d’apoptose chez les thymocytes DP entre les souris Erk3+/+ et Erk3-/-. Ensuite, nous nous sommes posés la question suivante : La demi-vie des thymocytes DP Erk3-/- était-elle plus courte que le type sauvage? La demi-vie des thymocytes DP a été mesurée à l’aide de l’étude des réarrangements secondaires de la chaine alpha du RCT par PCR semi-quantitatif et à l’aide de cultures de thymus fœtaux. En effet, ERK3 semble important pour prolonger la demi-vie des thymocytes DP. Ensuite, nous avons utilisé des marqueurs cellulaires différentiels (CD69, CD5 et RCT) pour regarder si les thymocytes DP sont capables de passer la sélection positive. En effet, il y a moins de thymocytes DP Erk3-/- qui sont CD69fort, CD5fort et RCTfort. Finalement, nous voulons savoir si les fonctions de ERK3 passent par MK5, son seul partenaire d’interaction connu à ce jour. Après la caractérisation du thymus de la souris Mk5-/-, nous observons que seulement la réduction du nombre de thymocytes CD4SP est identique à celle des thymocytes CD4SP de la souris Erk3-/-. En conclusion, ces résultats révèlent des fonctions importantes pour la molécule ERK3 lors du processus de sélection positive, le maintient de la demi-vie des thymocytes DP et lors de la régulation de développement thymique de manière MK5-dépendante et -indépendante.
Resumo:
Dans cette thèse, nous présentons une nouvelle méthode smoothed particle hydrodynamics (SPH) pour la résolution des équations de Navier-Stokes incompressibles, même en présence des forces singulières. Les termes de sources singulières sont traités d'une manière similaire à celle que l'on retrouve dans la méthode Immersed Boundary (IB) de Peskin (2002) ou de la méthode régularisée de Stokeslets (Cortez, 2001). Dans notre schéma numérique, nous mettons en oeuvre une méthode de projection sans pression de second ordre inspirée de Kim et Moin (1985). Ce schéma évite complètement les difficultés qui peuvent être rencontrées avec la prescription des conditions aux frontières de Neumann sur la pression. Nous présentons deux variantes de cette approche: l'une, Lagrangienne, qui est communément utilisée et l'autre, Eulerienne, car nous considérons simplement que les particules SPH sont des points de quadrature où les propriétés du fluide sont calculées, donc, ces points peuvent être laissés fixes dans le temps. Notre méthode SPH est d'abord testée à la résolution du problème de Poiseuille bidimensionnel entre deux plaques infinies et nous effectuons une analyse détaillée de l'erreur des calculs. Pour ce problème, les résultats sont similaires autant lorsque les particules SPH sont libres de se déplacer que lorsqu'elles sont fixes. Nous traitons, par ailleurs, du problème de la dynamique d'une membrane immergée dans un fluide visqueux et incompressible avec notre méthode SPH. La membrane est représentée par une spline cubique le long de laquelle la tension présente dans la membrane est calculée et transmise au fluide environnant. Les équations de Navier-Stokes, avec une force singulière issue de la membrane sont ensuite résolues pour déterminer la vitesse du fluide dans lequel est immergée la membrane. La vitesse du fluide, ainsi obtenue, est interpolée sur l'interface, afin de déterminer son déplacement. Nous discutons des avantages à maintenir les particules SPH fixes au lieu de les laisser libres de se déplacer. Nous appliquons ensuite notre méthode SPH à la simulation des écoulements confinés des solutions de polymères non dilués avec une interaction hydrodynamique et des forces d'exclusion de volume. Le point de départ de l'algorithme est le système couplé des équations de Langevin pour les polymères et le solvant (CLEPS) (voir par exemple Oono et Freed (1981) et Öttinger et Rabin (1989)) décrivant, dans le cas présent, les dynamiques microscopiques d'une solution de polymère en écoulement avec une représentation bille-ressort des macromolécules. Des tests numériques de certains écoulements dans des canaux bidimensionnels révèlent que l'utilisation de la méthode de projection d'ordre deux couplée à des points de quadrature SPH fixes conduit à un ordre de convergence de la vitesse qui est de deux et à une convergence d'ordre sensiblement égale à deux pour la pression, pourvu que la solution soit suffisamment lisse. Dans le cas des calculs à grandes échelles pour les altères et pour les chaînes de bille-ressort, un choix approprié du nombre de particules SPH en fonction du nombre des billes N permet, en l'absence des forces d'exclusion de volume, de montrer que le coût de notre algorithme est d'ordre O(N). Enfin, nous amorçons des calculs tridimensionnels avec notre modèle SPH. Dans cette optique, nous résolvons le problème de l'écoulement de Poiseuille tridimensionnel entre deux plaques parallèles infinies et le problème de l'écoulement de Poiseuille dans une conduite rectangulaire infiniment longue. De plus, nous simulons en dimension trois des écoulements confinés entre deux plaques infinies des solutions de polymères non diluées avec une interaction hydrodynamique et des forces d'exclusion de volume.
Resumo:
Le sujet sur lequel porte la présente étude est inspiré de la problématique à la base du développement du commerce électronique : la confiance. En effet, l’accroissement exponentiel du nombre d’internautes et des sites Web commerciaux pose un sérieux problème à ce niveau. Ces sites présentent au public une information et des services divers, mais peu vérifiables. Ainsi, le principal obstacle au développement du commerce électronique avec les particuliers est le manque de confiance qu’inspirent les lieux visités. En effet, comment savoir si l’entreprise existe, quelles sont ses politiques concernant la sécurité ou la gestion des renseignements personnels, etc. La vérification et la certification des sites apparaissent comme une solution de plus en plus attrayante et utilisée pour ajouter cet élément de confiance. Déjà, de nombreux sceaux de qualité sont apparus sur les sites commerciaux. Certains sceaux portent sur la confidentialité tandis que d’autres ciblent la protection des consommateurs. La certification peut provenir de la compagnie même, d’un tiers certificateur ou d’un organisme public. Ces éléments constituent des balises et repères importants pour le consommateur sur Internet. Toutefois, les incidences légales sont multiples et certains concepts demeurent flous. Pour apporter une réponse à ces questions, nous définirons le concept de certification des sites Web et ses enjeux dont plus particulièrement la problématique de la confiance des consommateurs. Les différents objets de la certification seront analysés, tant au niveau de l’entité, du contenu du site que de la dimension transactionnelle de celui-ci. Les processus possibles et les impacts de la certification occupent la seconde partie du travail. Il s’agit d’examiner successivement les étapes menant à la certification, soit l’établissement des standards, de l’évaluation de l’entité et de la certification elle-même. L’analyse des impacts de la certification, tant sur le plan de la portée, de la responsabilité légale et des effets sur la concurrence de la certification constitue quant à eux, l’aboutissement de la recherche, soit de savoir quel est l’impact juridique d’un tel mécanisme. Le but de la recherche est de permettre au lecteur de mieux cerner ce phénomène de l’utilisation de la certification sur Internet avec ses avantages et ses limites. Certes, cet outil peut s’avérer très utile pour bâtir la confiance des consommateurs, promouvoir l’essor du commerce électronique et constituer une forme d’autoréglementation. Toutefois, mal utilisé ou mal encadré, il peut engendrer l’effet inverse et détruire cette confiance si fragile à construire dans un environnement dématérialisé.
Resumo:
Ce mémoire étudie l'algorithme d'amplification de l'amplitude et ses applications dans le domaine de test de propriété. On utilise l'amplification de l'amplitude pour proposer le plus efficace algorithme quantique à ce jour qui teste la linéarité de fonctions booléennes et on généralise notre nouvel algorithme pour tester si une fonction entre deux groupes abéliens finis est un homomorphisme. Le meilleur algorithme quantique connu qui teste la symétrie de fonctions booléennes est aussi amélioré et l'on utilise ce nouvel algorithme pour tester la quasi-symétrie de fonctions booléennes. Par la suite, on approfondit l'étude du nombre de requêtes à la boîte noire que fait l'algorithme d'amplification de l'amplitude pour amplitude initiale inconnue. Une description rigoureuse de la variable aléatoire représentant ce nombre est présentée, suivie du résultat précédemment connue de la borne supérieure sur l'espérance. Suivent de nouveaux résultats sur la variance de cette variable. Il est notamment montré que, dans le cas général, la variance est infinie, mais nous montrons aussi que, pour un choix approprié de paramètres, elle devient bornée supérieurement.
Resumo:
Key agreement is a cryptographic scenario between two legitimate parties, who need to establish a common secret key over a public authenticated channel, and an eavesdropper who intercepts all their messages in order to learn the secret. We consider query complexity in which we count only the number of evaluations (queries) of a given black-box function, and classical communication channels. Ralph Merkle provided the first unclassified scheme for secure communications over insecure channels. When legitimate parties are willing to ask O(N) queries for some parameter N, any classical eavesdropper needs Omega(N^2) queries before being able to learn their secret, which is is optimal. However, a quantum eavesdropper can break this scheme in O(N) queries. Furthermore, it was conjectured that any scheme, in which legitimate parties are classical, could be broken in O(N) quantum queries. In this thesis, we introduce protocols à la Merkle that fall into two categories. When legitimate parties are restricted to use classical computers, we offer the first secure classical scheme. It requires Omega(N^{13/12}) queries of a quantum eavesdropper to learn the secret. We give another protocol having security of Omega(N^{7/6}) queries. Furthermore, for any k>= 2, we introduce a classical protocol in which legitimate parties establish a secret in O(N) queries while the optimal quantum eavesdropping strategy requires Theta(N^{1/2+k/{k+1}}) queries, approaching Theta(N^{3/2}) when k increases. When legitimate parties are provided with quantum computers, we present two quantum protocols improving on the best known scheme before this work. Furthermore, for any k>= 2, we give a quantum protocol in which legitimate parties establish a secret in O(N) queries while the optimal quantum eavesdropping strategy requires Theta(N^{1+{k}/{k+1}})} queries, approaching Theta(N^{2}) when k increases.
Resumo:
Introduction : La prévention de la mort de cellules cardiaques contractiles suite à un épisode d'infarctus du myocarde représente le plus grand défi dans la récupération de la fonction cardiaque. On a démontré à maintes reprises que l'ocytocine (OT), l'hormone bien connue pour ses rôles dans le comportement social et reproductif et couramment utilisée dans l’induction de l’accouchement, diminue la taille de l'infarctus et améliore la récupération fonctionnelle du myocarde blessé. Les mécanismes de cette protection ne sont pas totalement compris. Objectif : Étudier les effets d'un traitement avec de l'ocytocine sur des cardiomyocytes isolés en utilisant un modèle in vitro qui simule les conditions d'un infarctus du myocarde. Méthodes : La lignée cellulaire myoblastique H9c2 a été utilisée comme modèle de cardiomyocyte. Pour simuler le dommage d'ischémie-reperfusion (IR), les cellules ont été placées dans un tampon ischémique et incubées dans une chambre anoxique pendant 2 heures. La reperfusion a été accomplie par la restauration du milieu de culture régulier dans des conditions normales d'oxygène. L'OT a été administrée en présence ou en absence d'inhibiteurs de kinases connues pour être impliquées dans la cardioprotection. La mortalité cellulaire a été évaluée par TUNEL et l'activité mitochondriale par la production de formazan pendant 1 à 4 heures de reperfusion. La microscopie confocale a servie pour localiser les structures cellulaires. Résultats : Le modèle expérimental de l'IR dans les cellules H9c2 a été caractérisé par une diminution dans la production de formazan (aux alentours de 50 à 70 % du groupe témoin, p < 0.001) et par l'augmentation du nombre de noyaux TUNEL-positif (11.7 ± 4.5% contre 1.3 ± 0.7% pour le contrôle). L'addition de l'OT (10-7 a 10-9 M) au commencement de la reperfusion a inversé les effets de l'IR jusqu'aux niveaux du contrôle (p < 0.001). L'effet protecteur de l'OT a été abrogé par : i) un antagoniste de l'OT ; ii) le knockdown de l'expression du récepteur à l'OT induit par le siRNA ; iii) la wortmannin, l'inhibiteur de phosphatidylinositol 3-kinases ; iv) KT5823, l'inhibiteur de la protéine kinase dépendante du cGMP (PKG); v) l'ODQ, un inhibiteur du guanylate cyclase (GC) soluble, et A71915, un antagoniste du GC membranaire. L'analyse confocale des cellules traitées avec OT a révélé la translocation du récepteur à l'OT et la forme phosphorylée de l'Akt (Thr 308, p-Akt) dans le noyau et dans les mitochondries. Conclusions : L'OT protège directement la viabilité des cardiomyocytes, lorsqu'elle est administrée au début de la reperfusion, par le déclenchement de la signalisation du PI3K, la phosphorylation de l'Akt et son trafic cellulaire. La cytoprotection médiée par l'OT implique la production de cGMP par les deux formes de GC.
Resumo:
Travail dirigé présenté à la Faculté des sciences infirmières en vue de l'obtention du grade M.S. ès sciences (M. Sc) en sciences infirmières, option administration des sciences infirmières