27 resultados para Theta Tau
Resumo:
Introduction Cette recherche constitue une étude clinique descriptive, visant à évaluer la douleur durant le traitement orthodontique avec boîtiers auto-ligaturants passifs et actifs. Matériel et méthode L'étude a été effectuée chez 39 patients (18 garçons, 21 filles), âge moyen 14 (entre 11 et 19 ans). Deux types de boîtiers auto-ligaturants ont été utilisés (SPEED n=20 et Damon n=19). Pour évaluer la douleur, un questionnaire a été élaboré par l'équipe de recherche. L’étude comportait 4 phases, c’est-à-dire l’évaluation de la douleur suite à l’insertion des 4 premiers fils orthodontiques du traitement de chaque patient (0.016 Supercable, 016 CuNiTi, 016X022 CuNiTi, 019X025 CuNiTi). Le même questionnaire était utilisé lors de chaque phase et le questionnaire comprenait 6 différents temps (T0: avant l’insertion du fil orthodontique, T1: immédiatement suite à l’insertion du fil, T2: 5h après l’insertion, T3: 24h après l’insertion, T4: 3 jours après l’insertion, T5: une semaine après l’insertion, T6: 4 semaines après l’insertion) suite à l’insertion de chaque fil. L’échelle visuelle analogue (EVA) et la version courte du questionnaire de Saint-Antoine ont été utilisés afin d’évaluer la douleur. Les données des EVA entre les groupes ont été comparées en utilisant le U test Mann-Whitney. Résultats et discussion Pour les deux premiers fils et pour tous les temps étudiés, il n’y avait pas de différence statistiquement significative entre les deux groupes (SPEED et Damon). Cependant, au moment de l’insertion (T0) du troisième fil (016X022 CuNiTi), parmi les patients ayant rapporté de la douleur (SPEED 47.1%, Damon 55.6%), le groupe Damon a rapporté une douleur significativement plus élevée que le groupe SPEED (p=0.018), (EVA moyenne SPEED=14.14±8.55, Damon=33.85±19.64). Trois jours après l’insertion du troisième fil, toujours parmi les patients ayant rapporté de la douleur (SPEED 23.5%, Damon 33.4%), la douleur était significativement plus élevée chez le groupe Damon que chez le groupe SPEED (p=0.008), (EVA moyenne SPEED=8.74±4.87, Damon=25.15±9.69). La plupart des analgésiques ont été pris suite à la pose du premier fil au temps T2 (5h) et T3 (24h). Il n’y avait pas de différence statistiquement significative entre les groupes en ce qui a trait au nombre de patients qui prenaient des analgésiques. La douleur n’a pas affecté le style de vie pour la grande majorité des patients. Les mots descriptifs sensoriels « tiraillement », « étau » et « élancement » et le mot affectif « énervant » étaient le plus souvent utilisés. Conclusion Les patients du groupe Damon ont ressenti significativement plus de douleur que les patients du groupe SPEED à l’insertion du troisième fil et trois jours suite à l’insertion. Plus de patients ont pris des médicaments pour la douleur avec le premier fil et le style de vie n’était pas affecté pour une majorité de patients. « Tiraillement », « étau », « élancement » et « énervant » étaient les mots descriptifs les plus utilisés par les patients pour décrire leur douleur.
Resumo:
Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.
Resumo:
Key agreement is a cryptographic scenario between two legitimate parties, who need to establish a common secret key over a public authenticated channel, and an eavesdropper who intercepts all their messages in order to learn the secret. We consider query complexity in which we count only the number of evaluations (queries) of a given black-box function, and classical communication channels. Ralph Merkle provided the first unclassified scheme for secure communications over insecure channels. When legitimate parties are willing to ask O(N) queries for some parameter N, any classical eavesdropper needs Omega(N^2) queries before being able to learn their secret, which is is optimal. However, a quantum eavesdropper can break this scheme in O(N) queries. Furthermore, it was conjectured that any scheme, in which legitimate parties are classical, could be broken in O(N) quantum queries. In this thesis, we introduce protocols à la Merkle that fall into two categories. When legitimate parties are restricted to use classical computers, we offer the first secure classical scheme. It requires Omega(N^{13/12}) queries of a quantum eavesdropper to learn the secret. We give another protocol having security of Omega(N^{7/6}) queries. Furthermore, for any k>= 2, we introduce a classical protocol in which legitimate parties establish a secret in O(N) queries while the optimal quantum eavesdropping strategy requires Theta(N^{1/2+k/{k+1}}) queries, approaching Theta(N^{3/2}) when k increases. When legitimate parties are provided with quantum computers, we present two quantum protocols improving on the best known scheme before this work. Furthermore, for any k>= 2, we give a quantum protocol in which legitimate parties establish a secret in O(N) queries while the optimal quantum eavesdropping strategy requires Theta(N^{1+{k}/{k+1}})} queries, approaching Theta(N^{2}) when k increases.
Resumo:
La démence d'Alzheimer est une maladie neurodégénérative caractérisée par une perte progressive et irreversible des fonctions cognitives et des compétences intellectuelles. La maladie d’Alzheimer se présente sous deux formes: la forme familiale ou précoce (EOAD) qui représente 5% des cas et elle est liée à des mutations génétiques affectant le métabolisme des peptides amyloïde; et la forme tardive ou sporadique (LOAD) qui représente 95% des cas mais son étiologie est encore mal définie. Cependant, le vieillissement reste le principal facteur de risque pour développer LOAD. Les changements épigénétiques impliquant des modifications des histones jouent un rôle crucial dans les maladies neurodégénératives et le vieillissement lié à l'âge. Des données récentes ont décrit LOAD comme un désordre de l'épigénome et ont associé ce trouble à l'instabilité génomique. Les protéines Polycomb sont des modificateurs épigénétiques qui induisent le remodelage de la chromatine et la répression des gènes à l'hétérochromatine facultative. Nous rapportons que les souris hétérozygotes pour une protéine Polycomb développent avec l'âge un trouble neurologique ressemblant à LOAD caractérisé par l’altération des fonctions cognitives, la phosphorylation de la protéine tau, l'accumulation des peptides amyloïde, et le dysfonctionnement synaptique. Ce phénotype pathologique est précédé par la décondensation de l’hétérochromatine neuronale et l'activation de la réponse aux dommages à l'ADN. Parallèlement, une réduction d’expression de polycomb, malformations de l'hétérochromatine neuronale, et l'accumulation de dommages à l'ADN étaient également présents dans les cerveaux de patients LOAD. Remarquablement, les dommages de l'ADN ne sont pas distribués de façon aléatoire sur le génome mais sont enrichis au niveau des séquences répétitives. Les conclusions présentées dans cette thèse ont identifié des modifications épigénétiques spécifiques qui conduisent à une instabilité génomique aberrante menant à la formation de LOAD. Ces résultats vont aider au développement de nouveaux traitements qui peuvent potentiellement ralentir la neurodégénérescence.
Resumo:
Chez l’humain, différents protocoles de stimulation magnétique transcrânienne répétée (SMTr) peuvent être utilisés afin de manipuler expérimentalement la plasticité cérébrale au niveau du cortex moteur primaire (M1). Ces techniques ont permis de mieux comprendre le rôle du sommeil dans la régulation de la plasticité cérébrale. Récemment, une étude a montré que lorsqu’une première session de stimulation SMTr au niveau de M1 est suivie d’une nuit de sommeil, l’induction subséquente de la plasticité par une deuxième session SMTr est augmentée. La présente étude a investigué si ce type de métaplasticité pouvait également bénéficier d’une sieste diurne. Quatorze sujets en santé ont reçu deux sessions de intermittent theta burst stimulation (iTBS) connue pour son effet facilitateur sur l’excitabilité corticale. Les sessions de stimulation étaient séparées par une sieste de 90 minutes ou par une période équivalente d’éveil. L’excitabilité corticale était quantifiée en terme d’amplitude des potentiels évoqués moteurs (PEM) mesurés avant et après chaque session de iTBS. Les résultats montrent que la iTBS n’est pas parvenue à augmenter de manière robuste l’amplitude des PEMs lors de la première session de stimulation. Lors de la deuxième session de stimulation, la iTBS a produit des changements plastiques variables et ce peu importe si les sujets ont dormi ou pas. Les effets de la iTBS sur l’excitabilité corticale étaient marqués par une importante variabilité inter et intra-individuelle dont les possibles causes sont discutées.
Resumo:
Soit $\displaystyle P(z):=\sum_{\nu=0}^na_\nu z^{\nu}$ un polynôme de degré $n$ et $\displaystyle M:=\sup_{|z|=1}|P(z)|.$ Sans aucne restriction suplémentaire, on sait que $|P'(z)|\leq Mn$ pour $|z|\leq 1$ (inégalité de Bernstein). Si nous supposons maintenant que les zéros du polynôme $P$ sont à l'extérieur du cercle $|z|=k,$ quelle amélioration peut-on apporter à l'inégalité de Bernstein? Il est déjà connu [{\bf \ref{Mal1}}] que dans le cas où $k\geq 1$ on a $$(*) \qquad |P'(z)|\leq \frac{n}{1+k}M \qquad (|z|\leq 1),$$ qu'en est-il pour le cas où $k < 1$? Quelle est l'inégalité analogue à $(*)$ pour une fonction entière de type exponentiel $\tau ?$ D'autre part, si on suppose que $P$ a tous ses zéros dans $|z|\geq k \, \, (k\geq 1),$ quelle est l'estimation de $|P'(z)|$ sur le cercle unité, en terme des quatre premiers termes de son développement en série entière autour de l'origine. Cette thèse constitue une contribution à la théorie analytique des polynômes à la lumière de ces questions.
Resumo:
Ce mémoire évalue l’efficacité de Housing First (HF) sur la stabilité résidentielle de personnes itinérantes ayant des troubles mentaux et son rapport coût-efficacité différentiel (RCED) sous une perspective sociétale. Une étude à répartition aléatoire (n=469) comparant HF avec les services usuels (SU) a été réalisée à Montréal, Canada. Des questionnaires ont été distribués à intervalles de 3- et 6- mois pendant 24 mois. Le temps passé en logement stable est passé de 6,44% à 62,21% pour les HF ayant des besoins élevés vs. 6,64% à 23,34% chez leurs homologues SU. Les pourcentages correspondants des participants ayant des besoins modérés sont de 12,13% à 79,58% pour HF vs. 6,45% à 34,01% pour SU. Le coût total des participants ayant des besoins élevés est de 73 301$/an pour HF vs. 64 715$/an pour SU (RCED=49,85$/jour); celui des participants ayant des besoins modérés est de 47 746$/an pour HF vs. 46 437$/an pour SU (RCED=3,65$/jour). Les diminutions de coûts associées à HF ont compensé une partie importante des coûts de l’intervention.
Resumo:
Cette thèse concerne le problème de trouver une notion naturelle de «courbure scalaire» en géométrie kählérienne généralisée. L'approche utilisée consiste à calculer l'application moment pour l'action du groupe des difféomorphismes hamiltoniens sur l'espace des structures kählériennes généralisées de type symplectique. En effet, il est bien connu que l'application moment pour la restriction de cette action aux structures kählériennes s'identifie à la courbure scalaire riemannienne. On se limite à une certaine classe de structure kählériennes généralisées sur les variétés toriques notée $DGK_{\omega}^{\mathbb{T}}(M)$ que l'on reconnaît comme étant classifiées par la donnée d'une matrice antisymétrique $C$ et d'une fonction réelle strictement convexe $\tau$ (ayant un comportement adéquat au voisinage de la frontière du polytope moment). Ce point de vue rend évident le fait que toute structure kählérienne torique peut être déformée en un élément non kählérien de $DGK_{\omega}^{\mathbb{T}}(M)$, et on note que cette déformation à lieu le long d'une des classes que R. Goto a démontré comme étant libre d'obstruction. On identifie des conditions suffisantes sur une paire $(\tau,C)$ pour qu'elle donne lieu à un élément de $DGK_{\omega}^{\mathbb{T}}(M)$ et on montre qu'en dimension 4, ces conditions sont également nécessaires. Suivant l'adage «l'application moment est la courbure» mentionné ci-haut, des formules pour des notions de «courbure scalaire hermitienne généralisée» et de «courbure scalaire riemannienne généralisée» (en dimension 4) sont obtenues en termes de la fonction $\tau$. Enfin, une expression de la courbure scalaire riemannienne généralisée en termes de la structure bihermitienne sous-jacente est dégagée en dimension 4. Lorsque comparée avec le résultat des physiciens Coimbra et al., notre formule suggère un choix canonique pour le dilaton de leur théorie.
Resumo:
La synthèse de siliciures métalliques sous la forme de films ultra-minces demeure un enjeu majeur en technologie CMOS. Le contrôle du budget thermique, afin de limiter la diffusion des dopants, est essentiel. Des techniques de recuit ultra-rapide sont alors couramment utilisées. Dans ce contexte, la technique de nanocalorimétrie est employée afin d'étudier, in situ, la formation en phase solide des siliciures de Ni à des taux de chauffage aussi élevés que 10^5 K/s. Des films de Ni, compris entre 9.3 et 0.3 nm sont déposés sur des calorimètres avec un substrat de a-Si ou de Si(100). Des mesures de diffraction de rayons X, balayées en température à 3 K/s, permettent de comparer les séquences de phase obtenues à bas taux de chauffage sur des échantillons de contrôle et à ultra-haut taux de chauffage sur les calorimètres. En premier lieu, il est apparu que l'emploi de calorimètres de type c-NC, munis d'une couche de 340 nm de Si(100), présente un défi majeur : un signal endothermique anormal vient fausser la mesure à haute température. Des micro-défauts au sein de la membrane de SiNx créent des courts-circuits entre la bande chauffante de Pt du calorimètre et l'échantillon métallique. Ce phénomène diminue avec l'épaisseur de l'échantillon et n'a pas d'effet en dessous de 400 °C tant que les porteurs de charge intrinsèques au Si ne sont pas activés. Il est possible de corriger la mesure de taux de chaleur en fonction de la température avec une incertitude de 12 °C. En ce qui a trait à la formation des siliciures de Ni à ultra-haut taux de chauffage, l'étude montre que la séquence de phase est modifiée. Les phases riches en m étal, Ni2Si et théta, ne sont pas détectées sur Si(100) et la cinétique de formation favorise une amorphisation en phase solide en début de réaction. Les enthalpies de formation pour les couches de Ni inférieures à 10 nm sont globalement plus élevées que dans le cas volumique, jusqu' à 66 %. De plus, les mesures calorimétriques montrent clairement un signal endothermique à haute température, témoignant de la compétition que se livrent la réaction de phase et l'agglomération de la couche. Pour les échantillons recuits a 3 K/s sur Si(100), une épaisseur critique telle que décrite par Zhang et Luo, et proche de 4 nm de Ni, est supposée. Un modèle est proposé, basé sur la difficulté de diffusion des composants entre des grains de plus en plus petits, afin d'expliquer la stabilité accrue des couches de plus en plus fines. Cette stabilité est également observée par nanocalorimétrie à travers le signal endothermique. Ce dernier se décale vers les hautes températures quand l'épaisseur du film diminue. En outre, une 2e épaisseur critique, d'environ 1 nm de Ni, est remarquée. En dessous, une seule phase semble se former au-dessus de 400 °C, supposément du NiSi2.
Resumo:
Le trouble comportemental en sommeil paradoxal (TCSP) est une parasomnie se caractérisant par la perte de l’atonie musculaire, la paralysie qui accompagne généralement le sommeil paradoxal, suivie de l’apparition de comportements indésirables et souvent violents. Des études suggèrent que le TCSP idiopathique (TCSPi) est fortement lié au développement ultérieur de la maladie de Parkinson, de la démence à corps de Lewy et de l’atrophie multisystémique. En effet, des signes subtils de neurodégénérescence sont observés chez ces patients, notamment un ralentissement de l’activité électrique cérébrale (EEG) à l’éveil et la présence de troubles cognitifs. Le but de cette thèse est 1) d’évaluer sur le plan transversal la contribution du trouble cognitif léger (TCL) dans le ralentissement de l’EEG à l’éveil observé chez ces patients et 2) d’évaluer la valeur prédictive des mesures de l’EEG à l’éveil mesurées au temps de base par rapport au développement d’une maladie neurodégénérative (MND) lors du suivi longitudinal. Dans le cadre de la première étude, l’EEG à l’éveil d’un groupe de patients avec un TCSPi présentant des atteintes cognitives a été comparé à celui d’un groupe de patients sans troubles cognitifs et à des sujets témoins sains. Seuls les patients avec un TCL affichaient un ralentissement de l’EEG d’éveil plus prononcé au niveau postérieur, c’est-à-dire une puissance relative thêta plus élevée dans les régions pariétale, temporale et occipitale, une puissance relative alpha plus faible dans les régions occipitale et temporale, en plus d’un ratio spectral (ondes lentes sur ondes rapides) plus élevé dans ces régions en comparaison avec les deux autres groupes. De plus, le ratio spectral corrélait négativement avec les fonctions attentionnelles/exécutives, visuospatiales et la mémoire épisodique verbale. La deuxième étude a quant à elle évalué l’EEG à l’éveil au temps initial de patients qui ont développé une MND sur une période de 3,5 ans en comparaison à celui de patients qui sont demeurés idiopathiques et à un groupe de témoins sains. Les patients avec un TCSPi qui ont évolué vers une MND présentaient une augmentation de la puissance de l’activité absolue delta et thêta, en plus d’un ratio spectral plus élevé dans les cinq régions corticales en comparaison avec les deux autres groupes. Cette thèse suggère ainsi que le ralentissement de l’EEG à l’éveil dans le TCSPi est relié à la présence d’un TCL concomitant. De plus, ces anomalies sont associées à un plus grand risque de développer une maladie de Parkinson, une démence à corps de Lewy ou une atrophie multisystémique à court terme chez ces patients. Le ralentissement de l’EEG à l’éveil semble donc être un marqueur prometteur d’une neurodégénérescence cérébrale plus sévère chez les patients souffrant d’un TCSPi.
Resumo:
Purpose: There are few studies demonstrating the link between neural oscillations in magnetoencephalography (MEG) at rest and cognitive performance. Working memory is one of the most studied cognitive processes and is the ability to manipulate information on items kept in short-term memory. Heister & al. (2013) showed correlation patterns between brain oscillations at rest in MEG and performance in a working memory task (n-back). These authors showed that delta/theta activity in fronto-parietal areas is related to working memory performance. In this study, we use resting state MEG oscillations to validate these correlations with both of verbal (VWM) and spatial (SWM) working memory, and test their specificity in comparison with other cognitive abilities. Methods: We recorded resting state MEG and used clinical neuropsychological tests to assess working memory performance in 18 volunteers (6 males and 12 females). The other neuropsychological tests of the WAIS-IV were used as control tests to assess the specificity of the correlation patterns with working memory. We calculated means of Power Spectrum Density for different frequency bands (delta, 1-4Hz; theta, 4-8Hz; alpha, 8-13Hz; beta, 13-30Hz; gamma1, 30-59Hz; gamma2, 61-90Hz; gamma3, 90-120Hz; large gamma, 30-120Hz) and correlated MEG power normalised for the maximum in each frequency band at the sensor level with working memory performance. We then grouped the sensors showing a significant correlation by using a cluster algorithm. Results: We found positive correlations between both types of working memory performance and clusters in the bilateral posterior and right fronto-temporal regions for the delta band (r2 =0.73), in the fronto-middle line and right temporal regions for the theta band (r2 =0.63) as well as in the parietal regions for the alpha band (r2 =0.78). Verbal working memory and spatial working memory share a common fronto-parietal cluster of sensors but also show specific clusters. These clusters are specific to working memory, as compared to those obtained for other cognitive abilities and right posterior parietal areas, specially in slow frequencies, appear to be specific to working memory process. Conclusions: Slow frequencies (1-13Hz) but more precisely in delta/theta bands (1-8Hz), recorded at rest with magnetoencephalography, predict working memory performance and support the role of a fronto-parietal network in working memory.
Resumo:
Beaucoup de patients atteints de la maladie de Parkinson (MP) peuvent souffrir de troubles cognitifs dès les étapes initiales de la maladie et jusqu’à 80% d’entre eux vont développer une démence. Des altérations fonctionnelles au niveau du cortex préfrontal dorsolatéral (CPFDL), possiblement en relation avec le noyau caudé, seraient à l’origine de certains de ces déficits cognitifs. Des résultats antérieurs de notre groupe ont montré une augmentation de l’activité et de la connectivité dans la boucle cortico-striatale cognitive suite à la stimulation magnétique transcrânienne (SMT) utilisant des paramètres « theta burst » intermittent (iTBS) sur le CPFDL gauche. Pour cette étude, 24 patients atteints de la MP avec des troubles cognitifs ont été séparées en 2 groupes : le groupe iTBS active (N=15) et le groupe sham (stimulation simulée, N=9). Une batterie neuropsychologique détaillée évaluant cinq domaines cognitifs (attention, fonctions exécutives, langage, mémoire et habiletés visuo-spatiales) a été administrée lors des jours 1, 8, 17 et 37. Le protocole iTBS a été appliqué sur le CPFDL gauche durant les jours 2, 4 et 7. Les scores z ont été calculés pour chaque domaine cognitif et pour la cognition globale. Les résultats ont montré une augmentation significative de la cognition globale jusqu’à 10 jours suivant l’iTBS active, particulièrement au niveau de l’attention, des fonctions exécutives et des habiletés visuo-spatiales. Cet effet sur la cognition globale n’est pas répliqué dans le groupe sham. Ces résultats suggèrent donc que l’iTBS peut moduler la performance cognitive chez les patients atteints de MP avec des déficits cognitifs.