984 resultados para Filtres passe-haut
Resumo:
On ne compte plus le nombre de représentations ou d’adaptations sur la scène ou à l’écran de la pièce de théâtre d’Edmond Rostand, Cyrano de Bergerac. Celle-ci a bénéficié d’un succès considérable en France et dans le monde, de la date de sa première représentation, le 28 décembre 1897, jusqu’à nos jours. Son héros, Cyrano de Bergerac, s’appuie librement sur l’écrivain réel, Savinien de Cyrano de Bergerac, qui vécut au XVIIe siècle mais dont pratiquement plus personne ne connaît l’existence. Aujourd’hui, tout le monde éprouve admiration et tendresse à l’égard du duelliste au grand nez qui, par ses lettres amoureuses, aide le beau Christian à conquérir le cœur de Roxane; mais nul ne lit plus Savinien de Cyrano de Bergerac. Sans doute la pièce de Rostand possède-t-elle de réelles valeurs littéraires, une construction rigoureuse, des personnages élaborés, une écriture poétique et légère, de l’humour, de l’émotion… Et cependant, malgré ces qualités indéniables, il demeure difficile d’expliquer son triomphe. Nous posons l’hypothèse selon laquelle, c’est à la manière dont Edmond Rostand a fait de Cyrano de Bergerac un mythe littéraire entouré de symboles propres à une identité dans laquelle les Français sont susceptibles de se reconnaître - et grâce aussi à un contexte sociopolitique dont il a réussi, volontairement ou pas, à tirer grand parti - qu’est attribuable le succès démesuré de la pièce. Rostand a créé un évangile de cape et d’épée sur fond d’Affaire Dreyfus pour un univers théâtral qui intègre les symboles autour desquels les Français se retrouvent volontiers : gastronomie, élégance, faconde, galanterie, fidélité, honneur, patriotisme, … panache.
Resumo:
Les modèles sur réseau comme ceux de la percolation, d’Ising et de Potts servent à décrire les transitions de phase en deux dimensions. La recherche de leur solution analytique passe par le calcul de la fonction de partition et la diagonalisation de matrices de transfert. Au point critique, ces modèles statistiques bidimensionnels sont invariants sous les transformations conformes et la construction de théories des champs conformes rationnelles, limites continues des modèles statistiques, permet un calcul de la fonction de partition au point critique. Plusieurs chercheurs pensent cependant que le paradigme des théories des champs conformes rationnelles peut être élargi pour inclure les modèles statistiques avec des matrices de transfert non diagonalisables. Ces modèles seraient alors décrits, dans la limite d’échelle, par des théories des champs logarithmiques et les représentations de l’algèbre de Virasoro intervenant dans la description des observables physiques seraient indécomposables. La matrice de transfert de boucles D_N(λ, u), un élément de l’algèbre de Temperley- Lieb, se manifeste dans les théories physiques à l’aide des représentations de connectivités ρ (link modules). L’espace vectoriel sur lequel agit cette représentation se décompose en secteurs étiquetés par un paramètre physique, le nombre d de défauts. L’action de cette représentation ne peut que diminuer ce nombre ou le laisser constant. La thèse est consacrée à l’identification de la structure de Jordan de D_N(λ, u) dans ces représentations. Le paramètre β = 2 cos λ = −(q + 1/q) fixe la théorie : β = 1 pour la percolation et √2 pour le modèle d’Ising, par exemple. Sur la géométrie du ruban, nous montrons que D_N(λ, u) possède les mêmes blocs de Jordan que F_N, son plus haut coefficient de Fourier. Nous étudions la non diagonalisabilité de F_N à l’aide des divergences de certaines composantes de ses vecteurs propres, qui apparaissent aux valeurs critiques de λ. Nous prouvons dans ρ(D_N(λ, u)) l’existence de cellules de Jordan intersectorielles, de rang 2 et couplant des secteurs d, d′ lorsque certaines contraintes sur λ, d, d′ et N sont satisfaites. Pour le modèle de polymères denses critique (β = 0) sur le ruban, les valeurs propres de ρ(D_N(λ, u)) étaient connues, mais les dégénérescences conjecturées. En construisant un isomorphisme entre les modules de connectivités et un sous-espace des modules de spins du modèle XXZ en q = i, nous prouvons cette conjecture. Nous montrons aussi que la restriction de l’hamiltonien de boucles à un secteur donné est diagonalisable et trouvons la forme de Jordan exacte de l’hamiltonien XX, non triviale pour N pair seulement. Enfin nous étudions la structure de Jordan de la matrice de transfert T_N(λ, ν) pour des conditions aux frontières périodiques. La matrice T_N(λ, ν) a des blocs de Jordan intrasectoriels et intersectoriels lorsque λ = πa/b, et a, b ∈ Z×. L’approche par F_N admet une généralisation qui permet de diagnostiquer des cellules intersectorielles dont le rang excède 2 dans certains cas et peut croître indéfiniment avec N. Pour les blocs de Jordan intrasectoriels, nous montrons que les représentations de connectivités sur le cylindre et celles du modèle XXZ sont isomorphes sauf pour certaines valeurs précises de q et du paramètre de torsion v. En utilisant le comportement de la transformation i_N^d dans un voisinage des valeurs critiques (q_c, v_c), nous construisons explicitement des vecteurs généralisés de Jordan de rang 2 et discutons l’existence de blocs de Jordan intrasectoriels de plus haut rang.
Resumo:
Entièrement réalisé grâce au programme LaTeX (http://www.latex-project.org/)
Resumo:
Les politiques provinciales en matière d'immigration au Québec s'orientent depuis quelques décennies vers la régionalisation des personnes immigrantes, afin de faire bénéficier aux milieux régionaux et ruraux des avantages de leur présence. La présente étude examine, dans une perspective ethnographique, comment s'articulent les liens entre la reconnaissance sociale démontrée par les Québécois originaires du Haut-Lac-Saint-Jean envers les immigrants qui s'y établissent, et l'intégration de ces derniers à leur nouvelle communauté d'accueil. À travers une recension des variations de l'expérience de l'altérité observées dans le milieu, l'étude révèle les conditions d'émergence de la reconnaissance et les facteurs qui la freinent.
Resumo:
Cette recherche s’intéresse à la valeur d’usage du toit vert dans l’arrondissement du Plateau Mont-Royal, de la Ville de Montréal. Spécifiquement, elle s’intéresse à l’état problématique qu’est l’étalement urbain en tentant l’estimation de la valeur d’usage du toit vert, de la cour arrière et du balcon-terrasse soutenue par le dispositif argumentaire immobilier propre à chacun des aménagements. L’étalement urbain est la source de graves problèmes et la résorption de ses effets néfastes est devenue une priorité dans l’aménagement du territoire. L’une des principales raisons sousjacentes à l’exode urbain est la valeur d’usage accordée à la parcelle extérieure qu’offre l’habitat unifamilial pavillonnaire. Dans cette situation, la question est de savoir si l’insertion d’espaces verts privés en milieu urbain peut participer à la résorption de l’exode urbain. Or, dans l’agglomération, le sol manque. Le toit vert privé apparaît comme une alternative astucieuse, bien que limitée, au terrain entourant la maison. Reste à savoir si les gens le valorisent tel un espace vert privé d’extrême proximité, à même le sol. À la lueur de l’analyse, il advient que le toit vert ne présente pas de valeur d’usage comparable à celle de la cour arrière dans le contexte observé, précisément parce que leurs publics cibles s’opposent d’emblée. En revanche, le balcon-terrasse et le toit vert semblent être, en fonction des données construites, des aménagements à valeur d’usage comparable.
Resumo:
Problématique : Bien que le tabac et l’alcool soient les facteurs causaux principaux des cancers épidermoïdes de l’oropharynx, le virus du papillome humain (VPH) serait responsable de l’augmentation récente de l’incidence de ces cancers, particulièrement chez les patients jeunes et/ou non-fumeurs. La prévalence du VPH à haut risque, essentiellement de type 16, est passée de 20% à plus de 60% au cours des vingt dernières années. Certaines études indiquent que les cancers VPH-positifs ont un meilleur pronostic que les VPH- négatifs, mais des données prospectives à cet égard sont rares dans la littérature, surtout pour les études de phase III avec stratification basée sur les risques. Hypothèses et objectifs : Il est présumé que la présence du VPH est un facteur de bon pronostic. L’étude vise à documenter la prévalence du VPH dans les cancers de l’oropharynx, et à établir son impact sur le pronostic, chez des patients traités avec un schéma thérapeutique incluant la chimio-radiothérapie. Méthodologie : Les tumeurs proviennent de cas traités au CHUM pour des cancers épidermoïdes de la sphère ORL à un stade localement avancé (III, IVA et IVB). Elles sont conservées dans une banque tumorale, et les données cliniques sur l’efficacité du traitement et les effets secondaires, recueillies prospectivement. La présence du VPH est établie par biologie moléculaire déterminant la présence du génome VPH et son génotype. Résultats: 255 spécimens ont été soumis au test de génotypage Linear Array HPV. Après amplification par PCR, de l’ADN viral a été détecté dans 175 (68.6%) échantillons tumoraux ; le VPH de type 16 était impliqué dans 133 cas (52.25 %). Conclusion: Une proportion grandissante de cancers ORL est liée au VPH. Notre étude confirme que la présence du VPH est fortement associée à une amélioration du pronostic chez les patients atteints de cancers ORL traités par chimio-radiothérapie, et devrait être un facteur de stratification dans les essais cliniques comprenant des cas de cancers ORL.
Resumo:
Les filtres de recherche bibliographique optimisés visent à faciliter le repérage de l’information dans les bases de données bibliographiques qui sont presque toujours la source la plus abondante d’évidences scientifiques. Ils contribuent à soutenir la prise de décisions basée sur les évidences. La majorité des filtres disponibles dans la littérature sont des filtres méthodologiques. Mais pour donner tout leur potentiel, ils doivent être combinés à des filtres permettant de repérer les études couvrant un sujet particulier. Dans le champ de la sécurité des patients, il a été démontré qu’un repérage déficient de l’information peut avoir des conséquences tragiques. Des filtres de recherche optimisés couvrant le champ pourraient s’avérer très utiles. La présente étude a pour but de proposer des filtres de recherche bibliographique optimisés pour le champ de la sécurité des patients, d’évaluer leur validité, et de proposer un guide pour l’élaboration de filtres de recherche. Nous proposons des filtres optimisés permettant de repérer des articles portant sur la sécurité des patients dans les organisations de santé dans les bases de données Medline, Embase et CINAHL. Ces filtres réalisent de très bonnes performances et sont spécialement construits pour les articles dont le contenu est lié de façon explicite au champ de la sécurité des patients par leurs auteurs. La mesure dans laquelle on peut généraliser leur utilisation à d’autres contextes est liée à la définition des frontières du champ de la sécurité des patients.
Resumo:
Le juriste appelé à réfléchir à la question autochtone est inéluctablement entraîné à poser son regard sur les disciplines exogènes au droit : anthropologie, ethnologie, histoire, sociologie, pour n'en nommer que quelques-unes. Cet exercice, fort salutaire, l'oblige à un « examen de conscience épistémologique ». En d'autres termes, il doit s'interroger sur la nature du savoir qu'il produit et sur les méthodes employées pour ce faire. Mais cet exercice l'amène également à constater que, dans un univers résolument hostile à l'idée de valeurs universellement partagées, la légitimité du droit passe de plus en plus par la mobilisation du savoir produit par les sciences sociales énumérées plus haut. Autrement dit, en raison du scepticisme à l'égard de l'objectivité des valeurs, la discipline prescriptive par excellence qu'est le droit se tourne vers les disciplines qui décrivent le réel. Ainsi, on voit les avocats embrigader et instrumentaliser les résultats de recherche produits par les sciences sociales dans la définition des droits ancestraux. Or, bien souvent, ces avocats ne s'interrogent pas sur les limites épistémologiques des disciplines qu'ils enrôlent au profit de leur client.
Resumo:
L'épilepsie constitue le désordre neurologique le plus fréquent après les maladies cérébrovasculaires. Bien que le contrôle des crises se fasse généralement au moyen d'anticonvulsivants, environ 30 % des patients y sont réfractaires. Pour ceux-ci, la chirurgie de l'épilepsie s'avère une option intéressante, surtout si l’imagerie par résonance magnétique (IRM) cérébrale révèle une lésion épileptogène bien délimitée. Malheureusement, près du quart des épilepsies partielles réfractaires sont dites « non lésionnelles ». Chez ces patients avec une IRM négative, la délimitation de la zone épileptogène doit alors reposer sur la mise en commun des données cliniques, électrophysiologiques (EEG de surface ou intracrânien) et fonctionnelles (tomographie à émission monophotonique ou de positrons). La faible résolution spatiale et/ou temporelle de ces outils de localisation se traduit par un taux de succès chirurgical décevant. Dans le cadre de cette thèse, nous avons exploré le potentiel de trois nouvelles techniques pouvant améliorer la localisation du foyer épileptique chez les patients avec épilepsie focale réfractaire considérés candidats potentiels à une chirurgie d’épilepsie : l’IRM à haut champ, la spectroscopie proche infrarouge (SPIR) et la magnétoencéphalographie (MEG). Dans une première étude, nous avons évalué si l’IRM de haut champ à 3 Tesla (T), présentant théoriquement un rapport signal sur bruit plus élevé que l’IRM conventionnelle à 1,5 T, pouvait permettre la détection des lésions épileptogènes subtiles qui auraient été manquées par cette dernière. Malheureusement, l’IRM 3 T n’a permis de détecter qu’un faible nombre de lésions épileptogènes supplémentaires (5,6 %) d’où la nécessité d’explorer d’autres techniques. Dans les seconde et troisième études, nous avons examiné le potentiel de la SPIR pour localiser le foyer épileptique en analysant le comportement hémodynamique au cours de crises temporales et frontales. Ces études ont montré que les crises sont associées à une augmentation significative de l’hémoglobine oxygénée (HbO) et l’hémoglobine totale au niveau de la région épileptique. Bien qu’une activation contralatérale en image miroir puisse être observée sur la majorité des crises, la latéralisation du foyer était possible dans la plupart des cas. Une augmentation surprenante de l’hémoglobine désoxygénée a parfois pu être observée suggérant qu’une hypoxie puisse survenir même lors de courtes crises focales. Dans la quatrième et dernière étude, nous avons évalué l’apport de la MEG dans l’évaluation des patients avec épilepsie focale réfractaire considérés candidats potentiels à une chirurgie. Il s’est avéré que les localisations de sources des pointes épileptiques interictales par la MEG ont eu un impact majeur sur le plan de traitement chez plus des deux tiers des sujets ainsi que sur le devenir postchirurgical au niveau du contrôle des crises.
Resumo:
L’attention visuelle est un processus cognitif qui priorise le traitement de l’information visuelle d’une région particulière du champ visuel. En électroencéphalographie, la méthode des potentiels reliés aux évènements permet l’extraction de composantes associées à divers processus cognitifs. La N2pc, une composante latéralisée caractérisée par une déflexion négative entre 180 et 300 ms post-stimulus du côté controlatéral à l’hémichamp dans lequel l’attention est déployée, reflète les processus impliqués dans le déploiement de l’attention visuo-spatiale. De nombreuses études antérieures ont soulevé plusieurs facteurs pouvant moduler cette composante, provenant d’autant de processus de bas niveau que de processus de haut niveau. Cette présente étude comporte une série d’expériences qui approfondit les connaissances sur le rôle de l’attention sur le traitement et la représentation des items dans les champs récepteurs des aires extrastriées du cortex visuel. Ces études démontrent ainsi que l’attention peut effectivement éliminer l’influence d’un distracteur dissimilaire à la cible lorsque celui-ci se retrouve dans le même champ visuel que l’item auquel l’attention est attribuée. Cependant, lorsque l’item est similaire à la cible, son influence ne peut être éliminée. De plus, cette présente étude identifie le rôle des filtres précoces et tardifs de haut niveau sur la sélection attentionnelle.
Resumo:
Conflit présenté comme gelé, la guerre du Haut-Karabagh n’en est pas moins réelle, s’inscrivant dans une géopolitique régionale complexe et passionnante, nécessitant de s’intéresser à l’histoire des peuples de la région, à l’histoire des conquêtes et politiques menées concomitamment. Comprendre les raisons de ce conflit situé aux limites de l’Europe et de l’Asie, comprendre les enjeux en cause, que se soit la problématique énergétique ou l’importance stratégique de la région du Caucase à la fois pour la Russie mais également pour les Etats-Unis ou l’Union Européenne ; autant de réflexions que soulève cette recherche. Au delà, c’est l’influence réciproque du droit international et du politique qui sera prise en compte, notamment concernant l’échec des négociations actuelles. Les difficultés d’application du droit international à ce conflit sui generis se situent à plusieurs niveaux ; sur le statut de la région principalement, mais également sur les mécanismes de sanctions et de réparations devant s’appliquer aux crimes sur les personnes et les biens et qui se heurtent à la classification difficile du conflit.
Resumo:
La stagnation est un phénomène fréquent dans le domaine de la natation, bien qu’inexpliqué et incompris, pour lequel peu de solutions sont proposées. Malgré quelques recherches sur ce phénomène, notamment au baseball, la littérature sur le sujet demeure incomplète et ne permet pas de bien cerner le problème de la stagnation. Ainsi, cette étude a pour but premier d’identifier et de comprendre les causes possibles de la stagnation, les changements émotionnels, physiques et sociaux engendrés par un tel phénomène et les stratégies utilisées par les athlètes pour gérer la stagnation. Le deuxième objectif de cette étude est de jeter un regard sur l’impact de l’optimisme sur la résolution de la stagnation. Pour ce faire, des entrevues semi-structurées ont été menées auprès de onze nageurs ayant compétitionné au niveau national canadien. Les nageurs étaient divisés en trois groupes: les nageurs ayant résolu leur stagnation et qui continuent de nager, les nageurs ayant cessé la compétition de natation suite à une stagnation non résolue et ceux qui nagent encore malgré une stagnation non résolue. Les candidats sélectionnés ont complété deux questionnaires sur l’optimisme, le LOT-R et l’ASQ. L’analyse des résultats, réalisée grâce à la théorisation ancrée, a permis de déterminer un ensemble d’émotions vécues par les athlètes et d’identifier des stratégies afin de résoudre la stagnation. Les résultats de cette étude indiquent qu’une balance entre l’optimisme et le pessimisme, une motivation intrinsèque ainsi qu’une auto-détermination chez l'athlète sont des éléments importants afin de surmonter une stagnation.
Resumo:
Le syndrome du QT long congénital (LQTS) est une canalopathie génétique, à l’origine de syncopes et mort subite. Le dépistage génétique identifie des variantes génétiques dans 50-70% des cas, suggérant l’implication d’autres gènes. Nous avons recueilli les caractéristiques des patients avec un LQTS à l’ICM, et recruté 12 patients avec un génotype négatif pour le LQTS pour un séquençage à haut débit des exons afin d’identifier de nouvelles variantes causales. Nous avons développé une approche analytique par étapes : (1) les gènes connus du, (2) les gènes dans des loci identifiés par des études d’association sur le QT, et (3) les gènes montrant la même variante chez plusieurs patients. L’analyse génétique a identifié de nouvelles variantes dans: (1) KCNJ2, ANK2 et AKAP9, et (2) dans NOS1AP. (3) Deux patientes avec des phénotypes semblables présentent la même variante homozygote dans TECRL, un nouveau gène candidat dont le rôle est inconnu.
Resumo:
Plusieurs études ont démontré que la consommation d’un repas à indice glycémique bas (LGI) avant un exercice physique favorisait l’oxydation des lipides, diminuait les épisodes d’hypoglycémie et améliorait la performance. Par contre, d’autres recherches n’ont pas observé ces bénéfices. Le but de cette étude consiste à démontrer l’impact de l’ingestion de déjeuners avec différents indices glycémiques (IG) sur la performance en endurance de cyclistes de haut niveau. Dix cyclistes masculins ont complété trois protocoles attribués de façon aléatoire, séparés par un intervalle minimal de sept jours. Les trois protocoles consistaient en une épreuve contre la montre, soit trois heures après avoir consommé un déjeuner à indice glycémique bas ou élevé contenant 3 grammes de glucides par kg de poids corporel, soit à compléter l’exercice à jeun. Les résultats obtenus pour le temps de course montrent qu’il n’y pas de différence significative entre les protocoles. Par contre, on observe que le nombre de révolutions par minute (RPM) est significativement plus élevé avec le protocole à indice glycémique élevé (HGI) (94,3 ± 9,9 RPM) comparativement au protocole à jeun (87,7 ± 8,9 RPM) (p<0,005). Au niveau de la glycémie capillaire, on observe que durant l’exercice, au temps 30 minutes, la glycémie est significativement supérieure avec le protocole à jeun (5,47 ± 0,76 mmol/L) comparé à HGI (4,99 ± 0,91 mmol/L) (p<0,002). Notre étude n’a pas permis de confirmer que la consommation d’un repas LGI avant un exercice physique améliorait la performance physique de façon significative. Cependant, notre recherche a démontré que la diversité des protocoles utilisés pour évaluer l’impact de l’indice glycémique sur la performance physique pouvait occasionner des variations positives dans les temps de courses. Par conséquent, il s’avère nécessaire de faire d’autres recherches qui reproduisent les situations de compétition de l’athlète soit la course contre la montre.