25 resultados para Fréquence cardiaque
em Université Laval Mémoires et thèses électroniques
Resumo:
Bien qu’ils soient exposés tous deux aux rayons ultraviolets (UVR) solaires, cette exposition génotoxique n’entraîne pas les mêmes conséquences dans l’oeil et la peau. Le rôle des rayons UV dans l’induction et la progression des cancers cutanés est bien démontré. Ces rayons génotoxiques sont absorbés par l’ADN. Ils y induisent ainsi des changements conformationnels pouvant mener à la formation de différents dommages. On retrouve de façon prédominante la liaison de pyrimidines adjacentes en dimères cyclobutyliques de pyrimidines (CPD). Ceux-ci causent les mutations signatures responsables des cancers de la peau induits par les UVR. Cependant, aucune évidence ne démontre l’existence de cancer induit par les UVR dans la cornée. Nous avons donc tenté de découvrir les mécanismes permettant à la cornée d’éviter la transformation tumorale induite par les UVR. L’irradiation d’yeux de lapins aux rayons UVB a permis de prouver la capacité de ces rayons à induire la formation de CPD, et ce, de la cornée jusqu’au cristallin. Par la suite, l’irradiation d’yeux humains aux trois types de rayons UV (UVA, B et C) a permis d’y établir leur patron d’induction de CPD. Nous avons ainsi démontré que l’épithélium cornéen est particulièrement sensible à l’induction de CPD, tous types de rayons UV confondus. Enfin, la comparaison de la quantité de dommages présents dans des échantillons de peaux et de cornées irradiées à la même dose d’UVB a permis de démontrer que l’épithélium cornéen est 3.4 fois plus sensible à l’induction de CPD que l’épiderme. Nous avons par la suite étudié les mécanismes de réponse à ce stress. L’analyse de la viabilité cellulaire à la suite d’irradiations à différentes doses d’UVB a révélé que les cellules de la cornée et de la peau ont la même sensibilité à la mort cellulaire induite par les UVR. Nous avons alors analysé la vitesse de réparation des dommages induits par les UVR. Nos résultats démontrent que les CPD sont réparés 4 fois plus rapidement dans les cellules de la cornée que de la peau. L’analyse des protéines de reconnaissance des dommages a révélé que les cellules de la cornée possèdent plus de protéines DDB2 que les cellules de la peau, et ce, surtout liées à la chromatine. Nous avons alors tenté d’identifier la cause de cette accumulation. Nos analyses révèlent que la cornée possède une moins grande quantité d’ARNm DDB2, mais que la demi-vie de la protéine y est plus longue. Enfin, nos résultats suggèrent que l’accumulation de DDB2 dans les cellules de la cornée est entre autres due à une demi-vie plus longue de la protéine. Cette forte présence de DDB2 dans les cellules de la cornée permettrait un meilleur balayage de l’ADN, faciliterait de ce fait la détection de CPD ainsi que leur réparation et contribuerait donc à la capacité de la cornée à éviter la transformation tumorale induite par les UVR.
L'impact du glissement en fréquence lors de l'accélération directe d'électrons par le faisceau laser
Resumo:
L’accélération directe d’électrons par des impulsions ultrabrèves de polarisation radiale fortement focalisées démontre un grand potentiel, notamment, pour la production de paquets d’électrons ultrabrefs. Plusieurs aspects de ce schéma d’accélération restent toutefois à être explorés pour en permettre une maîtrise approfondie. Dans le cadre du présent mémoire, on s’intéresse à l’ajout d’une dérive de fréquence au champ de l’impulsion TM01 utilisée. Les expressions exactes des composantes du champ électromagnétique de l’impulsion TM01 sont établies à partir d’une généralisation du spectre de Poisson. Il s’agit, à notre connaissance, du premier modèle analytique exact pour la description d’une impulsion avec une dérive de fréquence. Ce modèle est utilisé pour étudier l’impact du glissement en fréquence sur le schéma d’accélération, grâce à des simulations “particule test” unidimensionnelles, considérant en premier lieu une énergie constante par impulsion, puis un champ maximum constant. Les résultats révèlent que le glissement en fréquence diminue le gain en énergie maximum atteignable dans le cadre du schéma d’accélération à l’étude ; une baisse d’efficacité de plusieurs dizaines de pourcents peut survenir. De plus, les simulations mettent en évidence certaines différences reliées à l’utilisation d’impulsions avec une dérive vers les basses fréquences ou avec une dérive vers les hautes fréquences : il se trouve que, pour un glissement en fréquence de même grandeur, l’impulsion avec une dérive vers les basses fréquences conduit à un gain en énergie cinétique maximum plus élevé pour l’électron que l’impulsion avec une dérive vers les hautes fréquences.
Resumo:
Un bon fonctionnement du coeur humain est primordial pour maintenir une bonne qualité de vie. Cependant, lorsque le coeur est défaillant, certaines interventions chirurgicales s’avèrent nécessaires pour prolonger l’espérance de vie. Dans le cadre d’un projet multidisciplinaire reliant le génie mécanique avec le domaine biomédical, notre équipe travaille sur la fabrication de valves cardiaques conçues entièrement par génie tissulaire. Pour y parvenir, il est important d’obtenir des propriétés mécaniques optimales pour les tissus biologiques. Afin d’obtenir ces propriétés mécaniques, un outil important a été fabriqué lors d’une étude antérieure : le bioréacteur cardiaque. Le bioréacteur cardiaque permet de reproduire l’environnement physiologique du coeur, notamment les conditions de débit et de pression. Il est crucial de bien contrôler ces conditions, car celles-ci jouent un rôle important lors du conditionnement des substituts valvulaires. Toutefois, il est complexe de contrôler simultanément ces deux conditions de manière efficace. C’est pourquoi notre équipe s’est concentrée sur le développement d’une nouvelle stratégie de contrôle afin que le bioréacteur puisse reproduire le plus fidèlement possible l’environnement physiologique. Plusieurs techniques de contrôle ont été essayés jusqu’à maintenant. Par contre, leur précision était généralement limitée. Une nouvelle approche a donc été envisagée et est présentée dans ce mémoire. Cette nouvelle approche pour le contrôle du bioréacteur est basée sur un type d’algorithme bien connu mais encore très peu utilisé en contrôle : les algorithmes génétiques. Cette approche prometteuse nous a permis de produire des résultats dépassant tous ceux obtenus jusqu’à maintenant pour l’une des deux conditions, soit le débit physiologique.
Resumo:
Ce mémoire présente l’étude numérique d’un emballement de turbine hydraulique axiale à échelle modèle. Cet état transitoire est simulé du point de meilleur rendement jusqu’à l’atteinte de 95% de la vitesse d’emballement. Pour ce faire, une méthodologie numérique est développée à l’aide du logiciel commercial ANSYS CFX en utilisant une approche "Unsteady Reynolds Averaged Navier-Stokes" avec modèle de turbulence k-ε. Cette méthodologie numérique a été validée grâce à des mesures expérimentales de pression acquises en situation d’emballement sur les aubes d’une roue de turbine axiale étudiée au Laboratoire de Machines Hydrauliques de l’Université Laval. La validation des simulations numériques a été réalisée grâce à des comparaisons dans les domaines temporel et fréquentiel entre les pressions mesurées expérimentalement et calculées numériquement. Les analyses fréquentielles en transitoire ont été effectuées à l’aide de transformées en ondelettes afin de représenter l’évolution temporelle du spectre de fréquence. Des analyses qualitatives de phénomènes hydrauliques prenant place dans la turbine sont aussi présentées. Les analyses effectuées ont permis de confirmer le développement d’un tourbillon en précession par rapport à la roue dans l’aspirateur provocant les fluctuations de pression dominantes à des fréquences subsynchrones. La comparaison entre les données expérimentales et numériques a permis de valider une stratégie de simulation transitoire et d’en définir les limites en vue de prochaines simulations d’emballement. Des tests supplémentaires sont suggérés pour améliorer la précision ou le niveau de confiance de la méthode.
Resumo:
Le présent projet vise à décrire des caractéristiques importantes à considérer lors de la mise sur pied d’un programme de mentorat destiné à des entraineures. Le mentorat est un des outils proposés pour recruter et garder les entraineures en poste. Dans le cadre de ce mémoire, une dyade d’entraineures a pris part à une relation de mentorat pour une durée de 18 semaines. Les résultats ont démontré l’importance de l’identification des besoins de la protégée et de la transmission de ceux-ci à la mentore. Il a aussi été remarqué que le type de rencontres ainsi que la fréquence de celles-ci engendrent des effets non négligeables sur l’évolution de la relation entre la mentore et la protégée. Le moment choisi pour la relation a aussi une incidence sur le déroulement du projet et doit être déterminé en fonction des réalités reliées au sport des participantes. Aussi, la personne responsable de superviser le projet doit adopter une attitude directive et s’assurer que chacune des étapes du programme soit convenablement réalisée. Enfin, le mentorat est un outil prometteur pour la rétention des entraineures qui doit être entrepris en fonction de critères précis. Mots clés : Entraineures, mentorat, programme.
Resumo:
À l’heure actuelle, il est estimé que 60% des personnes hébergées dans les centres d’hébergement publics du Québec seraient atteintes de la maladie d’Alzheimer. De ce nombre, plusieurs manifesteraient des symptômes comportementaux associés à la démence. Les préposés aux bénéficiaires représentent le corps de métier le plus en contact avec les personnes hébergées dans les unités et, de par la nature de leurs tâches, ils seraient plus à risque d’être exposés à des troubles comportementaux. Étant donné que ces comportements peuvent constituer une source de stress pour les préposés aux bénéficiaires, la présente étude vise à estimer la contribution d’un ensemble de variables sur leur niveau de détresse psychologique. Ces variables comprennent la fréquence des symptômes comportementaux perçus, les évaluations cognitives primaires et secondaires, le sentiment d’efficacité personnelle et les stratégies de coping. Au total, quatre-vingt-douze préposés aux bénéficiaires détenant des postes de jour ont été recrutés dans les centres d’hébergement de la région de Québec dans les Centres de santé et des services sociaux de la Vieille-Capitale, Québec-Nord et Portneuf. Une analyse de régression multiple révèle que le modèle explique 42,3% de la variance de la variable dépendante, et que la fréquence des troubles comportementaux non agressifs, l’évaluation cognitive de type menace et la recherche de soutien émotionnel contribuent à la détresse psychologique ressentie par les préposés. Les résultats de ce mémoire mettent en lumière l’importance des symptômes comportementaux non agressifs qui semblent souvent sous-estimés comparativement aux troubles agressifs. Le mémoire propose également une réflexion sur la théorie transactionnelle de Lazarus et Folkman et sur ses différentes composantes.
Resumo:
Ce mémoire présente la conception, le contrôle et la validation expérimentale d’une boussole haptique servant à diriger les utilisateurs aux prises avec une déficience visuelle, et ce, dans tous les environnements. La revue de littérature décrit le besoin pour un guidage haptique et permet de mettre en perspective cette technologie dans le marché actuel. La boussole proposée utilise le principe de couples asymétriques. Son design est basé sur une architecture de moteur à entraînement direct et un contrôle en boucle ouverte étalonné au préalable. Cette conception permet d’atteindre une vaste plage de fréquences pour la rétroaction haptique. Les propriétés mécaniques de l’assemblage sont évaluées. Puis, l’étalonnage des couples permet d’assurer que le contrôle en boucle ouverte produit des couples avec une précision suffisante. Un premier test avec des utilisateurs a permis d’identifier que les paramètres de fréquence entre 5 et 15 Hz combinés avec des couples au-delà de 40 mNm permettent d’atteindre une efficacité intéressante pour la tâche. L’expérience suivante démontre qu’utiliser une rétroaction haptique proportionnelle à l’erreur d’orientation améliore significativement les performances. Le concept est ensuite éprouvé avec dix-neuf sujets qui doivent se diriger sur un parcours avec l’aide seule de cette boussole haptique. Les résultats montrent que tous les sujets ont réussi à rencontrer tous les objectifs de la route, tout en maintenant des déviations latérales relativement faibles (0:39 m en moyenne). Les performances obtenues et les impressions des utilisateurs sont prometteuses et plaident en faveur de ce dispositif. Pour terminer, un modèle simplifié du comportement d’un individu pour la tâche d’orientation est développé et démontre l’importance de la personnalisation de l’appareil. Ce modèle est ensuite utilisé pour mettre en valeur la stratégie d’horizon défilant pour le placement de la cible intermédiaire actuelle dans un parcours sur une longue distance.
Resumo:
Ce mémoire présente deux algorithmes qui ont pour but d’améliorer la précision de l’estimation de la direction d’arrivée de sources sonores et de leurs échos. Le premier algorithme, qui s’appelle la méthode par élimination des sources, permet d’améliorer l’estimation de la direction d’arrivée d’échos qui sont noyés dans le bruit. Le second, qui s’appelle Multiple Signal Classification à focalisation de phase, utilise l’information dans la phase à chaque fréquence pour déterminer la direction d’arrivée de sources à large bande. La combinaison de ces deux algorithmes permet de localiser des échos dont la puissance est de -17 dB par rapport à la source principale, jusqu’à un rapport échoà- bruit de -15 dB. Ce mémoire présente aussi des mesures expérimentales qui viennent confirmer les résultats obtenus lors de simulations.
Resumo:
Contexte: La césarienne est une procédure chirurgicale qui survient dans plus du quart des accouchements en Amérique du Nord. Les techniques chirurgicales de fermeture de l’utérus lors de la césarienne sont variées, influencent la cicatrisation et le risque de complications chez la femme à court et long terme. Il a été suggéré que la fermeture en un plan barré augmentait le risque de rupture de l’utérus et de défaut de cicatrisation de l’utérus. Cependant, en l’absence d’un haut niveau d’évidence, cette technique est toujours pratiquée au Canada et en Amérique du Nord. Objectif: Comparer l’impact des différentes techniques de fermeture de l’utérus lors de la césarienne sur les complications maternelles à court et long terme. Méthode : Trois revues systématiques et méta-analyses d’études observationnelles ou d’essais randomisés contrôlés (ECR) ont été réalisées. La prévalence des défauts de cicatrisation et les issues à court et long terme ont été comparées entre les techniques de fermeture de l’utérus. Par la suite, un essai randomisé contrôlé a évalué trois techniques de fermeture de l’utérus : un plan barré, deux plans barrés et deux plans non barrés excluant la déciduale, chez 81 femmes avec une césarienne primaire élective à ≥ 38 semaines de grossesse. L’épaisseur du myomètre résiduel a été mesurée six mois après la césarienne à l’aide d’une échographie transvaginale et comparée par un test t de Student. Résultats : Les résultats des revues systématiques et méta-analyses ont montré que 37% à 59% des femmes présentaient un défaut de cicatrisation de l’utérus après leur césarienne. Concernant les complications à court terme, les types de fermeture de l’utérus étudiés sont comparables, à l’exception de la fermeture en un plan barré qui est associée à un temps opératoire plus court que celle en deux plans (-6.1 minutes, 95% intervalle de confiance (IC) -8.7 à -3.4, p<0.001). Les fermetures de l’utérus en un plan barré sont associées à plus de risque de rupture utérine qu’une fermeture en deux plans barrés (rapport de cote 4.96; IC 95%: 2.58–9.52, P< 0.001). L’ECR a également démontré que la fermeture de l’utérus en un plan barré était associée à une épaisseur du myomètre résiduel plus mince que la fermeture en deux plans non barrés excluant la déciduale (3.8 ± 1.6 mm vs 6.1 ± 2.2 mm; p< 0.001). Finalement, aucune différence significative n’a été détectée concernant la fréquence des points d’hémostases entre les techniques (p=1.000). Conclusion : Lors d’une césarienne élective primaire à terme, une fermeture en deux plans non barrés est associée à un myomètre plus épais qu’une fermeture en un plan barré, sans augmenter le recours à des points d’hémostase. De plus, il est suggéré que la fermeture en deux plans réduirait le risque de rupture utérine lors d’une prochaine grossesse. Finalement, la fermeture chez les femmes en travail doit être plus étudiée.
Resumo:
Le présent mémoire a pour objectif de développer un questionnaire qui permettra éventuellement de comparer l’influence respective des pensées négatives, positives et réalistes sur l’adaptation psychologique au cancer du sein, et ce, durant et après les traitements de chimiothérapie. Ce questionnaire a été développé de manière à avoir une structure similaire à celle du Orientation to Motherhood scale (OM; Churchill & Davis, 2010), lequel quantifie la fréquence d’occurrence de pensées anticipatoires à valence positive et négative afin de déterminer si l’orientation de pensée des répondants est davantage négative, positive ou réaliste. Ce mémoire vise également à récolter de l’information sur la nature des pensées des patientes avant la chimiothérapie. Deux étapes ont été nécessaires afin de rencontrer ces objectifs. Dans un premier temps, vingt-cinq femmes atteintes d’un cancer du sein ont pris part à une première série d’entrevues individuelles visant à générer une banque d’items potentiels pour le questionnaire (N = 15). Par la suite, une deuxième série d’entrevues a été menée afin de permettre la tenue d’une étude pilote (N = 10) et de raffiner la forme et le contenu du questionnaire. Le Questionnaire des pensées et anticipations au sujet du cancer (PAC) est un questionnaire auto-rapporté de 51 items permettant de documenter la fréquence de diverses pensées anticipatoires à valence positive et négative chez les femmes s’apprêtant à commencer des traitements de chimiothérapie pour un cancer du sein. Les résultats de l’étude pilote sont encourageants quant à la capacité du PAC à discriminer les participantes entre elles sur la fréquence de leurs pensées à valence positive et négative. De plus, les différents profils observés chez les participantes de l’étude pilote supportent l’existence d’une relation entre les réponses au PAC et la détresse psychologique. Les données préliminaires mettent également en lumière la plus forte fréquence de pensées à valence positive que négative.
Resumo:
Le Système Stockage de l’Énergie par Batterie ou Batterie de Stockage d’Énergie (BSE) offre de formidables atouts dans les domaines de la production, du transport, de la distribution et de la consommation d’énergie électrique. Cette technologie est notamment considérée par plusieurs opérateurs à travers le monde entier, comme un nouveau dispositif permettant d’injecter d’importantes quantités d’énergie renouvelable d’une part et d’autre part, en tant que composante essentielle aux grands réseaux électriques. De plus, d’énormes avantages peuvent être associés au déploiement de la technologie du BSE aussi bien dans les réseaux intelligents que pour la réduction de l’émission des gaz à effet de serre, la réduction des pertes marginales, l’alimentation de certains consommateurs en source d’énergie d’urgence, l’amélioration de la gestion de l’énergie, et l’accroissement de l’efficacité énergétique dans les réseaux. Cette présente thèse comprend trois étapes à savoir : l’Étape 1 - est relative à l’utilisation de la BSE en guise de réduction des pertes électriques ; l’Étape 2 - utilise la BSE comme élément de réserve tournante en vue de l’atténuation de la vulnérabilité du réseau ; et l’Étape 3 - introduit une nouvelle méthode d’amélioration des oscillations de fréquence par modulation de la puissance réactive, et l’utilisation de la BSE pour satisfaire la réserve primaire de fréquence. La première Étape, relative à l’utilisation de la BSE en vue de la réduction des pertes, est elle-même subdivisée en deux sous-étapes dont la première est consacrée à l’allocation optimale et le seconde, à l’utilisation optimale. Dans la première sous-étape, l’Algorithme génétique NSGA-II (Non-dominated Sorting Genetic Algorithm II) a été programmé dans CASIR, le Super-Ordinateur de l’IREQ, en tant qu’algorithme évolutionniste multiobjectifs, permettant d’extraire un ensemble de solutions pour un dimensionnement optimal et un emplacement adéquat des multiple unités de BSE, tout en minimisant les pertes de puissance, et en considérant en même temps la capacité totale des puissances des unités de BSE installées comme des fonctions objectives. La première sous-étape donne une réponse satisfaisante à l’allocation et résout aussi la question de la programmation/scheduling dans l’interconnexion du Québec. Dans le but de réaliser l’objectif de la seconde sous-étape, un certain nombre de solutions ont été retenues et développées/implantées durant un intervalle de temps d’une année, tout en tenant compte des paramètres (heure, capacité, rendement/efficacité, facteur de puissance) associés aux cycles de charge et de décharge de la BSE, alors que la réduction des pertes marginales et l’efficacité énergétique constituent les principaux objectifs. Quant à la seconde Étape, un nouvel indice de vulnérabilité a été introduit, formalisé et étudié ; indice qui est bien adapté aux réseaux modernes équipés de BES. L’algorithme génétique NSGA-II est de nouveau exécuté (ré-exécuté) alors que la minimisation de l’indice de vulnérabilité proposé et l’efficacité énergétique représentent les principaux objectifs. Les résultats obtenus prouvent que l’utilisation de la BSE peut, dans certains cas, éviter des pannes majeures du réseau. La troisième Étape expose un nouveau concept d’ajout d’une inertie virtuelle aux réseaux électriques, par le procédé de modulation de la puissance réactive. Il a ensuite été présenté l’utilisation de la BSE en guise de réserve primaire de fréquence. Un modèle générique de BSE, associé à l’interconnexion du Québec, a enfin été proposé dans un environnement MATLAB. Les résultats de simulations confirment la possibilité de l’utilisation des puissances active et réactive du système de la BSE en vue de la régulation de fréquence.
Resumo:
Cette thèse présente les étapes de fabrication et les résultats de la caractérisation des modèles de tissu biologique fabriqués en utilisant des cristaux liquides et des polymères qui permettent de contrôler la diffusion et la transmission de la lumière par un champ électrique. Ce champ électrique entraîne un changement d’orientation des molécules de cristaux liquides, ce qui induit des variations locales de l’indice de réfraction dans ces matériaux. Nous avons utilisé ce contrôle de l’indice de réfraction pour contrôler le niveau de diffusion et de transmission dans différents types d’échantillons. Les échantillons utilisés sont faits a) de cristaux liquides purs, b) de sphères de polymère dans un environnement de cristaux liquides, c) de cristaux liquides ou de gouttelettes de cristaux liquides dans un environnement de polymère. Les travaux réalisés nous ont permis de proposer une méthode électro-optique pour simuler, à l’aide de cristaux liquides, des milieux diffusants tels que les tissus biologiques. Dans la recherche de modèles, nous avons montré qu’il est possible de contrôler, par la fréquence du champ électrique, des gouttelettes de cristaux liquides dispersées dans une matrice de polymère contenant des ions lithium. Une sensibilité sélective à la fréquence de la tension électrique appliquée en fonction de la taille des gouttelettes est observée. Par la suite, nous avons démontré l’effet de « quenching » interférentiel de la diffusion pour une sonde optique cohérente en étudiant des modèles non alignés (clustérisés) de cristaux liquides. Nous avons aussi démontré des applications potentielles de ce phénomène tel le filtrage en longueur d’onde par l’ajustement d’un champ électrique. Nous avons ensuite démontré que l’utilisation des cristaux liquides - dits « dual-frequency » - permet une modulation rapide des états ou des structures du matériau ainsi que de la transmission et de la diffusion de lumière de ce dernier. Enfin, nous avons aussi découvert que ces modèles peuvent être contrôlés pour retrouver le degré de polarisation de la lumière diffusée.
Resumo:
La sténose aortique est la cardiopathie valvulaire la plus fréquente retrouvée chez les patients agés. Suite à l’apparition des symptômes, la survie des patients diminue de façon drastique en l’absence d’un remplacement valvulaire aortique. Cependant, une proportion considérable de ces patients n’est pas opérée en raison d’un risque chirurgical élevé, l’âge étant l’une des principales raisons de refus d’un remplacement valvulaire aortique chirurgical. Ce défaut dans la prise en charge des ces patients a favorisé le développement du remplacement valvulaire aortique par cathéter où implantation valvulaire aortique par cathèter (TAVR ou TAVI), qui a représenté une révolution dans le traitement de la sténose aortique. Cette intervention est actuellement un traitement de routine chez les patients à haut risque chirurgical atteints d’une sténose aortique, même si la chirurgie cardiaque n’est pas contre-indiquée. Ces dernières années ont vu un changement de profil des candidats potentiels vers une population à plus faible risque. Cependant, plusieurs préoccupations demeurent. L’une des plus importantes est la survenue des arythmies et de troubles de conduction, notamment le bloc de branche gauche et le bloc auriculo-ventriculaire, qui sont des complications fréquemment associées au TAVR. Malgré l’évolution de la technologie et le développement de nouveaux dispositifs réduisant le taux global de complications, aucune amélioration n’a pas été intégrée pour prévenir l’apparition de telles complications. De plus, l’utilisation de certains dispositifs de nouvelle génération semble être associée à un risque accru de troubles de conduction, et par conséquent, l’incidence de ces complications pourrait augmenter dans le futur. Cependant, L’impact et l’évolution de ces complications sont inconnus. Ce travail de recherche évalue l’incidence et l’évolution des troubles de conduction suite au TAVR et l’impact des blocs de branche gauche de novo et de l’implantation d’un pacemaker sur les résultats cliniques et échocardiographiques.
Resumo:
Il a été avancé que des apprenants expérimentés développeraient des niveaux élevés de conscience métalinguistique (MLA), ce qui leur faciliterait l’apprentissage de langues subséquentes (p.ex., Singleton & Aronin, 2007). De plus, des chercheurs dans le domaine de l’acquisition des langues tierces insistent sur les influences positives qu’exercent les langues précédemment apprises sur l’apprentissage formel d’une langue étrangère (p.ex., Cenoz & Gorter, 2015), et proposent de délaisser le regard traditionnel qui mettait l’accent sur l’interférence à l’origine des erreurs des apprenants pour opter pour une vision plus large et positive de l’interaction entre les langues. Il a été démontré que la similarité typologique ainsi que la compétence dans la langue source influence tous les types de transfert (p.ex., Ringbom, 1987, 2007). Cependant, le défi méthodologique de déterminer, à la fois l’usage pertinent d’une langue cible en tant que résultat d’une influence translinguistique (p.ex., Falk & Bardel, 2010) et d’établir le rôle crucial de la MLA dans l’activation consciente de mots ou de constructions reliés à travers différentes langues, demeure. La présente étude avait pour but de relever ce double défi en faisant appel à des protocoles oraux (TAPs) pour examiner le transfert positif de l’anglais (L2) vers l’allemand (L3) chez des Québécois francophones après cinq semaines d’enseignement formel de la L3. Les participants ont été soumis à une tâche de traduction développée aux fins de la présente étude. Les 42 items ont été sélectionnés sur la base de jugements de similarité et d’imagibilité ainsi que de fréquence des mots provenant d’une étude de cognats allemands-anglais (Friel & Kennison, 2001). Les participants devaient réfléchir à voix haute pendant qu’ils traduisaient des mots inconnus de l’allemand (L3) vers le français (L1). Le transfert positif a été opérationnalisé par des traductions correctes qui étaient basées sur un cognat anglais. La MLA a été mesurée par le biais du THAM (Test d’habiletés métalinguistiques) (Pinto & El Euch, 2015) ainsi que par l’analyse des TAPs. Les niveaux de compétence en anglais ont été établis sur la base du Michigan Test (Corrigan et al., 1979), tandis que les niveaux d’exposition ainsi que l’intérêt envers la langue et la culture allemandes ont été mesurés à l’aide d’un questionnaire. Une analyse fine des TAPs a révélé de la variabilité inter- et intra-individuelle dans l’activation consciente du vocabulaire en L2, tout en permettant l’identification de niveaux distincts de prise de conscience. Deux modèles indépendants de régressions logistiques ont permis d’identifier les deux dimensions de MLA comme prédicteurs de transfert positif. Le premier modèle, dans lequel le THAM était la mesure exclusive de MLA, a déterminé cette dimension réflexive comme principal prédicteur, suivie de la compétence en anglais, tandis qu’aucune des autres variables indépendantes pouvait prédire le transfert positif de l’anglais. Dans le second modèle, incluant le THAM ainsi que les TAPs comme mesures complémentaires de MLA, la dimension appliquée de MLA, telle que mesurée par les TAPs, était de loin le prédicteur principal, suivie de la dimension réflexive, telle que mesurée par le THAM, tandis que la compétence en anglais ne figurait plus parmi les facteurs ayant une influence significative sur la variable réponse. Bien que la verbalisation puisse avoir influencé la performance dans une certaine mesure, nos observations mettent en évidence la contribution précieuse de données introspectives comme complément aux résultats basés sur des caractéristiques purement linguistiques du transfert. Nos analyses soulignent la complexité des processus métalinguistiques et des stratégies individuelles, ce qui reflète une perspective dynamique du multilinguisme (p.ex., Jessner, 2008).
Resumo:
Les systèmes de communication optique avec des formats de modulation avancés sont actuellement l’un des sujets de recherche les plus importants dans le domaine de communication optique. Cette recherche est stimulée par les exigences pour des débits de transmission de donnée plus élevés. Dans cette thèse, on examinera les techniques efficaces pour la modulation avancée avec une détection cohérente, et multiplexage par répartition en fréquence orthogonale (OFDM) et multiples tonalités discrètes (DMT) pour la détection directe et la détection cohérente afin d’améliorer la performance de réseaux optiques. Dans la première partie, nous examinons la rétropropagation avec filtre numérique (DFBP) comme une simple technique d’atténuation de nonlinéarité d’amplificateur optique semiconducteur (SOA) dans le système de détection cohérente. Pour la première fois, nous démontrons expérimentalement l’efficacité de DFBP pour compenser les nonlinéarités générées par SOA dans un système de détection cohérente porteur unique 16-QAM. Nous comparons la performance de DFBP avec la méthode de Runge-Kutta quatrième ordre. Nous examinons la sensibilité de performance de DFBP par rapport à ses paramètres. Par la suite, nous proposons une nouvelle méthode d’estimation de paramètre pour DFBP. Finalement, nous démontrons la transmission de signaux de 16-QAM aux taux de 22 Gbaud sur 80km de fibre optique avec la technique d’estimation de paramètre proposée pour DFBP. Dans la deuxième partie, nous nous concentrons sur les techniques afin d’améliorer la performance des systèmes OFDM optiques en examinent OFDM optiques cohérente (CO-OFDM) ainsi que OFDM optiques détection directe (DDO-OFDM). Premièrement, nous proposons une combinaison de coupure et prédistorsion pour compenser les distorsions nonlinéaires d’émetteur de CO-OFDM. Nous utilisons une interpolation linéaire par morceaux (PLI) pour charactériser la nonlinéarité d’émetteur. Dans l’émetteur nous utilisons l’inverse de l’estimation de PLI pour compenser les nonlinéarités induites à l’émetteur de CO-OFDM. Deuxièmement, nous concevons des constellations irrégulières optimisées pour les systèmes DDO-OFDM courte distance en considérant deux modèles de bruit de canal. Nous démontrons expérimentalement 100Gb/s+ OFDM/DMT avec la détection directe en utilisant les constellations QAM optimisées. Dans la troisième partie, nous proposons une architecture réseaux optiques passifs (PON) avec DDO-OFDM pour la liaison descendante et CO-OFDM pour la liaison montante. Nous examinons deux scénarios pour l’allocations de fréquence et le format de modulation des signaux. Nous identifions la détérioration limitante principale du PON bidirectionnelle et offrons des solutions pour minimiser ses effets.