22 resultados para puissance
Resumo:
Les lasers à fibre de haute puissance sont maintenant la solution privilégiée pour les applications de découpe industrielle. Le développement de lasers pour ces applications n’est pas simple en raison des contraintes qu’imposent les normes industrielles. La fabrication de lasers fibrés de plus en plus puissants est limitée par l’utilisation d’une fibre de gain avec une petite surface de mode propice aux effets non linéaires, d’où l’intérêt de développer de nouvelles techniques permettant l’atténuation de ceux-ci. Les expériences et simulations effectuées dans ce mémoire montrent que les modèles décrivant le lien entre la puissance laser et les effets non linéaires dans le cadre de l’analyse de fibres passives ne peuvent pas être utilisés pour l’analyse des effets non linéaires dans les lasers de haute puissance, des modèles plus généraux doivent donc développés. Il est montré que le choix de l’architecture laser influence les effets non linéaires. En utilisant l’équation de Schrödinger non linéaire généralisée, il a aussi été possible de montrer que pour une architecture en co-propagation, la diffusion Raman influence l’élargissement spectral. Finalement, les expériences et les simulations effectuées montrent qu’augmenter la réflectivité nominale et largeur de bande du réseau légèrement réfléchissant de la cavité permet d’atténuer la diffusion Raman, notamment en réduisant le gain Raman effectif.
Resumo:
Le développement des hydroliennes se base souvent sur des conditions d'écoulement idéalisées qui ne reflètent pas entièrement le courant présent sur un site réel. Dans cette optique, ce mémoire investigue l'effet d'un écoulement non aligné ou cisaillé sur les performances et le chargement de deux types d'hydrolienne : les hydroliennes à rotor axial (HRA) et à aile oscillante (HAO). Cette étude est réalisée à l'aide de simulations numériques et les résultats démontrent que pour les deux types d'hydrolienne, le désalignement produit une réduction de la puissance et de la traînée, tandis que le cisaillement n'a qu'un effet de second ordre sur ces derniers. Le chargement additionnel sur la structure de support causé par des conditions d'écoulement non idéal est aussi similaire pour les deux technologies. Le désalignement et le cisaillement affectent cependant plus significativement le chargement en fatigue des pales de l'HRA que celui de l'aile de l'HAO.
Resumo:
Le rétrécissement valvulaire aortique calcifié (RAC) est le trouble valvulaire le plus fréquent chez les personnes âgées des pays développés. La seule option de traitement possible le remplacement de la valve aortique. L’identification du rôle de l’enzyme ecto-nucleotidase NPP1 dans le processus de calcification suggère que cette enzyme pourrait être une cible potentielle pour le développement d’un inhibiteur pharmacologique contre la calcification de la valve aortique. Jusqu’à présent, les composés qui ont été développés en tant qu’inhibiteurs de NPP1 manquent de puissance et de spécificité. Dans la présente étude, nous avons démontré que les dérivés de sulfonamides quinazolin-4-pipéridine sont des inhibiteurs puissants, spécifiques, et non-compétitifs de NPP1. In vitro, dans des cellules isolées de valve aortique nous avons fourni des preuves que l’inhibition de NPP1 par ces dérivés bloque la minéralisation, l’apoptose et la transition ostéogénique des cellules interstitielles de valve aortique.
Resumo:
La vallée du fleuve Saint-Laurent, dans l’est du Canada, est l’une des régions sismiques les plus actives dans l’est de l’Amérique du Nord et est caractérisée par de nombreux tremblements de terre intraplaques. Après la rotation rigide de la plaque tectonique, l’ajustement isostatique glaciaire est de loin la plus grande source de signal géophysique dans l’est du Canada. Les déformations et les vitesses de déformation de la croûte terrestre de cette région ont été étudiées en utilisant plus de 14 ans d’observations (9 ans en moyenne) de 112 stations GPS fonctionnant en continu. Le champ de vitesse a été obtenu à partir de séries temporelles de coordonnées GPS quotidiennes nettoyées en appliquant un modèle combiné utilisant une pondération par moindres carrés. Les vitesses ont été estimées avec des modèles de bruit qui incluent les corrélations temporelles des séries temporelles des coordonnées tridimensionnelles. Le champ de vitesse horizontale montre la rotation antihoraire de la plaque nord-américaine avec une vitesse moyenne de 16,8±0,7 mm/an dans un modèle sans rotation nette (no-net-rotation) par rapport à l’ITRF2008. Le champ de vitesse verticale confirme un soulèvement dû à l’ajustement isostatique glaciaire partout dans l’est du Canada avec un taux maximal de 13,7±1,2 mm/an et un affaissement vers le sud, principalement au nord des États-Unis, avec un taux typique de −1 à −2 mm/an et un taux minimum de −2,7±1,4 mm/an. Le comportement du bruit des séries temporelles des coordonnées GPS tridimensionnelles a été analysé en utilisant une analyse spectrale et la méthode du maximum de vraisemblance pour tester cinq modèles de bruit: loi de puissance; bruit blanc; bruit blanc et bruit de scintillation; bruit blanc et marche aléatoire; bruit blanc, bruit de scintillation et marche aléatoire. Les résultats montrent que la combinaison bruit blanc et bruit de scintillation est le meilleur modèle pour décrire la partie stochastique des séries temporelles. Les amplitudes de tous les modèles de bruit sont plus faibles dans la direction nord et plus grandes dans la direction verticale. Les amplitudes du bruit blanc sont à peu près égales à travers la zone d’étude et sont donc surpassées, dans toutes les directions, par le bruit de scintillation et de marche aléatoire. Le modèle de bruit de scintillation augmente l’incertitude des vitesses estimées par un facteur de 5 à 38 par rapport au modèle de bruit blanc. Les vitesses estimées de tous les modèles de bruit sont statistiquement cohérentes. Les paramètres estimés du pôle eulérien de rotation pour cette région sont légèrement, mais significativement, différents de la rotation globale de la plaque nord-américaine. Cette différence reflète potentiellement les contraintes locales dans cette région sismique et les contraintes causées par la différence des vitesses intraplaques entre les deux rives du fleuve Saint-Laurent. La déformation de la croûte terrestre de la région a été étudiée en utilisant la méthode de collocation par moindres carrés. Les vitesses horizontales interpolées montrent un mouvement cohérent spatialement: soit un mouvement radial vers l’extérieur pour les centres de soulèvement maximal au nord et un mouvement radial vers l’intérieur pour les centres d’affaissement maximal au sud, avec une vitesse typique de 1 à 1,6±0,4 mm/an. Cependant, ce modèle devient plus complexe près des marges des anciennes zones glaciaires. Basées selon leurs directions, les vitesses horizontales intraplaques peuvent être divisées en trois zones distinctes. Cela confirme les conclusions d’autres chercheurs sur l’existence de trois dômes de glace dans la région d’étude avant le dernier maximum glaciaire. Une corrélation spatiale est observée entre les zones de vitesses horizontales intraplaques de magnitude plus élevée et les zones sismiques le long du fleuve Saint-Laurent. Les vitesses verticales ont ensuite été interpolées pour modéliser la déformation verticale. Le modèle montre un taux de soulèvement maximal de 15,6 mm/an au sud-est de la baie d’Hudson et un taux d’affaissement typique de 1 à 2 mm/an au sud, principalement dans le nord des États-Unis. Le long du fleuve Saint-Laurent, les mouvements horizontaux et verticaux sont cohérents spatialement. Il y a un déplacement vers le sud-est d’une magnitude d’environ 1,3 mm/an et un soulèvement moyen de 3,1 mm/an par rapport à la plaque l’Amérique du Nord. Le taux de déformation verticale est d’environ 2,4 fois plus grand que le taux de déformation horizontale intraplaque. Les résultats de l’analyse de déformation montrent l’état actuel de déformation dans l’est du Canada sous la forme d’une expansion dans la partie nord (la zone se soulève) et d’une compression dans la partie sud (la zone s’affaisse). Les taux de rotation sont en moyenne de 0,011°/Ma. Nous avons observé une compression NNO-SSE avec un taux de 3.6 à 8.1 nstrain/an dans la zone sismique du Bas-Saint-Laurent. Dans la zone sismique de Charlevoix, une expansion avec un taux de 3,0 à 7,1 nstrain/an est orientée ENE-OSO. Dans la zone sismique de l’Ouest du Québec, la déformation a un mécanisme de cisaillement avec un taux de compression de 1,0 à 5,1 nstrain/an et un taux d’expansion de 1.6 à 4.1 nstrain/an. Ces mesures sont conformes, au premier ordre, avec les modèles d’ajustement isostatique glaciaire et avec la contrainte de compression horizontale maximale du projet World Stress Map, obtenue à partir de la théorie des mécanismes focaux (focal mechanism method).
Resumo:
Les convertisseurs de longueur d’onde sont essentiels pour la réalisation de réseaux de communications optiques à routage en longueur d’onde. Dans la littérature, les convertisseurs de longueur d’onde basés sur le mélange à quatre ondes dans les amplificateurs optiques à semi-conducteur constituent une solution extrêmement intéressante, et ce, en raison de leurs nombreuses caractéristiques nécessaires à l’implémentation de tels réseaux de communications. Avec l’émergence des systèmes commerciaux de détection cohérente, ainsi qu’avec les récentes avancées dans le domaine du traitement de signal numérique, il est impératif d’évaluer la performance des convertisseurs de longueur d’onde, et ce, dans le contexte des formats de modulation avancés. Les objectifs de cette thèse sont : 1) d’étudier la faisabilité des convertisseurs de longueur d’onde basés sur le mélange à quatre ondes dans les amplificateurs optiques à semi-conducteur pour les formats de modulation avancés et 2) de proposer une technique basée sur le traitement de signal numérique afin d’améliorer leur performance. En premier lieu, une étude expérimentale de la conversion de longueur d’onde de formats de modulation d’amplitude en quadrature (quadrature amplitude modulation - QAM) est réalisée. En particulier, la conversion de longueur d’onde de signaux 16-QAM à 16 Gbaud et 64-QAM à 5 Gbaud dans un amplificateur optique à semi-conducteur commercial est réalisée sur toute la bande C. Les résultats démontrent qu’en raison des distorsions non-linéaires induites sur le signal converti, le point d’opération optimal du convertisseur de longueur d’onde est différent de celui obtenu lors de la conversion de longueur d’onde de formats de modulation en intensité. En effet, dans le contexte des formats de modulation avancés, c’est le compromis entre la puissance du signal converti et les non-linéarités induites qui détermine le point d’opération optimal du convertisseur de longueur d’onde. Les récepteurs cohérents permettent l’utilisation de techniques de traitement de signal numérique afin de compenser la détérioration du signal transmis suite à sa détection. Afin de mettre à profit les nouvelles possibilités offertes par le traitement de signal numérique, une technique numérique de post-compensation des distorsions induites sur le signal converti, basée sur une analyse petit-signal des équations gouvernant la dynamique du gain à l’intérieur des amplificateurs optiques à semi-conducteur, est développée. L’efficacité de cette technique est démontrée à l’aide de simulations numériques et de mesures expérimentales de conversion de longueur d’onde de signaux 16-QAM à 10 Gbaud et 64-QAM à 5 Gbaud. Cette méthode permet d’améliorer de façon significative les performances du convertisseur de longueur d’onde, et ce, principalement pour les formats de modulation avancés d’ordre supérieur tel que 64-QAM. Finalement, une étude expérimentale exhaustive de la technique de post-compensation des distorsions induites sur le signal converti est effectuée pour des signaux 64-QAM. Les résultats démontrent que, même en présence d’un signal à bruité à l’entrée du convertisseur de longueur d’onde, la technique proposée améliore toujours la qualité du signal reçu. De plus, une étude du point d’opération optimal du convertisseur de longueur d’onde est effectuée et démontre que celui-ci varie en fonction des pertes optiques suivant la conversion de longueur d’onde. Dans un réseau de communication optique à routage en longueur d’onde, le signal est susceptible de passer par plusieurs étages de conversion de longueur d’onde. Pour cette raison, l’efficacité de la technique de post-compensation est démontrée, et ce pour la première fois dans la littérature, pour deux étages successifs de conversion de longueur d’onde de signaux 64-QAM à 5 Gbaud. Les résultats de cette thèse montrent que les convertisseurs de longueur d’ondes basés sur le mélange à quatre ondes dans les amplificateurs optiques à semi-conducteur, utilisés en conjonction avec des techniques de traitement de signal numérique, constituent une technologie extrêmement prometteuse pour les réseaux de communications optiques modernes à routage en longueur d’onde.
Resumo:
Il semble régner aujourd’hui une certaine confusion lorsqu’on aborde des concepts et réalités politiques tels que le pouvoir, l’autorité, la domination, voire même la violence. De plus, les sociétés démocratiques et libérales contemporaines s’accordent de plus en plus avec un modèle de gouvernance individualiste et conformiste, ce qui semble limiter significativement toute forme de sens commun. En tant que réalité et catégorie spécifique du politique, l’autorité semble à cet égard s’effacer pour laisser place à une nouvelle figure. Celle-ci combine différents concepts et réalité du politique tels qu’autorité, pouvoir, violence, force, puissance souvent incarné par le chef ou le leader politique, ou encore est institutionnalisée au sein du gouvernement en place. La combinaison de ces différents concepts pour n’en former qu’un rend plutôt confuse notre compréhension de l’autorité et rend conflictuel sa relation avec l’égalité. Pour Hannah Arendt, la disparition de la catégorie politique de l’autorité s’exprime par l’intermédiaire d’une crise. Une crise marquée par une rupture du sens commun qui met en échec non seulement l’égalité entre les citoyennes et citoyens, mais aussi notre façon de concevoir le politique dans son ensemble. Réfléchir à la crise de l’autorité nous amèneras donc à repenser le politique, et ce faisant, les notions d’autorité et d’égalité. Dans ce mémoire, nous soutenons qu’une forme d’équilibre entre l’autorité et l’égalité est toujours possible, et même nécessaire dans notre monde politique contemporain.
Resumo:
Introduction : Le diabète de type 2 est une maladie évolutive débilitante et souvent mortelle qui atteint de plus en plus de personnes dans le monde. Le traitement antidiabétique non-insulinique (TADNI) notamment le traitement antidiabétique oral (TADO) est le plus fréquemment utilisé chez les adultes atteints de cette maladie. Toutefois, plusieurs de ces personnes ne prennent pas leur TADO tel que prescrit posant ainsi la problématique d’une adhésion sous-optimale. Ceci entraîne des conséquences néfastes aussi bien pour les patients que pour la société dans laquelle ils vivent. Il serait donc pertinent d’identifier des pistes de solution à cette problématique. Objectifs : Trois objectifs de recherche ont été étudiés : 1) Explorer la capacité de la théorie du comportement planifié (TCP) à prédire l’adhésion future au TADNI chez les adultes atteints de diabète de type 2, 2) Évaluer l’efficacité globale des interventions visant à améliorer l’adhésion au TADO chez les adultes atteints de diabète de type 2 et étudier l’influence des techniques de changement de comportement sur cette efficacité globale, et 3) Évaluer l’efficacité globale de l’entretien motivationnel sur l’adhésion au traitement médicamenteux chez les adultes atteints de maladie chronique et étudier l’influence des caractéristiques de cette intervention sur son efficacité globale. Méthodes : Pour l’objectif 1 : Il s’agissait d’une enquête web, suivie d’une évaluation de l’adhésion au TADNI sur une période de 30 jours, chez des adultes atteints de diabète de type 2, membres de Diabète Québec. L’enquête consistait à la complétion d’un questionnaire auto-administré incluant les variables de la TCP (intention, contrôle comportemental perçu et attitude) ainsi que d’autres variables dites «externes». Les informations relatives au calcul de l’adhésion provenaient des dossiers de pharmacie des participants transmis via la plateforme ReMed. Une régression linéaire multivariée a été utilisée pour estimer la mesure d’association entre l’intention et l’adhésion future au TADNI ainsi que l’interaction entre l’adhésion passée et l’intention. Pour répondre aux objectifs 2 et 3, deux revues systématiques et méta-analyses ont été effectuées et rapportées selon les lignes directrices de PRISMA. Un modèle à effets aléatoires a été utilisé pour estimer l’efficacité globale (g d’Hedges) des interventions et son intervalle de confiance à 95 % (IC95%) dans chacune des revues. Nous avons également quantifié l’hétérogénéité (I2 d’Higgins) entre les études, et avons fait des analyses de sous-groupe et des analyses de sensibilité. Résultats : Objectif 1 : Il y avait une interaction statistiquement significative entre l’adhésion passée et l’intention (valeur-p= 0,03). L’intention n’était pas statistiquement associée à l’adhésion future au TADNI, mais son effet était plus fort chez les non-adhérents que chez les adhérents avant l’enquête web. En revanche, l’intention était principalement prédite par le contrôle comportemental perçu à la fois chez les adhérents [β= 0,90, IC95%= (0,80; 1,00)] et chez les non-adhérents passés [β= 0,76, IC95%= (0,56; 0,97)]. Objectif 2 : L’efficacité globale des interventions sur l’adhésion au TADO était de 0,21 [IC95%= (-0,05; 0,47); I2= 82 %]. L’efficacité globale des interventions dans lesquelles les intervenants aidaient les patients et/ou les cliniciens à être proactifs dans la gestion des effets indésirables était de 0,64 [IC95%= (0,31; 0,96); I2= 56 %]. Objectif 3 : L’efficacité globale des interventions (basées sur l’entretien motivationnel) sur l’adhésion au traitement médicamenteux était de 0,12 [IC95%= (0,05; 0,20); I2= 1 %. Les interventions basées uniquement sur l’entretien motivationnel [β= 0,18, IC95%= (0,00; 0,36)] et celles dans lesquelles les intervenants ont été coachés [β= 0,47, IC95%= (0,03; 0,90)] étaient les plus efficaces. Aussi, les interventions administrées en face-à-face étaient plus efficaces que celles administrées par téléphone [β= 0,27, IC95%=(0,04; 0,50)]. Conclusion : Il existe un écart entre l’intention et l’adhésion future au TADNI, qui est partiellement expliqué par le niveau d’adhésion passée. Toutefois, il n’y avait pas assez de puissance statistique pour démontrer une association statistiquement significative entre l’intention et l’adhésion future chez les non-adhérents passés. D’un autre côté, quelques solutions au problème de l’adhésion sous-optimale au TADO ont été identifiées. En effet, le fait d’aider les patients et/ou les cliniciens à être proactifs dans la gestion des effets indésirables contribue efficacement à l’amélioration de l’adhésion au TADO chez les adultes atteints de diabète de type 2. Aussi, les interventions basées sur l’entretien motivationnel améliorent efficacement l’adhésion au traitement médicamenteux chez les adultes atteints de maladie chronique. L’entretien motivationnel pourrait donc être utilisé comme un outil clinique pour soutenir les patients dans l’autogestion de leur TADO.
Resumo:
Ce mémoire présente deux algorithmes qui ont pour but d’améliorer la précision de l’estimation de la direction d’arrivée de sources sonores et de leurs échos. Le premier algorithme, qui s’appelle la méthode par élimination des sources, permet d’améliorer l’estimation de la direction d’arrivée d’échos qui sont noyés dans le bruit. Le second, qui s’appelle Multiple Signal Classification à focalisation de phase, utilise l’information dans la phase à chaque fréquence pour déterminer la direction d’arrivée de sources à large bande. La combinaison de ces deux algorithmes permet de localiser des échos dont la puissance est de -17 dB par rapport à la source principale, jusqu’à un rapport échoà- bruit de -15 dB. Ce mémoire présente aussi des mesures expérimentales qui viennent confirmer les résultats obtenus lors de simulations.
Resumo:
Le Système Stockage de l’Énergie par Batterie ou Batterie de Stockage d’Énergie (BSE) offre de formidables atouts dans les domaines de la production, du transport, de la distribution et de la consommation d’énergie électrique. Cette technologie est notamment considérée par plusieurs opérateurs à travers le monde entier, comme un nouveau dispositif permettant d’injecter d’importantes quantités d’énergie renouvelable d’une part et d’autre part, en tant que composante essentielle aux grands réseaux électriques. De plus, d’énormes avantages peuvent être associés au déploiement de la technologie du BSE aussi bien dans les réseaux intelligents que pour la réduction de l’émission des gaz à effet de serre, la réduction des pertes marginales, l’alimentation de certains consommateurs en source d’énergie d’urgence, l’amélioration de la gestion de l’énergie, et l’accroissement de l’efficacité énergétique dans les réseaux. Cette présente thèse comprend trois étapes à savoir : l’Étape 1 - est relative à l’utilisation de la BSE en guise de réduction des pertes électriques ; l’Étape 2 - utilise la BSE comme élément de réserve tournante en vue de l’atténuation de la vulnérabilité du réseau ; et l’Étape 3 - introduit une nouvelle méthode d’amélioration des oscillations de fréquence par modulation de la puissance réactive, et l’utilisation de la BSE pour satisfaire la réserve primaire de fréquence. La première Étape, relative à l’utilisation de la BSE en vue de la réduction des pertes, est elle-même subdivisée en deux sous-étapes dont la première est consacrée à l’allocation optimale et le seconde, à l’utilisation optimale. Dans la première sous-étape, l’Algorithme génétique NSGA-II (Non-dominated Sorting Genetic Algorithm II) a été programmé dans CASIR, le Super-Ordinateur de l’IREQ, en tant qu’algorithme évolutionniste multiobjectifs, permettant d’extraire un ensemble de solutions pour un dimensionnement optimal et un emplacement adéquat des multiple unités de BSE, tout en minimisant les pertes de puissance, et en considérant en même temps la capacité totale des puissances des unités de BSE installées comme des fonctions objectives. La première sous-étape donne une réponse satisfaisante à l’allocation et résout aussi la question de la programmation/scheduling dans l’interconnexion du Québec. Dans le but de réaliser l’objectif de la seconde sous-étape, un certain nombre de solutions ont été retenues et développées/implantées durant un intervalle de temps d’une année, tout en tenant compte des paramètres (heure, capacité, rendement/efficacité, facteur de puissance) associés aux cycles de charge et de décharge de la BSE, alors que la réduction des pertes marginales et l’efficacité énergétique constituent les principaux objectifs. Quant à la seconde Étape, un nouvel indice de vulnérabilité a été introduit, formalisé et étudié ; indice qui est bien adapté aux réseaux modernes équipés de BES. L’algorithme génétique NSGA-II est de nouveau exécuté (ré-exécuté) alors que la minimisation de l’indice de vulnérabilité proposé et l’efficacité énergétique représentent les principaux objectifs. Les résultats obtenus prouvent que l’utilisation de la BSE peut, dans certains cas, éviter des pannes majeures du réseau. La troisième Étape expose un nouveau concept d’ajout d’une inertie virtuelle aux réseaux électriques, par le procédé de modulation de la puissance réactive. Il a ensuite été présenté l’utilisation de la BSE en guise de réserve primaire de fréquence. Un modèle générique de BSE, associé à l’interconnexion du Québec, a enfin été proposé dans un environnement MATLAB. Les résultats de simulations confirment la possibilité de l’utilisation des puissances active et réactive du système de la BSE en vue de la régulation de fréquence.
Resumo:
Cette thèse considère les suites de la paix d’Apamée sur le plan des relations politiques entre les États d’Anatolie et sur l’évolution de la place tenue par cette péninsule dans l’ordre géopolitique méditerranéen. Le traité d’Apamée, conclu en 188 avant notre ère entre la puissance romaine et le royaume séleucide, fut un acte diplomatique majeur pour l’Asie Mineure et l’ensemble de la région anatolienne, libérés de la domination des Séleucides. Jusqu’ici, l’historiographie traditionnelle a abordé ce sujet selon deux perspectives, à savoir l’apparition de l’impérialisme romain en Orient et la vie politique et administrative des cités égéennes. À l’inverse, cette étude se concentre sur les principales puissances politiques de la région anatolienne : les royaumes. Dans le cadre de cet espace fragmenté et diversifié, des modifications de l’équilibre géopolitique régional peuvent être mises en relation avec le bouleversement de l’ordre méditerranéen, par le croisement de sources grecques, latines et orientales, ainsi qu’en faisant usage de procédés développés par le courant de la World History. L’évolution ultérieure de la situation mise en place à Apamée est étudiée jusqu’au point de disparition d’une Anatolie dirigée par des souverains non incorporés dans l’horizon impérial des grandes puissances étrangères, situation à laquelle les ultimes défaites de Mithridate VI du Pont et de Tigrane d’Arménie face à Rome mirent un terme définitif.
Resumo:
Au cours des dernières années, la photonique intégrée sur silicium a progressé rapidement. Les modulateurs issus de cette technologie présentent des caractéristiques potentiellement intéressantes pour les systèmes de communication à courte portée. En effet, il est prévu que ces modulateurs pourront être opérés à des vitesses de transmission élevées, tout en limitant le coût de fabrication et la consommation de puissance. Parallèlement, la modulation d’amplitude multi-niveau (PAM) est prometteuse pour ce type de systèmes. Ainsi, ce travail porte sur le développement de modulateurs de silicium pour la transmission de signaux PAM. Dans le premier chapitre, les concepts théoriques nécessaires à la conception de modulateurs de silicium sont présentés. Les modulateurs Mach-Zehnder et les modulateurs à base de réseau de Bragg sont principalement abordés. De plus, les effets électro-optiques dans le silicium, la modulation PAM, les différents types d’électrodes intégrées et la compensation des distorsions par traitement du signal sont détaillés.Dans le deuxième chapitre, un modulateur Mach-Zehnder aux électrodes segmentées est présenté. La segmentation des électrodes permet la génération de signaux optiques PAM à partir de séquences binaires. Cette approche permet d’éliminer l’utilisation de convertisseur numérique-analogique en intégrant cette fonction dans le domaine optique, ce qui vise à réduire le coût du système de communication. Ce chapitre contient la description détaillée du modulateur, les résultats de caractérisation optique et de la caractérisation électrique, ainsi que les tests systèmes. De plus, les tests systèmes incluent l’utilisation de pré-compensation ou de post-compensation du signal sous la forme d’égalisation de la réponse en fréquence pour les formats de modulation PAM-4 et PAM-8 à différents taux binaires. Une vitesse de transmission de 30 Gb/s est démontrée dans les deux cas et ce malgré une limitation importante de la réponse en fréquence suite à l’ajout d’un assemblage des circuits radiofréquences (largeur de bande 3 dB de 8 GHz). Il s’agit de la première démonstration de modulation PAM-8 à l’aide d’un modulateur Mach-Zehnder aux électrodes segmentées. Finalement, les conclusions tirées de ce travail ont mené à la conception d’un deuxième modulateur Mach-Zehnder aux électrodes segmentées présentement en phase de test, dont les performances montrent un très grand potentiel. Dans le troisième chapitre, un modulateur à réseau de Bragg à deux sauts de phase est présenté. L’utilisation de réseaux de Bragg est une approche encore peu développée pour la modulation. En effet, la réponse spectrale de ces structures peut être contrôlée précisément, une caractéristique intéressante pour la conception de modulateurs. Dans ces travaux, nous proposons l’ajout de deux sauts de phase à un réseau de Bragg uniforme pour obtenir un pic de transmission dans la bande de réflexion de celui-ci. Ainsi, il est possible d’altérer l’amplitude du pic de transmission à l’aide d’une jonction pn. Comme pour le deuxième chapitre, ce chapitre inclut la description détaillée du modulateur, les résultats des caractérisations optique et électrique, ainsi que les tests systèmes. De plus, la caractérisation de jonctions pn à l’aide du modulateur à réseau de Bragg est expliquée. Des vitesses de transmission PAM-4 de 60 Gb/s et OOK de 55 Gb/s sont démontrées après la compensation des distorsions des signaux. À notre connaissance, il s’agit du modulateur à réseau de Bragg le plus rapide à ce jour. De plus, pour la première fois, les performances d’un tel modulateur s’approchent de celles des modulateurs de silicium les plus rapides utilisant des microrésonateurs en anneau ou des interféromètres Mach-Zehnder.
Resumo:
Face à la diminution des ressources énergétiques et à l’augmentation de la pollution des énergies fossiles, de très nombreuses recherches sont actuellement menées pour produire de l’énergie propre et durable et pour réduire l’utilisation des sources d’énergies fossiles caractérisées par leur production intrinsèque des gaz à effet de serre. La pile à combustible à membrane échangeuse de protons (PEMFC) est une technologie qui prend de plus en plus d’ampleur pour produire l’énergie qui s’inscrit dans un contexte de développement durable. La PEMFC est un dispositif électrochimique qui fonctionne selon le principe inverse de l’électrolyse de l’eau. Elle convertit l’énergie de la réaction chimique entre l’hydrogène et l’oxygène (ou l’air) en puissance électrique, chaleur et eau; son seul rejet dans l’atmosphère est de la vapeur d’eau. Une pile de type PEMFC est constituée d’un empilement Électrode-Membrane-Électrode (EME) où la membrane consiste en un électrolyte polymère solide séparant les deux électrodes (l’anode et la cathode). Cet ensemble est intégré entre deux plaques bipolaires (BP) qui permettent de collecter le courant électrique et de distribuer les gaz grâce à des chemins de circulation gravés sur chacune de ses deux faces. La plupart des recherches focalisent sur la PEMFC afin d’améliorer ses performances électriques et sa durabilité et aussi de réduire son coût de production. Ces recherches portent sur le développement et la caractérisation des divers éléments de ce type de pile; y compris les éléments les plus coûteux et les plus massifs, tels que les plaques bipolaires. La conception de ces plaques doit tenir compte de plusieurs paramètres : elles doivent posséder une bonne perméabilité aux gaz et doivent combiner les propriétés de résistance mécanique, de stabilité chimique et thermique ainsi qu’une conductivité électrique élevée. Elles doivent aussi permettre d’évacuer adéquatement la chaleur générée dans le cœur de la cellule. Les plaques bipolaires métalliques sont pénalisées par leur faible résistance à la corrosion et celles en graphite sont fragiles et leur coût de fabrication est élevé (dû aux phases d’usinage des canaux de cheminement des gaz). C’est pourquoi de nombreuses recherches sont orientées vers le développement d’un nouveau concept de plaques bipolaires. La voie la plus prometteuse est de remplacer les matériaux métalliques et le graphite par des composites à matrice polymère. Les plaques bipolaires composites apparaissent attrayantes en raison de leur facilité de mise en œuvre et leur faible coût de production mais nécessitent une amélioration de leurs propriétés électriques et mécaniques, d’où l’objectif principal de cette thèse dans laquelle on propose: i) un matériau nanocomposite développé par extrusion bi-vis qui est à base de polymères chargés d’additifs solides conducteurs, incluant des nanotubes de carbone. ii) fabriquer un prototype de plaque bipolaire à partir de ces matériaux en utilisant le procédé de compression à chaud avec un refroidissement contrôlé. Dans ce projet, deux polymères thermoplastiques ont été utilisés, le polyfluorure de vinylidène (PVDF) et le polyéthylène téréphtalate (PET). Les charges électriquement conductrices sélectionnées sont: le noir de carbone, le graphite et les nanotubes de carbones. La combinaison de ces charges conductrices a été aussi étudiée visant à obtenir des formulations optimisées. La conductivité électrique à travers l’épaisseur des échantillons développés ainsi que leurs propriétés mécaniques ont été soigneusement caractérisées. Les résultats ont montré que non seulement la combinaison entre les charges conductrices influence les propriétés électriques et mécaniques des prototypes développés, mais aussi la distribution de ces charges (qui de son côté dépend de leur nature, leur taille et leurs propriétés de surface), avait aidé à améliorer les propriétés visées. Il a été observé que le traitement de surface des nanotubes de carbone avait aidé à l’amélioration de la conductivité électrique et la résistance mécanique des prototypes. Le taux de cristallinité généré durant le procédé de moulage par compression des prototypes de plaques bipolaires ainsi que la cinétique de cristallisation jouent un rôle important pour l’optimisation des propriétés électriques et mécaniques visées.
Resumo:
Dans ce projet de recherche, le dépôt des couches minces de carbone amorphe (généralement connu sous le nom de DLC pour Diamond-Like Carbon en anglais) par un procédé de dépôt chimique en phase vapeur assisté par plasma (ou PECVD pour Plasma Enhanced Chemical Vapor deposition en anglais) a été étudié en utilisant la Spectroscopie d’Émission Optique (OES) et l’analyse partielle par régression des moindres carrés (PLSR). L’objectif de ce mémoire est d’établir un modèle statistique pour prévoir les propriétés des revêtements DLC selon les paramètres du procédé de déposition ou selon les données acquises par OES. Deux séries d’analyse PLSR ont été réalisées. La première examine la corrélation entre les paramètres du procédé et les caractéristiques du plasma pour obtenir une meilleure compréhension du processus de dépôt. La deuxième série montre le potentiel de la technique d’OES comme outil de surveillance du procédé et de prédiction des propriétés de la couche déposée. Les résultats montrent que la prédiction des propriétés des revêtements DLC qui était possible jusqu’à maintenant en se basant sur les paramètres du procédé (la pression, la puissance, et le mode du plasma), serait envisageable désormais grâce aux informations obtenues par OES du plasma (particulièrement les indices qui sont reliées aux concentrations des espèces dans le plasma). En effet, les données obtenues par OES peuvent être utilisées pour surveiller directement le processus de dépôt plutôt que faire une étude complète de l’effet des paramètres du processus, ceux-ci étant strictement reliés au réacteur plasma et étant variables d’un laboratoire à l’autre. La perspective de l’application d’un modèle PLSR intégrant les données de l’OES est aussi démontrée dans cette recherche afin d’élaborer et surveiller un dépôt avec une structure graduelle.
Resumo:
Il est bien établi que le thalamus joue un rôle crucial dans la génération de l’oscillation lente synchrone dans le cortex pendant le sommeil lent. La puissance des ondes lente / delta (0.2-4 Hz) est un indicateur quantifiable de la qualité du sommeil. La contribution des différents noyaux thalamiques dans la génération de l’activité à ondes lentes et dans sa synchronisation n’est pas connue. Nous émettons l’hypothèse que les noyaux thalamiques de premier ordre (spécifiques) influencent localement l’activité à ondes lentes dans les zones corticales primaires, tandis que les noyaux thalamiques d’ordre supérieur (non spécifiques) synchronisent globalement les activités à ondes lentes à travers de larges régions corticales. Nous avons analysé les potentiels de champ locaux et les activités de décharges de différentes régions corticales et thalamiques de souris anesthésiées alors qu’un noyau thalamique était inactivé par du muscimol, un agoniste des récepteurs GABA. Les enregistrements extracellulaires multi-unitaires dans les noyaux thalamiques de premier ordre (VPM) et d’ordre supérieur (CL) montrent des activités de décharges considérablement diminuées et les décharges par bouffées de potentiels d’action sont fortement réduites après inactivation. Nous concluons que l’injection de muscimol réduit fortement les activités de décharges et ne potentialise pas la génération de bouffées de potentiel d’action à seuil bas. L’inactivation des noyaux thalamiques spécifiques avec du muscimol a diminué la puissance lente / delta dans la zone corticale primaire correspondante. L’inactivation d’un noyau non spécifique avec le muscimol a significativement réduit la puissance delta dans l’ensemble du cortex étudié. Nos expériences démontrent que le thalamus a un rôle crucial dans la génération de l’oscillation lente corticale.
Resumo:
Cette thèse défend les mérites d’une lecture cyborgienne de l’oeuvre de science-fiction de Frank Herbert, Dune, où la vision particulière des sciences et technologies nous permet d’interpréter plusieurs personnages en tant que réitération Nouvelle Vague du cyborg. Publié en 1965, Dune introduit des personnages féminins atypiques pour cette époque compte tenu de leurs attributs tels qu’une capacité intellectuelle accrue, une imposante puissance de combat et une immunité manifeste contre la faiblesse émotionnelle. Cependant, le roman reste ambivalent en ce qui concerne ces femmes : en dépit de leurs qualités admirables, elles sont d’autre part caractérisées par des stéréotypes régressifs, exposants une sexualité instinctive, qui les confinent tout au mieux aux rôles de mère, maitresse ou épouse. Finalement, dans le roman, elles finissent par jouer le rôle du méchant. Cette caractérisation se rapproche beaucoup de celle du cyborg femelle qui est d’usage courant dans les productions de science fiction pour le grand public des décennies plus récentes. Par conséquent, cette thèse défend qu’une lecture cyborgienne de Dune complète et accroisse une analyse sexospécifique, car cette approche comporte une théorisation essentielle des réactions à l’égard de la technologie qui, selon Evans, sont entretissées dans la réaction patriarcale de ce roman à l’égard des femmes. Bien que ces créatures fictives ne soient pas encore communes à l’époque de la rédaction de Dune, Jessica et certains autres personnages du roman peuvent néanmoins être considérés comme exemples primitifs des cyborgs, parce qu’ils incarnent la science et la technologie de leur culture et qu’ils possèdent d’autres éléments typiques du cyborg. L’hypothèse propose que la représentation des femmes dans Dune ne découle pas seulement de l’attrait pour le chauvinisme ou la misogynie, mais qu’elle est en fait grandement influencée par la peur de la technologie qui est transposée sur la femme comme c’est couramment le cas dans la littérature cyborg subséquente. Ainsi, ce roman annonce le futur sous-genre cyborg de la science-fiction.