28 resultados para Volonté de Puissance
Resumo:
Les lasers à fibre de haute puissance sont maintenant la solution privilégiée pour les applications de découpe industrielle. Le développement de lasers pour ces applications n’est pas simple en raison des contraintes qu’imposent les normes industrielles. La fabrication de lasers fibrés de plus en plus puissants est limitée par l’utilisation d’une fibre de gain avec une petite surface de mode propice aux effets non linéaires, d’où l’intérêt de développer de nouvelles techniques permettant l’atténuation de ceux-ci. Les expériences et simulations effectuées dans ce mémoire montrent que les modèles décrivant le lien entre la puissance laser et les effets non linéaires dans le cadre de l’analyse de fibres passives ne peuvent pas être utilisés pour l’analyse des effets non linéaires dans les lasers de haute puissance, des modèles plus généraux doivent donc développés. Il est montré que le choix de l’architecture laser influence les effets non linéaires. En utilisant l’équation de Schrödinger non linéaire généralisée, il a aussi été possible de montrer que pour une architecture en co-propagation, la diffusion Raman influence l’élargissement spectral. Finalement, les expériences et les simulations effectuées montrent qu’augmenter la réflectivité nominale et largeur de bande du réseau légèrement réfléchissant de la cavité permet d’atténuer la diffusion Raman, notamment en réduisant le gain Raman effectif.
Resumo:
Le développement des hydroliennes se base souvent sur des conditions d'écoulement idéalisées qui ne reflètent pas entièrement le courant présent sur un site réel. Dans cette optique, ce mémoire investigue l'effet d'un écoulement non aligné ou cisaillé sur les performances et le chargement de deux types d'hydrolienne : les hydroliennes à rotor axial (HRA) et à aile oscillante (HAO). Cette étude est réalisée à l'aide de simulations numériques et les résultats démontrent que pour les deux types d'hydrolienne, le désalignement produit une réduction de la puissance et de la traînée, tandis que le cisaillement n'a qu'un effet de second ordre sur ces derniers. Le chargement additionnel sur la structure de support causé par des conditions d'écoulement non idéal est aussi similaire pour les deux technologies. Le désalignement et le cisaillement affectent cependant plus significativement le chargement en fatigue des pales de l'HRA que celui de l'aile de l'HAO.
Resumo:
Le rétrécissement valvulaire aortique calcifié (RAC) est le trouble valvulaire le plus fréquent chez les personnes âgées des pays développés. La seule option de traitement possible le remplacement de la valve aortique. L’identification du rôle de l’enzyme ecto-nucleotidase NPP1 dans le processus de calcification suggère que cette enzyme pourrait être une cible potentielle pour le développement d’un inhibiteur pharmacologique contre la calcification de la valve aortique. Jusqu’à présent, les composés qui ont été développés en tant qu’inhibiteurs de NPP1 manquent de puissance et de spécificité. Dans la présente étude, nous avons démontré que les dérivés de sulfonamides quinazolin-4-pipéridine sont des inhibiteurs puissants, spécifiques, et non-compétitifs de NPP1. In vitro, dans des cellules isolées de valve aortique nous avons fourni des preuves que l’inhibition de NPP1 par ces dérivés bloque la minéralisation, l’apoptose et la transition ostéogénique des cellules interstitielles de valve aortique.
Resumo:
Rendre compte des conditions d’émergence de la lutte contre l’obésité, c’est aussi rendre compte d’un corps socialement attendu. Ce corps socialement attendu, en Occident, prend racine à la Renaissance dans les discours du peintre Alberti et le corps de justes proportions, de l’éducateur Mercurialis et le corps transformable à volonté, et avec le médecin Vésale et le corps réparable : il s’agit là de trois constantes qui traverseront toutes les époques. Ce corps socialement attendu sera fédéré sous la contenance de soi et la gouvernance de soi issues de la Réforme. De là, une image sociale du corps émerge qui se doit d’être contenu et gouverné, d’où les jugements moraux de plus en plus en sévères portés sur le corps en excès de masse adipeuse. Au XVIIe siècle, dans la foulée des traités de civilités, c’est le passage de l’idée d’être un corps à celle d’avoir un corps dont l’individu est personnellement et socialement responsable, qui culminera, au milieu du XIXe siècle, avec l’introduction de l’indice de masse corporelle, du pèse-personne, du miroir et de la mode : l’individu est désormais maître et esclave de son image des pieds à la tête. Cette quantification de soi aura comme impact de confronter directement l’individu à son propre poids et à ses propres comportements, d’où la mise en place d’une batterie d’interventions à déployer sur le corps pour le maintenir dans une fourchette de poids idéal. Au milieu du XXe siècle, avec la montée du complexe agroalimentaire, de la montée de l’industrie de la restauration rapide, de la transformation profonde du tissu urbain, de l’arrivée massive de l’automobile, de la transformation des emplois de plus en plus orientées vers le secteur tertiaire, se met graduellement en place ce qu’il est convenu d’appeler l’infrastructure de la prise de poids qui entraînera dans son sillage tout un discours de la modération. Le XXIe siècle se donnera pour mission non pas de modifier l’infrastructure de la prise de poids mise en place au XXe siècle, mais de donner à l’individu les moyens de lutter contre la prise de poids à travers le discours de la saine alimentation et de la discipline personnelle. L’obèse ou la personne en simple surpoids est désormais totalement responsable de sa propre condition.
Resumo:
La vallée du fleuve Saint-Laurent, dans l’est du Canada, est l’une des régions sismiques les plus actives dans l’est de l’Amérique du Nord et est caractérisée par de nombreux tremblements de terre intraplaques. Après la rotation rigide de la plaque tectonique, l’ajustement isostatique glaciaire est de loin la plus grande source de signal géophysique dans l’est du Canada. Les déformations et les vitesses de déformation de la croûte terrestre de cette région ont été étudiées en utilisant plus de 14 ans d’observations (9 ans en moyenne) de 112 stations GPS fonctionnant en continu. Le champ de vitesse a été obtenu à partir de séries temporelles de coordonnées GPS quotidiennes nettoyées en appliquant un modèle combiné utilisant une pondération par moindres carrés. Les vitesses ont été estimées avec des modèles de bruit qui incluent les corrélations temporelles des séries temporelles des coordonnées tridimensionnelles. Le champ de vitesse horizontale montre la rotation antihoraire de la plaque nord-américaine avec une vitesse moyenne de 16,8±0,7 mm/an dans un modèle sans rotation nette (no-net-rotation) par rapport à l’ITRF2008. Le champ de vitesse verticale confirme un soulèvement dû à l’ajustement isostatique glaciaire partout dans l’est du Canada avec un taux maximal de 13,7±1,2 mm/an et un affaissement vers le sud, principalement au nord des États-Unis, avec un taux typique de −1 à −2 mm/an et un taux minimum de −2,7±1,4 mm/an. Le comportement du bruit des séries temporelles des coordonnées GPS tridimensionnelles a été analysé en utilisant une analyse spectrale et la méthode du maximum de vraisemblance pour tester cinq modèles de bruit: loi de puissance; bruit blanc; bruit blanc et bruit de scintillation; bruit blanc et marche aléatoire; bruit blanc, bruit de scintillation et marche aléatoire. Les résultats montrent que la combinaison bruit blanc et bruit de scintillation est le meilleur modèle pour décrire la partie stochastique des séries temporelles. Les amplitudes de tous les modèles de bruit sont plus faibles dans la direction nord et plus grandes dans la direction verticale. Les amplitudes du bruit blanc sont à peu près égales à travers la zone d’étude et sont donc surpassées, dans toutes les directions, par le bruit de scintillation et de marche aléatoire. Le modèle de bruit de scintillation augmente l’incertitude des vitesses estimées par un facteur de 5 à 38 par rapport au modèle de bruit blanc. Les vitesses estimées de tous les modèles de bruit sont statistiquement cohérentes. Les paramètres estimés du pôle eulérien de rotation pour cette région sont légèrement, mais significativement, différents de la rotation globale de la plaque nord-américaine. Cette différence reflète potentiellement les contraintes locales dans cette région sismique et les contraintes causées par la différence des vitesses intraplaques entre les deux rives du fleuve Saint-Laurent. La déformation de la croûte terrestre de la région a été étudiée en utilisant la méthode de collocation par moindres carrés. Les vitesses horizontales interpolées montrent un mouvement cohérent spatialement: soit un mouvement radial vers l’extérieur pour les centres de soulèvement maximal au nord et un mouvement radial vers l’intérieur pour les centres d’affaissement maximal au sud, avec une vitesse typique de 1 à 1,6±0,4 mm/an. Cependant, ce modèle devient plus complexe près des marges des anciennes zones glaciaires. Basées selon leurs directions, les vitesses horizontales intraplaques peuvent être divisées en trois zones distinctes. Cela confirme les conclusions d’autres chercheurs sur l’existence de trois dômes de glace dans la région d’étude avant le dernier maximum glaciaire. Une corrélation spatiale est observée entre les zones de vitesses horizontales intraplaques de magnitude plus élevée et les zones sismiques le long du fleuve Saint-Laurent. Les vitesses verticales ont ensuite été interpolées pour modéliser la déformation verticale. Le modèle montre un taux de soulèvement maximal de 15,6 mm/an au sud-est de la baie d’Hudson et un taux d’affaissement typique de 1 à 2 mm/an au sud, principalement dans le nord des États-Unis. Le long du fleuve Saint-Laurent, les mouvements horizontaux et verticaux sont cohérents spatialement. Il y a un déplacement vers le sud-est d’une magnitude d’environ 1,3 mm/an et un soulèvement moyen de 3,1 mm/an par rapport à la plaque l’Amérique du Nord. Le taux de déformation verticale est d’environ 2,4 fois plus grand que le taux de déformation horizontale intraplaque. Les résultats de l’analyse de déformation montrent l’état actuel de déformation dans l’est du Canada sous la forme d’une expansion dans la partie nord (la zone se soulève) et d’une compression dans la partie sud (la zone s’affaisse). Les taux de rotation sont en moyenne de 0,011°/Ma. Nous avons observé une compression NNO-SSE avec un taux de 3.6 à 8.1 nstrain/an dans la zone sismique du Bas-Saint-Laurent. Dans la zone sismique de Charlevoix, une expansion avec un taux de 3,0 à 7,1 nstrain/an est orientée ENE-OSO. Dans la zone sismique de l’Ouest du Québec, la déformation a un mécanisme de cisaillement avec un taux de compression de 1,0 à 5,1 nstrain/an et un taux d’expansion de 1.6 à 4.1 nstrain/an. Ces mesures sont conformes, au premier ordre, avec les modèles d’ajustement isostatique glaciaire et avec la contrainte de compression horizontale maximale du projet World Stress Map, obtenue à partir de la théorie des mécanismes focaux (focal mechanism method).
Resumo:
Les convertisseurs de longueur d’onde sont essentiels pour la réalisation de réseaux de communications optiques à routage en longueur d’onde. Dans la littérature, les convertisseurs de longueur d’onde basés sur le mélange à quatre ondes dans les amplificateurs optiques à semi-conducteur constituent une solution extrêmement intéressante, et ce, en raison de leurs nombreuses caractéristiques nécessaires à l’implémentation de tels réseaux de communications. Avec l’émergence des systèmes commerciaux de détection cohérente, ainsi qu’avec les récentes avancées dans le domaine du traitement de signal numérique, il est impératif d’évaluer la performance des convertisseurs de longueur d’onde, et ce, dans le contexte des formats de modulation avancés. Les objectifs de cette thèse sont : 1) d’étudier la faisabilité des convertisseurs de longueur d’onde basés sur le mélange à quatre ondes dans les amplificateurs optiques à semi-conducteur pour les formats de modulation avancés et 2) de proposer une technique basée sur le traitement de signal numérique afin d’améliorer leur performance. En premier lieu, une étude expérimentale de la conversion de longueur d’onde de formats de modulation d’amplitude en quadrature (quadrature amplitude modulation - QAM) est réalisée. En particulier, la conversion de longueur d’onde de signaux 16-QAM à 16 Gbaud et 64-QAM à 5 Gbaud dans un amplificateur optique à semi-conducteur commercial est réalisée sur toute la bande C. Les résultats démontrent qu’en raison des distorsions non-linéaires induites sur le signal converti, le point d’opération optimal du convertisseur de longueur d’onde est différent de celui obtenu lors de la conversion de longueur d’onde de formats de modulation en intensité. En effet, dans le contexte des formats de modulation avancés, c’est le compromis entre la puissance du signal converti et les non-linéarités induites qui détermine le point d’opération optimal du convertisseur de longueur d’onde. Les récepteurs cohérents permettent l’utilisation de techniques de traitement de signal numérique afin de compenser la détérioration du signal transmis suite à sa détection. Afin de mettre à profit les nouvelles possibilités offertes par le traitement de signal numérique, une technique numérique de post-compensation des distorsions induites sur le signal converti, basée sur une analyse petit-signal des équations gouvernant la dynamique du gain à l’intérieur des amplificateurs optiques à semi-conducteur, est développée. L’efficacité de cette technique est démontrée à l’aide de simulations numériques et de mesures expérimentales de conversion de longueur d’onde de signaux 16-QAM à 10 Gbaud et 64-QAM à 5 Gbaud. Cette méthode permet d’améliorer de façon significative les performances du convertisseur de longueur d’onde, et ce, principalement pour les formats de modulation avancés d’ordre supérieur tel que 64-QAM. Finalement, une étude expérimentale exhaustive de la technique de post-compensation des distorsions induites sur le signal converti est effectuée pour des signaux 64-QAM. Les résultats démontrent que, même en présence d’un signal à bruité à l’entrée du convertisseur de longueur d’onde, la technique proposée améliore toujours la qualité du signal reçu. De plus, une étude du point d’opération optimal du convertisseur de longueur d’onde est effectuée et démontre que celui-ci varie en fonction des pertes optiques suivant la conversion de longueur d’onde. Dans un réseau de communication optique à routage en longueur d’onde, le signal est susceptible de passer par plusieurs étages de conversion de longueur d’onde. Pour cette raison, l’efficacité de la technique de post-compensation est démontrée, et ce pour la première fois dans la littérature, pour deux étages successifs de conversion de longueur d’onde de signaux 64-QAM à 5 Gbaud. Les résultats de cette thèse montrent que les convertisseurs de longueur d’ondes basés sur le mélange à quatre ondes dans les amplificateurs optiques à semi-conducteur, utilisés en conjonction avec des techniques de traitement de signal numérique, constituent une technologie extrêmement prometteuse pour les réseaux de communications optiques modernes à routage en longueur d’onde.
Resumo:
Il semble régner aujourd’hui une certaine confusion lorsqu’on aborde des concepts et réalités politiques tels que le pouvoir, l’autorité, la domination, voire même la violence. De plus, les sociétés démocratiques et libérales contemporaines s’accordent de plus en plus avec un modèle de gouvernance individualiste et conformiste, ce qui semble limiter significativement toute forme de sens commun. En tant que réalité et catégorie spécifique du politique, l’autorité semble à cet égard s’effacer pour laisser place à une nouvelle figure. Celle-ci combine différents concepts et réalité du politique tels qu’autorité, pouvoir, violence, force, puissance souvent incarné par le chef ou le leader politique, ou encore est institutionnalisée au sein du gouvernement en place. La combinaison de ces différents concepts pour n’en former qu’un rend plutôt confuse notre compréhension de l’autorité et rend conflictuel sa relation avec l’égalité. Pour Hannah Arendt, la disparition de la catégorie politique de l’autorité s’exprime par l’intermédiaire d’une crise. Une crise marquée par une rupture du sens commun qui met en échec non seulement l’égalité entre les citoyennes et citoyens, mais aussi notre façon de concevoir le politique dans son ensemble. Réfléchir à la crise de l’autorité nous amèneras donc à repenser le politique, et ce faisant, les notions d’autorité et d’égalité. Dans ce mémoire, nous soutenons qu’une forme d’équilibre entre l’autorité et l’égalité est toujours possible, et même nécessaire dans notre monde politique contemporain.
Resumo:
«Halal/ » : une prescription de la religion musulmane qui circonscrit ce qui est permis, mais surtout un marché en croissance exponentielle. Le marché du halal pèse près de 700 milliards de dollars de chiffre d’affaires annuel et intéresse 1,6 milliard de musulmans dans le monde (Bel Hadj, 2015). Entre 2014 et 2015, les dépenses alimentaires du monde musulman ont affiché une progression de 4,3% en atteignant 1158 milliards de dollars soit 16,7% des dépenses alimentaires de la planète . Ces dépenses dépasseront la barre symbolique des 2000 milliards de dollars d’ici 2025. En France, le marché est en constante croissance à deux chiffres (entre 17 à 20 % les cinq dernières années), il est estimé à 5,5 et 7 milliards d’euros par an .Face à l’évidence de l’ampleur et du potentiel du marché du halal dans le monde et en particulier en France, plusieurs tentatives d’élucidation du phénomène sont avancées. En observant de près les pratiques marketing, nous constatons un «déni» total des origines religieuses et une préférence pour la carte du purement ethnique. La recherche, quant à elle, reste fragmentée. Si dans certaines disciplines on préfère encore parler d’un phénomène purement religieux, d’autres tiennent encore à l’étiquette communautaire. Ce flou persiste avec la vision monochrome et surtout cloisonnée entre plusieurs domaines d’études. La recherche dans la discipline du comportement du consommateur, qu’elle s’intéresse à l’essence de la proscription religieuse ou qu’elle se focalise sur la dimension ethnique, n’investigue pas automatiquement toutes les raisons pour lesquelles un individu respecte les règles du halal. La sociologie semble être la discipline qui a su arpenter les chemins les plus sinueux pour tenter d’apporter plus de compréhension à ce phénomène qui ne cesse de prendre de l’envergure et d’attirer les controverses les plus acerbes. C’est aussi la discipline qui a su capturer l’évolution des générations d’immigrants et a su exprimer la complexité de l’expression alimentaire de la deuxième génération mais aussi le défi que relève la communauté maghrébine à cohabiter avec la stigmatisation. Cette deuxième génération d’«immigrants» maghrébins qui n’ont jamais immigré, décide de «manger pour croire » en «se nourrissant de nostalgie » pour une culture qu’ils vivent par procuration à défaut de pouvoir s’intégrer entièrement dans la société française. Il devenait pour nous fondamental de considérer cette pratique alimentaire dans une perspective plus large qui favorise l’élan de l’engagement et de la revendication identitaire affichée. Dans cette voie, et dans la ligne directrice des travaux en sociologie qui ont été notre principale inspiration tout au long de ce travail, notre projet s’inscrit dans une volonté de saisir cette consommation à travers un héritage à la fois culturel, migratoire, familial et une trajectoire propre à chaque individu. Pour arriver à cette fin, nous avons privilégié l’enquête par questionnaire (432 observations) auprès des immigrants de deuxième génération habitant la région parisienne. Pour l’analyse, nous avons opté pour les méthodes des équations structurelles, avec l’ambition de démêler la toile d’araignée à la fois culturelle, sociale et personnelle sans s’enliser dans les a priori, les polémiques et les partis pris. Pour ce faire, nous avons, tout au long de ce travail abordé le halal sous l’angle d’un fait religieux comportant de multiples facettes, à la fois collectives et individuelles, conservatrices et modernistes, désintéressées ou engagées. Nos résultats confirment cette relation de conviction étroite avec la consommation halal. Outre la religion, construit de prédilection des principales recherches en comportement du consommateur, le présent travail doctoral confirme les apports de certaines valeurs (sécurité, stimulation/hédonisme) de l’acculturation mais aussi de la socialisation alimentaire. Cette dernière a cristallisé l’impact de la composante comportementale de l’apprentissage sur la consommation, mais a surtout révélé l’impact de la composante affective sur cet apprentissage. Du côté de l’acculturation, seul l’attachement à la culture hôte a prouvé son influence négative sur la consommation alimentaire halal. Les polémiques récurrentes qui collent au halal nous ont également suggéré la voie de la confiance en la certification, qui a elle aussi confirmé qu’il s’agit désormais d’un phénomène de conscience, de revendication mais aussi d’un engagement responsable du consommateur pour harmoniser ce qu’il incorpore avec ce qu’il est.
Resumo:
Introduction : Le diabète de type 2 est une maladie évolutive débilitante et souvent mortelle qui atteint de plus en plus de personnes dans le monde. Le traitement antidiabétique non-insulinique (TADNI) notamment le traitement antidiabétique oral (TADO) est le plus fréquemment utilisé chez les adultes atteints de cette maladie. Toutefois, plusieurs de ces personnes ne prennent pas leur TADO tel que prescrit posant ainsi la problématique d’une adhésion sous-optimale. Ceci entraîne des conséquences néfastes aussi bien pour les patients que pour la société dans laquelle ils vivent. Il serait donc pertinent d’identifier des pistes de solution à cette problématique. Objectifs : Trois objectifs de recherche ont été étudiés : 1) Explorer la capacité de la théorie du comportement planifié (TCP) à prédire l’adhésion future au TADNI chez les adultes atteints de diabète de type 2, 2) Évaluer l’efficacité globale des interventions visant à améliorer l’adhésion au TADO chez les adultes atteints de diabète de type 2 et étudier l’influence des techniques de changement de comportement sur cette efficacité globale, et 3) Évaluer l’efficacité globale de l’entretien motivationnel sur l’adhésion au traitement médicamenteux chez les adultes atteints de maladie chronique et étudier l’influence des caractéristiques de cette intervention sur son efficacité globale. Méthodes : Pour l’objectif 1 : Il s’agissait d’une enquête web, suivie d’une évaluation de l’adhésion au TADNI sur une période de 30 jours, chez des adultes atteints de diabète de type 2, membres de Diabète Québec. L’enquête consistait à la complétion d’un questionnaire auto-administré incluant les variables de la TCP (intention, contrôle comportemental perçu et attitude) ainsi que d’autres variables dites «externes». Les informations relatives au calcul de l’adhésion provenaient des dossiers de pharmacie des participants transmis via la plateforme ReMed. Une régression linéaire multivariée a été utilisée pour estimer la mesure d’association entre l’intention et l’adhésion future au TADNI ainsi que l’interaction entre l’adhésion passée et l’intention. Pour répondre aux objectifs 2 et 3, deux revues systématiques et méta-analyses ont été effectuées et rapportées selon les lignes directrices de PRISMA. Un modèle à effets aléatoires a été utilisé pour estimer l’efficacité globale (g d’Hedges) des interventions et son intervalle de confiance à 95 % (IC95%) dans chacune des revues. Nous avons également quantifié l’hétérogénéité (I2 d’Higgins) entre les études, et avons fait des analyses de sous-groupe et des analyses de sensibilité. Résultats : Objectif 1 : Il y avait une interaction statistiquement significative entre l’adhésion passée et l’intention (valeur-p= 0,03). L’intention n’était pas statistiquement associée à l’adhésion future au TADNI, mais son effet était plus fort chez les non-adhérents que chez les adhérents avant l’enquête web. En revanche, l’intention était principalement prédite par le contrôle comportemental perçu à la fois chez les adhérents [β= 0,90, IC95%= (0,80; 1,00)] et chez les non-adhérents passés [β= 0,76, IC95%= (0,56; 0,97)]. Objectif 2 : L’efficacité globale des interventions sur l’adhésion au TADO était de 0,21 [IC95%= (-0,05; 0,47); I2= 82 %]. L’efficacité globale des interventions dans lesquelles les intervenants aidaient les patients et/ou les cliniciens à être proactifs dans la gestion des effets indésirables était de 0,64 [IC95%= (0,31; 0,96); I2= 56 %]. Objectif 3 : L’efficacité globale des interventions (basées sur l’entretien motivationnel) sur l’adhésion au traitement médicamenteux était de 0,12 [IC95%= (0,05; 0,20); I2= 1 %. Les interventions basées uniquement sur l’entretien motivationnel [β= 0,18, IC95%= (0,00; 0,36)] et celles dans lesquelles les intervenants ont été coachés [β= 0,47, IC95%= (0,03; 0,90)] étaient les plus efficaces. Aussi, les interventions administrées en face-à-face étaient plus efficaces que celles administrées par téléphone [β= 0,27, IC95%=(0,04; 0,50)]. Conclusion : Il existe un écart entre l’intention et l’adhésion future au TADNI, qui est partiellement expliqué par le niveau d’adhésion passée. Toutefois, il n’y avait pas assez de puissance statistique pour démontrer une association statistiquement significative entre l’intention et l’adhésion future chez les non-adhérents passés. D’un autre côté, quelques solutions au problème de l’adhésion sous-optimale au TADO ont été identifiées. En effet, le fait d’aider les patients et/ou les cliniciens à être proactifs dans la gestion des effets indésirables contribue efficacement à l’amélioration de l’adhésion au TADO chez les adultes atteints de diabète de type 2. Aussi, les interventions basées sur l’entretien motivationnel améliorent efficacement l’adhésion au traitement médicamenteux chez les adultes atteints de maladie chronique. L’entretien motivationnel pourrait donc être utilisé comme un outil clinique pour soutenir les patients dans l’autogestion de leur TADO.
Resumo:
Ce mémoire présente deux algorithmes qui ont pour but d’améliorer la précision de l’estimation de la direction d’arrivée de sources sonores et de leurs échos. Le premier algorithme, qui s’appelle la méthode par élimination des sources, permet d’améliorer l’estimation de la direction d’arrivée d’échos qui sont noyés dans le bruit. Le second, qui s’appelle Multiple Signal Classification à focalisation de phase, utilise l’information dans la phase à chaque fréquence pour déterminer la direction d’arrivée de sources à large bande. La combinaison de ces deux algorithmes permet de localiser des échos dont la puissance est de -17 dB par rapport à la source principale, jusqu’à un rapport échoà- bruit de -15 dB. Ce mémoire présente aussi des mesures expérimentales qui viennent confirmer les résultats obtenus lors de simulations.
Resumo:
Le journalisme politique au Québec et ailleurs dans le monde est en pleine mutation. L’arrivée de nouvelles technologies appelle les organisations de presse à revoir leurs façons de faire de l’information. L’émergence de nouveaux concepts et de nouveaux enjeux incitent les journalistes à modifier leurs pratiques. La médiatisation et les théories du cadrage deviennent donc des outils d’interprétation des nouvelles façons de faire la couverture de divers enjeux. Ce mémoire s’intéresse plus spécifiquement à la médiatisation de la mise en place de la commission d’enquête sur l’industrie de la construction au Québec entre 2009 et 2012. Il répond à deux principales questions de recherche. Quel type de cadrage a été majoritairement été utilisé, celui principalement centré sur les enjeux ou celui centré sur les stratégies? Quelle place prend la thématique de la transparence dans le cadre du débat sur la mise en place de la commission d’enquête sur l’industrie de la construction? Une analyse de contenu médiatique des trois principaux quotidiens québécois, sur un peu plus de 3 ans, permet d’offrir quelques réponses et pistes de réflexions. Notamment, elle nous a permis de conclure que le recours aux cadres stratégiques est majoritaire et que cela se constate d’autant plus dans les articles d’opinion. L’analyse ne nous permet cependant pas d’établir de manière statistique cette deuxième conclusion. Finalement, la majorité des références à la thématique de la transparence au cours du débat sur la mise en place d’une commission d’enquête ont été faites sous l’angle du manque de volonté des acteurs gouvernementaux. Ce mémoire conclut avec quelques questionnements sur la qualité de l’information, les modifications de la pratique journalistique, le cynisme qu’amène le recours aux cadres centrés sur les stratégies et son impact sur la démocratie et les citoyens.
Resumo:
Alors que dans ses précédents travaux, Axel Honneth se proposait de reconstruire la Théorie critique, dans le cadre d’une nouvelle philosophie sociale, soutenue par le concept hégélien de reconnaissance, une réorientation fut observée dans le contenu de son plus récent ouvrage : Le droit de la liberté : Esquisse d’une éthicité démocratique. En ayant auparavant pris appui sur la théorie de la reconnaissance, il tente désormais d’utiliser une méthode similaire, mais en dressant cette fois-ci un cadre descriptif qui s’articule autour du concept de liberté. Pour y parvenir, il met en lumière les limites des libertés morales et juridiques, pour proposer une liberté sociale comme thérapie, qu’il décline sous les trois formes du « « nous » des relations personnelles », du « « nous » de l’agir à l’oeuvre dans l’économie de marché », puis du « « nous » de la formation démocratique de la volonté ». L’objet de notre recherche est donc de dresser un bilan critique de cette oeuvre, puis de tenter de cerner, en mettant cette conception honnethienne de la liberté en dialogue avec d’autres auteurs, si Axel Honneth a pu laisser certaines zones d’ombre ou angles morts au passage.
Resumo:
Le Système Stockage de l’Énergie par Batterie ou Batterie de Stockage d’Énergie (BSE) offre de formidables atouts dans les domaines de la production, du transport, de la distribution et de la consommation d’énergie électrique. Cette technologie est notamment considérée par plusieurs opérateurs à travers le monde entier, comme un nouveau dispositif permettant d’injecter d’importantes quantités d’énergie renouvelable d’une part et d’autre part, en tant que composante essentielle aux grands réseaux électriques. De plus, d’énormes avantages peuvent être associés au déploiement de la technologie du BSE aussi bien dans les réseaux intelligents que pour la réduction de l’émission des gaz à effet de serre, la réduction des pertes marginales, l’alimentation de certains consommateurs en source d’énergie d’urgence, l’amélioration de la gestion de l’énergie, et l’accroissement de l’efficacité énergétique dans les réseaux. Cette présente thèse comprend trois étapes à savoir : l’Étape 1 - est relative à l’utilisation de la BSE en guise de réduction des pertes électriques ; l’Étape 2 - utilise la BSE comme élément de réserve tournante en vue de l’atténuation de la vulnérabilité du réseau ; et l’Étape 3 - introduit une nouvelle méthode d’amélioration des oscillations de fréquence par modulation de la puissance réactive, et l’utilisation de la BSE pour satisfaire la réserve primaire de fréquence. La première Étape, relative à l’utilisation de la BSE en vue de la réduction des pertes, est elle-même subdivisée en deux sous-étapes dont la première est consacrée à l’allocation optimale et le seconde, à l’utilisation optimale. Dans la première sous-étape, l’Algorithme génétique NSGA-II (Non-dominated Sorting Genetic Algorithm II) a été programmé dans CASIR, le Super-Ordinateur de l’IREQ, en tant qu’algorithme évolutionniste multiobjectifs, permettant d’extraire un ensemble de solutions pour un dimensionnement optimal et un emplacement adéquat des multiple unités de BSE, tout en minimisant les pertes de puissance, et en considérant en même temps la capacité totale des puissances des unités de BSE installées comme des fonctions objectives. La première sous-étape donne une réponse satisfaisante à l’allocation et résout aussi la question de la programmation/scheduling dans l’interconnexion du Québec. Dans le but de réaliser l’objectif de la seconde sous-étape, un certain nombre de solutions ont été retenues et développées/implantées durant un intervalle de temps d’une année, tout en tenant compte des paramètres (heure, capacité, rendement/efficacité, facteur de puissance) associés aux cycles de charge et de décharge de la BSE, alors que la réduction des pertes marginales et l’efficacité énergétique constituent les principaux objectifs. Quant à la seconde Étape, un nouvel indice de vulnérabilité a été introduit, formalisé et étudié ; indice qui est bien adapté aux réseaux modernes équipés de BES. L’algorithme génétique NSGA-II est de nouveau exécuté (ré-exécuté) alors que la minimisation de l’indice de vulnérabilité proposé et l’efficacité énergétique représentent les principaux objectifs. Les résultats obtenus prouvent que l’utilisation de la BSE peut, dans certains cas, éviter des pannes majeures du réseau. La troisième Étape expose un nouveau concept d’ajout d’une inertie virtuelle aux réseaux électriques, par le procédé de modulation de la puissance réactive. Il a ensuite été présenté l’utilisation de la BSE en guise de réserve primaire de fréquence. Un modèle générique de BSE, associé à l’interconnexion du Québec, a enfin été proposé dans un environnement MATLAB. Les résultats de simulations confirment la possibilité de l’utilisation des puissances active et réactive du système de la BSE en vue de la régulation de fréquence.
Resumo:
Cette thèse considère les suites de la paix d’Apamée sur le plan des relations politiques entre les États d’Anatolie et sur l’évolution de la place tenue par cette péninsule dans l’ordre géopolitique méditerranéen. Le traité d’Apamée, conclu en 188 avant notre ère entre la puissance romaine et le royaume séleucide, fut un acte diplomatique majeur pour l’Asie Mineure et l’ensemble de la région anatolienne, libérés de la domination des Séleucides. Jusqu’ici, l’historiographie traditionnelle a abordé ce sujet selon deux perspectives, à savoir l’apparition de l’impérialisme romain en Orient et la vie politique et administrative des cités égéennes. À l’inverse, cette étude se concentre sur les principales puissances politiques de la région anatolienne : les royaumes. Dans le cadre de cet espace fragmenté et diversifié, des modifications de l’équilibre géopolitique régional peuvent être mises en relation avec le bouleversement de l’ordre méditerranéen, par le croisement de sources grecques, latines et orientales, ainsi qu’en faisant usage de procédés développés par le courant de la World History. L’évolution ultérieure de la situation mise en place à Apamée est étudiée jusqu’au point de disparition d’une Anatolie dirigée par des souverains non incorporés dans l’horizon impérial des grandes puissances étrangères, situation à laquelle les ultimes défaites de Mithridate VI du Pont et de Tigrane d’Arménie face à Rome mirent un terme définitif.
Resumo:
Les élections post-conflit ou élections de sortie de crise organisées sous l’égide de la communauté internationale en vue de rétablir la paix dans les pays sortant de violents conflits armés ont un bilan mixte caractérisé par le succès ou l’échec selon les cas. Ce bilan mitigé représente le problème principal auquel cette recherche tente de répondre à travers les questions suivantes : l’assistance électorale étrangère est-elle efficace comme outil de rétablissement de la paix dans les sociétés post-conflit? Qu’est ce qui détermine le succès ou l’échec des élections post-conflit à contribuer efficacement au rétablissement de la paix dans les sociétés déchirées par la guerre? Pour résoudre cette problématique, cette thèse développe une théorie de l’assistance électorale en période post-conflit centrée sur les parties prenantes à la fois du conflit armé et du processus électoral. Cette théorie affirme que l’élément clé pour le succès des élections post-conflit dans le rétablissement de la paix est le renforcement de la capacité de négociation des parties prenantes à la fois dans le processus de paix et dans le processus électoral post-conflit. Dans les situations post-conflit, une assistance électorale qui se voudrait complète et efficace devra combiner à la fois le processus électoral et le processus de paix. L’assistance électorale sera inefficace si elle se concentre uniquement sur les aspects techniques du processus électoral visant à garantir des élections libres, transparentes et équitables. Pour être efficace, l’accent devra également être mis sur les facteurs supplémentaires qui peuvent empêcher la récurrence de la guerre, tels que l’habilité des individus et des groupes à négocier et à faire des compromis sur les grandes questions qui peuvent menacer le processus de paix. De fait, même des élections transparentes comme celles de 1997 au Liberia saluées par la communauté internationale n’avaient pas réussi à établir des conditions suffisantes pour éviter la reprise des hostilités. C’est pourquoi, pour être efficace, l’assistance électorale dans les situations de post-conflit doit prendre une approche globale qui priorise l’éducation civique, la sensibilisation sur les droits et responsabilités des citoyens dans une société démocratique, le débat public sur les questions qui divisent, la participation politique, la formation au dialogue politique, et toute autre activité qui pourrait aider les différentes parties à renforcer leur capacité de négociation et de compromis. Une telle assistance électorale fera une contribution à la consolidation de la paix, même dans le contexte des élections imparfaites, comme celles qui se sont détenues en Sierra Leone en 2002 ou au Libéria en 2005. Bien que la littérature sur l’assistance électorale n’ignore guère l’importance des parties prenantes aux processus électoraux post-conflit (K. Kumar, 1998, 2005), elle a fortement mis l’accent sur les mécanismes institutionnels. En effet, la recherche académique et professionnelle est abondante sur la réforme des lois électorales, la reforme constitutionnelle, et le développement des administrations électorales tels que les commissions électorales, ainsi que l’observation électorale et autres mécanismes de prévention de la fraude électorale, etc. (Carothers & Gloppen, 2007). En d’autres termes, les décideurs et les chercheurs ont attribué jusqu’à présent plus d’importance à la conception et au fonctionnement du cadre institutionnel et des procédures électorales. Cette thèse affirme qu’il est désormais temps de prendre en compte les participants eux-mêmes au processus électoral à travers des types d’assistance électorale qui favoriseraient leur capacité à participer à un débat pacifique et à trouver des compromis aux questions litigieuses. Cette approche plus globale de l’assistance électorale qui replace l’élection post-conflit dans le contexte plus englobant du processus de paix a l’avantage de transformer le processus électoral non pas seulement en une expérience d’élection de dirigeants légitimes, mais aussi, et surtout, en un processus au cours duquel les participants apprennent à régler leurs points de vue contradictoires à travers le débat politique dans un cadre institutionnel avec des moyens légaux et légitimes. Car, si le cadre institutionnel électoral est important, il reste que le résultat du processus électoral dépendra essentiellement de la volonté des participants à se conformer au cadre institutionnel et aux règles électorales.