995 resultados para Raison
Resumo:
La dynastie des Flaviens est souvent mal connue et appréciée en raison de sa situation chronologique, « coincée » entre la famille des descendants de César et d’Auguste et celle allant de Trajan à Marc Aurèle. Elle passe parfois pour une simple dynastie de « transition » qui aurait uniquement servi de passerelle entre deux familles considérées comme plus brillantes qui ont par ailleurs laissé un souvenir plus durable. En un peu plus d’un quart de siècle (69-96), Vespasien, Titus et Domitien ont pourtant davantage fait pour la stabilité de Rome et de l’Empire que certains de leurs prédécesseurs ou successeurs. Sorti vainqueur des troubles civils de l’année des quatre empereurs (68-69), Vespasien ramena la paix en Orient et en Italie en plus de s’attacher à stabiliser les institutions et de reconstituer les finances de l’État, passablement écornées par les dernières années du Principat de Néron (54-68) et la guerre civile elle-même. Plus que la paix et la stabilité à l’intérieur et aux frontières de l’Empire, il fit cependant en sorte de refonder les bases institutionnelles du Principat en assumant sa transformation en un régime monarchique et héréditaire. Un principe parfaitement admis puisque ses deux fils adultes, Titus et Domitien, lui succédèrent sans difficulté. Davantage peut-être que les récits laissés par les sources littéraires anciennes, les inscriptions romaines et italiennes ainsi que les monnaies émises par l’atelier de Rome sont probablement le meilleur témoignage permettant de saisir le plus précisément et le plus profondément l’idée que les Flaviens se faisaient d’eux-mêmes et du pouvoir dont ils étaient investis. Le contenu de leur titulature officielle comme leurs choix iconographiques permettent ainsi de dégager leurs différents thèmes de propagande qui laissent finalement apparaitre une vraie continuité dans leur idéologie du pouvoir et leur manière de gouverner. Vespasien a ainsi posé des fondations idéologiques et politiques que ses fils ont globalement poursuivies et respectées, ce qui renforce l’idée selon laquelle les Flaviens ont effectivement suivi un « programme » qui les distinguait de leurs prédécesseurs et de leurs successeurs. Malgré des différences parfois importantes dans leurs pratiques, les inscriptions et l’iconographie monétaire permettent ainsi de mettre en lumière le fait que Titus et Domitien ont finalement moins cherché à faire preuve d’originalité qu’à s’inscrire dans la continuité de l’œuvre de leur père afin de garantir le maintien de la paix et avec elle la prospérité et la stabilité de l’État, et avec elles la satisfaction et la tranquillité de l’ensemble de la société.
Resumo:
Cette thèse propose l’émergence d’une poésie de l’entre deux dans la littérature expérimentale, en suivant ses développements du milieu du vingtième siècle jusqu'au début du vingt-et-unième. Cette notion d’entre-deux poétique se fonde sur une théorie du neutre (Barthes, Blanchot) comme ce qui se situe au delà ou entre l'opposition et la médiation. Le premier chapitre retrace le concept de monotonie dans la théorie esthétique depuis la période romantique où il est vu comme l'antithèse de la variabilité ou tension poétique, jusqu’à l’émergence de l’art conceptuel au vingtième siècle où il se déploie sans interruption. Ce chapitre examine alors la relation de la monotonie à la mélancolie à travers l’analyse de « The Anatomy of Monotony », poème de Wallace Stevens tiré du recueil Harmonium et l’œuvre poétique alphabet de Inger Christensen. Le deuxième chapitre aborde la réalisation d’une poésie de l’entre-deux à travers une analyse de quatre œuvres poétiques qui revisitent l’usage de l’index du livre paratextuel: l’index au long poème “A” de Louis Zukofsky, « Index to Shelley's Death » d’Alan Halsey qui apparait à la fin de l’oeuvre The Text of Shelley's Death, Cinema of the Present de Lisa Robertson, et l’oeuvre multimédia Via de Carolyn Bergvall. Le troisième chapitre retrace la politique de neutralité dans la théorie de la traduction. Face à la logique oppositionnelle de l’original contre la traduction, il propose hypothétiquement la réalisation d’une troisième texte ou « l’entre-deux », qui sert aussi à perturber les récits familiers de l’appropriation, l’absorption et l’assimilation qui effacent la différence du sujet de l’écrit. Il examine l’oeuvre hybride Secession with Insecession de Chus Pato et Erin Moure comme un exemple de poésie de l’entre-deux. A la fois pour Maurice Blanchot et Roland Barthes, le neutre représente un troisième terme potentiel qui défie le paradigme de la pensée oppositionnelle. Pour Blanchot, le neutre est la différence amenée au point de l’indifférence et de l’opacité de la transparence tandis que le désire de Barthes pour le neutre est une utopie lyrique qui se situe au-delà des contraintes de but et de marquage. La conclusion examine comment le neutre correspond au conditions de liberté gouvernant le principe de créativité de la poésie comme l’acte de faire sans intention ni raison.
Resumo:
Pour minoré et ignoré qu’il fût, le roman policier est désormais légitimé par l’institution littéraire. À parcourir les livres publiés dans la Caraïbe francophone, le genre demeure dans la marge de cette production [issue de la Caraïbe francophone (Haïti, Guadeloupe, Guyane française, Martinique)]. Quoiqu’il en soit, on notera que les années 1990 ont inauguré une véritable éclosion de publications de polars. Tout cela augure d’une acclimatation de ce genre qui ne s’accompagne pas moins de questionnements sur les spécificités éventuelles du polar caribéen francophone. Se situe-t-il dans la convention? Tente-il au contraire d’établir une distanciation avec la norme? C’est pour répondre à ces interrogations que cette thèse se propose d’explorer les enjeux de l’appropriation du polar provenant de cette aire géographique. À l’aune de la poétique des genres, de la sociocritique et de l’intermédialité, un corpus composé de quatorze romans fait l’objet d’une étude approfondie. Dans le premier chapitre, un bref récapitulatif permet de situer les œuvres à l’étude dans l’histoire littéraire du genre tout en soulignant l’adaptation du polar dans la Caraïbe de langue française. Il en ressort qu’un nombre significatif d’écrivains, attentifs à la latence du magico-religieux dans leur société, mettent en scène le surnaturel alors que le roman policier conventionnel plébiscite la méthode logico-déductive. C’est la raison pour laquelle le second chapitre s’intéresse à l’usage de l’inexplicable et son rapport avec le cartésianisme. Quant au troisième chapitre, il se penche sur un topos du genre : la violence telle qu’elle surgit dans ses dimensions commémoratives et répétitives de l’histoire tumultueuse de la Caraïbe. Notre corpus tend à relier la notion du crime, fut-il d’emprise originelle, à l’histoire post-coloniale. Dans la mesure où les personnages constituent un élément clé du genre, ils sont sondés, dans un quatrième chapitre, en regard de la critique sociale qu’ils incarnent et véhiculent. Le dernier chapitre cherche à circonscrire l’intermédialité qui structure et qualifie l’œuvre au sein du roman policier depuis sa genèse. Somme toute, ces divers axes contribuent à mieux comprendre le phénomène de transposition du polar dans cette région du monde.
Resumo:
A l’heure actuelle, les biocarburants renouvelables et qui ne nuit pas à l'environnement sont à l'étude intensive en raison de l'augmentation des problèmes de santé et de la diminution des combustibles fossiles. H2 est l'un des candidats les plus prometteurs en raison de ses caractéristiques uniques, telles que la densité d'énergie élevée et la génération faible ou inexistante de polluants. Une façon attrayante pour produire la H2 est par les bactéries photosynthétiques qui peuvent capter l'énergie lumineuse pour actionner la production H2 avec leur système de nitrogénase. L'objectif principal de cette étude était d'améliorer le rendement de H2 des bactéries photosynthétiques pourpres non sulfureuses utilisant une combinaison de génie métabolique et le plan des expériences. Une hypothèse est que le rendement en H2 pourrait être améliorée par la redirection de flux de cycle du Calvin-Benson-Bassham envers du système de nitrogénase qui catalyse la réduction des protons en H2. Ainsi, un PRK, phosphoribulose kinase, mutant « knock-out » de Rhodobacter capsulatus JP91 a été créé. L’analyse de la croissance sur des différentes sources de carbone a montré que ce mutant ne peut croître qu’avec l’acétate, sans toutefois produire d' H2. Un mutant spontané, YL1, a été récupéré qui a retenu l'cbbP (codant pour PRK) mutation d'origine, mais qui avait acquis la capacité de se développer sur le glucose et produire H2. Une étude de la production H2 sous différents niveaux d'éclairage a montré que le rendement d’YL1 était de 20-40% supérieure à la souche type sauvage JP91. Cependant, il n'y avait pas d'amélioration notable du taux de production de H2. Une étude cinétique a montré que la croissance et la production d'hydrogène sont fortement liées avec des électrons à partir du glucose principalement dirigés vers la production de H2 et la formation de la biomasse. Sous des intensités lumineuses faibles à intermédiaires, la production d'acides organiques est importante, ce qui suggère une nouvelle amélioration additionnel du rendement H2 pourrait être possible grâce à l'optimisation des processus. Dans une série d'expériences associées, un autre mutant spontané, YL2, qui a un phénotype similaire à YL1, a été testé pour la croissance dans un milieu contenant de l'ammonium. Les résultats ont montré que YL2 ne peut croître que avec de l'acétate comme source de carbone, encore une fois, sans produire de H2. Une incubation prolongée dans les milieux qui ne supportent pas la croissance de YL2 a permis l'isolement de deux mutants spontanés secondaires intéressants, YL3 et YL4. L'analyse par empreint du pied Western a montré que les deux souches ont, dans une gamme de concentrations d'ammonium, l'expression constitutive de la nitrogénase. Les génomes d’YL2, YL3 et YL4 ont été séquencés afin de trouver les mutations responsables de ce phénomène. Fait intéressant, les mutations de nifA1 et nifA2 ont été trouvés dans les deux YL3 et YL4. Il est probable qu'un changement conformationnel de NifA modifie l'interaction protéine-protéine entre NifA et PII protéines (telles que GlnB ou GlnK), lui permettant d'échapper à la régulation par l'ammonium, et donc d'être capable d'activer la transcription de la nitrogénase en présence d'ammonium. On ignore comment le nitrogénase synthétisé est capable de maintenir son activité parce qu’en théorie, il devrait également être soumis à une régulation post-traductionnelle par ammonium. Une autre preuve pourrait être obtenue par l'étude du transcriptome d’YL3 et YL4. Une première étude sur la production d’ H2 par YL3 et YL4 ont montré qu'ils sont capables d’une beaucoup plus grande production d'hydrogène que JP91 en milieu d'ammonium, qui ouvre la porte pour les études futures avec ces souches en utilisant des déchets contenant de l'ammonium en tant que substrats. Enfin, le reformage biologique de l'éthanol à H2 avec la bactérie photosynthétique, Rhodopseudomonas palustris CGA009 a été examiné. La production d'éthanol avec fermentation utilisant des ressources renouvelables microbiennes a été traitée comme une technique mature. Cependant, la plupart des études du reformage de l'éthanol à H2 se sont concentrés sur le reformage chimique à la vapeur, ce qui nécessite généralement une haute charge énergetique et résultats dans les émissions de gaz toxiques. Ainsi le reformage biologique de l'éthanol à H2 avec des bactéries photosynthétiques, qui peuvent capturer la lumière pour répondre aux besoins énergétiques de cette réaction, semble d’être plus prometteuse. Une étude précédente a démontré la production d'hydrogène à partir d'éthanol, toutefois, le rendement ou la durée de cette réaction n'a pas été examiné. Une analyse RSM (méthode de surface de réponse) a été réalisée dans laquelle les concentrations de trois facteurs principaux, l'intensité lumineuse, de l'éthanol et du glutamate ont été variés. Nos résultats ont montré que près de 2 moles de H2 peuvent être obtenus à partir d'une mole d'éthanol, 33% de ce qui est théoriquement possible.
Resumo:
Lors du transport du bois de la forêt vers les usines, de nombreux événements imprévus peuvent se produire, événements qui perturbent les trajets prévus (par exemple, en raison des conditions météo, des feux de forêt, de la présence de nouveaux chargements, etc.). Lorsque de tels événements ne sont connus que durant un trajet, le camion qui accomplit ce trajet doit être détourné vers un chemin alternatif. En l’absence d’informations sur un tel chemin, le chauffeur du camion est susceptible de choisir un chemin alternatif inutilement long ou pire, qui est lui-même "fermé" suite à un événement imprévu. Il est donc essentiel de fournir aux chauffeurs des informations en temps réel, en particulier des suggestions de chemins alternatifs lorsqu’une route prévue s’avère impraticable. Les possibilités de recours en cas d’imprévus dépendent des caractéristiques de la chaîne logistique étudiée comme la présence de camions auto-chargeurs et la politique de gestion du transport. Nous présentons trois articles traitant de contextes d’application différents ainsi que des modèles et des méthodes de résolution adaptés à chacun des contextes. Dans le premier article, les chauffeurs de camion disposent de l’ensemble du plan hebdomadaire de la semaine en cours. Dans ce contexte, tous les efforts doivent être faits pour minimiser les changements apportés au plan initial. Bien que la flotte de camions soit homogène, il y a un ordre de priorité des chauffeurs. Les plus prioritaires obtiennent les volumes de travail les plus importants. Minimiser les changements dans leurs plans est également une priorité. Étant donné que les conséquences des événements imprévus sur le plan de transport sont essentiellement des annulations et/ou des retards de certains voyages, l’approche proposée traite d’abord l’annulation et le retard d’un seul voyage, puis elle est généralisée pour traiter des événements plus complexes. Dans cette ap- proche, nous essayons de re-planifier les voyages impactés durant la même semaine de telle sorte qu’une chargeuse soit libre au moment de l’arrivée du camion à la fois au site forestier et à l’usine. De cette façon, les voyages des autres camions ne seront pas mo- difiés. Cette approche fournit aux répartiteurs des plans alternatifs en quelques secondes. De meilleures solutions pourraient être obtenues si le répartiteur était autorisé à apporter plus de modifications au plan initial. Dans le second article, nous considérons un contexte où un seul voyage à la fois est communiqué aux chauffeurs. Le répartiteur attend jusqu’à ce que le chauffeur termine son voyage avant de lui révéler le prochain voyage. Ce contexte est plus souple et offre plus de possibilités de recours en cas d’imprévus. En plus, le problème hebdomadaire peut être divisé en des problèmes quotidiens, puisque la demande est quotidienne et les usines sont ouvertes pendant des périodes limitées durant la journée. Nous utilisons un modèle de programmation mathématique basé sur un réseau espace-temps pour réagir aux perturbations. Bien que ces dernières puissent avoir des effets différents sur le plan de transport initial, une caractéristique clé du modèle proposé est qu’il reste valable pour traiter tous les imprévus, quelle que soit leur nature. En effet, l’impact de ces événements est capturé dans le réseau espace-temps et dans les paramètres d’entrée plutôt que dans le modèle lui-même. Le modèle est résolu pour la journée en cours chaque fois qu’un événement imprévu est révélé. Dans le dernier article, la flotte de camions est hétérogène, comprenant des camions avec des chargeuses à bord. La configuration des routes de ces camions est différente de celle des camions réguliers, car ils ne doivent pas être synchronisés avec les chargeuses. Nous utilisons un modèle mathématique où les colonnes peuvent être facilement et naturellement interprétées comme des itinéraires de camions. Nous résolvons ce modèle en utilisant la génération de colonnes. Dans un premier temps, nous relaxons l’intégralité des variables de décision et nous considérons seulement un sous-ensemble des itinéraires réalisables. Les itinéraires avec un potentiel d’amélioration de la solution courante sont ajoutés au modèle de manière itérative. Un réseau espace-temps est utilisé à la fois pour représenter les impacts des événements imprévus et pour générer ces itinéraires. La solution obtenue est généralement fractionnaire et un algorithme de branch-and-price est utilisé pour trouver des solutions entières. Plusieurs scénarios de perturbation ont été développés pour tester l’approche proposée sur des études de cas provenant de l’industrie forestière canadienne et les résultats numériques sont présentés pour les trois contextes.
Resumo:
La possibilité de programmer une cellule dans le but de produire une protéine d’intérêt est apparue au début des années 1970 avec l’essor du génie génétique. Environ dix années plus tard, l’insuline issue de la plateforme de production microbienne Escherichia coli, fut la première protéine recombinante (r-protéine) humaine commercialisée. Les défis associés à la production de r-protéines plus complexes et glycosylées ont amené l’industrie biopharmaceutique à développer des systèmes d’expression en cellules de mammifères. Ces derniers permettent d’obtenir des protéines humaines correctement repliées et de ce fait, biologiquement actives. Afin de transférer le gène d’intérêt dans les cellules de mammifères, le polyéthylènimine (PEI) est certainement un des vecteurs synthétiques le plus utilisé en raison de son efficacité, mais aussi sa simplicité d’élaboration, son faible coût et sa stabilité en solution qui facilite son utilisation. Il est donc largement employé dans le contexte de la production de r-protéines à grande échelle et fait l’objet d’intenses recherches dans le domaine de la thérapie génique non virale. Le PEI est capable de condenser efficacement l’ADN plasmidique (vecteur d’expression contenant le gène d’intérêt) pour former des complexes de petites tailles appelés polyplexes. Ces derniers doivent contourner plusieurs étapes limitantes afin de délivrer le gène d’intérêt au noyau de la cellule hôte. Dans les conditions optimales du transfert de gène par le PEI, les polyplexes arborent une charge positive nette interagissant de manière électrostatique avec les protéoglycanes à héparane sulfate (HSPG) qui décorent la surface cellulaire. On observe deux familles d’HSPG exprimés en abondance à la surface des cellules de mammifères : les syndécanes (4 membres, SDC1-4) et les glypicanes (6 membres, GPC1-6). Si l’implication des HSPG dans l’attachement cellulaire des polyplexes est aujourd’hui largement acceptée, leur rôle individuel vis-à-vis de cet attachement et des étapes subséquentes du transfert de gène reste à confirmer. Après avoir optimisées les conditions de transfection des cellules de mammifères CHO et HEK293 dans le but de produire des r-protéines secrétées, nous avons entrepris des cinétiques de capture, d’internalisation des polyplexes et aussi d’expression du transgène afin de mieux comprendre le processus de transfert de gène. Nous avons pu observer des différences au niveau de ces paramètres de transfection dépendamment du système d’expression et des caractéristiques structurelles du PEI utilisé. Ces résultats présentés sous forme d’articles scientifiques constituent une base solide de l’enchaînement dans le temps des évènements essentiels à une transfection efficace des cellules CHO et HEK293 par le PEI. Chaque type cellulaire possède un profil d’expression des HSPG qui lui est propre, ces derniers étant plus ou moins permissifs au transfert de gène. En effet, une étude menée dans notre laboratoire montre que les SDC1 et SDC2 ont des rôles opposés vis-à-vis du transfert de gène. Alors que tous deux sont capables de lier les polyplexes, l’expression de SDC1 permet leur internalisation contrairement à l’expression de SDC2 qui l’inhibe. De plus, lorsque le SDC1 est exprimé à la surface des cellules HEK293, l’efficacité de transfection est augmentée de douze pourcents. En utilisant la capacité de SDC1 à induire l’internalisation des polyplexes, nous avons étudié le trafic intracellulaire des complexes SDC1 / polyplexes dans les cellules HEK293. De plus, nos observations suggèrent une nouvelle voie par laquelle les polyplexes pourraient atteindre efficacement le noyau cellulaire. Dans le contexte du transfert de gène, les HSPG sont essentiellement étudiés dans leur globalité. S’il est vrai que le rôle des syndécanes dans ce contexte est le sujet de quelques études, celui des glypicanes est inexploré. Grâce à une série de traitements chimiques et enzymatiques visant une approche « perte de fonction », l’importance de la sulfatation comme modification post-traductionnelle, l’effet des chaînes d’héparanes sulfates mais aussi des glypicanes sur l’attachement, l’internalisation des polyplexes, et l’expression du transgène ont été étudiés dans les cellules CHO et HEK293. L’ensemble de nos observations indique clairement que le rôle des HSPG dans le transfert de gène devrait être investigué individuellement plutôt que collectivement. En effet, le rôle spécifique de chaque membre des HSPG sur la capture des polyplexes et leur permissivité à l’expression génique demeure encore inconnu. En exprimant de manière transitoire chaque membre des syndécanes et glypicanes à la surface des cellules CHO, nous avons déterminé leur effet inhibiteur ou activateur sur la capture des polyplexes sans pouvoir conclure quant à l’effet de cette surexpression sur l’efficacité de transfection. Par contre, lorsqu’ils sont présents dans le milieu de culture, le domaine extracellulaire des HSPG réduit l’efficacité de transfection des cellules CHO sans induire la dissociation des polyplexes. Curieusement, lorsque chaque HSPG est exprimé de manière stable dans les cellules CHO, seulement une légère modulation de l’expression du transgène a pu être observée. Ces travaux ont contribué à la compréhension des mécanismes d'action du vecteur polycationique polyéthylènimine et à préciser le rôle des protéoglycanes à héparane sulfate dans le transfert de gène des cellules CHO et HEK293.
Resumo:
Réalisé en cotutelle avec l'École normale supérieure de Cachan – Université Paris-Saclay
Resumo:
Dans les dernières années, les études sur les maladies neurodégénératives telles que la maladie d’Alzheimer (MA) et la maladie de Parkinson sans démence (MP) et avec démence (MPD) ont été nombreuses, mais la différenciation de ces patients sur la base de leur profil cognitif doit être encore améliorée. Effectivement, l’évaluation clinique peut s’avérer difficile en raison du peu de spécificité dans la présentation de leurs déficits neuropsychologiques. Ceci s’explique par la variabilité et le chevauchement des processus cliniques et pathologiques affectant essentiellement les mêmes régions/fonctions, soit celles liées aux lobes temporaux médians (LTM)/Mémoire (fonction LTM/Mémoire) et aux lobes frontaux (LF)/Fonctions exécutives (fonction LF/Exécutive). Toutefois, il existerait une distinction critique au niveau de l’intégrité relative de ces fonctions dans ces maladies neurodégénératives, ce qui permettrait d’identifier des déficits cognitifs spécifiques à la MA, la MP et la MPD. La présente thèse s’inscrit dans cette volonté de caractériser les profils cognitifs propres à la MA, la MP et la MPD, plus précisément par l’étude novatrice de la mémoire de source et des faux souvenirs. Les quatre chapitres qui composent cette thèse servent donc à documenter la nature de ces mécanismes mnésiques, leurs patrons de performance spécifiques dans la MA, la MP et la MPD, et leur sensibilité aux atteintes des fonctions LTM/Mémoire et LF/Exécutive. Ainsi, le Chapitre I démontre la pertinence d’étudier la mémoire de source et les faux souvenirs dans la MA, la MP et la MPD, en décrivant leurs interactions avec les fonctions LTM/Mémoire et LF/Exécutive, toutes les deux atteintes dans ces maladies. Le Chapitre II, présenté sous forme d’article, révèle des déficits en mémoire de source chez des patients MP, mais seulement dans l’une des tâches employées. Également, malgré des atteintes des fonctions LF/Exécutive et LTM/Mémoire, il est démontré que seule la fonction LTM/Mémoire est liée à l’altération de la mémoire de source chez les patients MP. Le Chapitre III, également sous forme d’article, illustre un taux anormal de faux souvenirs chez des patients MA, tandis que chez des patients MP et MPD, il est démontré qu’ils ont un taux de faux souvenirs comparable à celui des participants contrôles. Il est également rapporté que malgré l’atteinte de la fonction LF/Exécutive chez les patients MA, MP et MPD, elle est seulement liée à l’augmentation des faux souvenirs chez les patients MA. Finalement, dans le dernier Chapitre (IV), les résultats obtenus sont discutés dans leur ensemble à la lumière des prédictions et connaissances actuelles, tout en identifiant les limites afin d’orienter les perspectives de recherche.
Resumo:
Les convertisseurs de longueur d’onde sont essentiels pour la réalisation de réseaux de communications optiques à routage en longueur d’onde. Dans la littérature, les convertisseurs de longueur d’onde basés sur le mélange à quatre ondes dans les amplificateurs optiques à semi-conducteur constituent une solution extrêmement intéressante, et ce, en raison de leurs nombreuses caractéristiques nécessaires à l’implémentation de tels réseaux de communications. Avec l’émergence des systèmes commerciaux de détection cohérente, ainsi qu’avec les récentes avancées dans le domaine du traitement de signal numérique, il est impératif d’évaluer la performance des convertisseurs de longueur d’onde, et ce, dans le contexte des formats de modulation avancés. Les objectifs de cette thèse sont : 1) d’étudier la faisabilité des convertisseurs de longueur d’onde basés sur le mélange à quatre ondes dans les amplificateurs optiques à semi-conducteur pour les formats de modulation avancés et 2) de proposer une technique basée sur le traitement de signal numérique afin d’améliorer leur performance. En premier lieu, une étude expérimentale de la conversion de longueur d’onde de formats de modulation d’amplitude en quadrature (quadrature amplitude modulation - QAM) est réalisée. En particulier, la conversion de longueur d’onde de signaux 16-QAM à 16 Gbaud et 64-QAM à 5 Gbaud dans un amplificateur optique à semi-conducteur commercial est réalisée sur toute la bande C. Les résultats démontrent qu’en raison des distorsions non-linéaires induites sur le signal converti, le point d’opération optimal du convertisseur de longueur d’onde est différent de celui obtenu lors de la conversion de longueur d’onde de formats de modulation en intensité. En effet, dans le contexte des formats de modulation avancés, c’est le compromis entre la puissance du signal converti et les non-linéarités induites qui détermine le point d’opération optimal du convertisseur de longueur d’onde. Les récepteurs cohérents permettent l’utilisation de techniques de traitement de signal numérique afin de compenser la détérioration du signal transmis suite à sa détection. Afin de mettre à profit les nouvelles possibilités offertes par le traitement de signal numérique, une technique numérique de post-compensation des distorsions induites sur le signal converti, basée sur une analyse petit-signal des équations gouvernant la dynamique du gain à l’intérieur des amplificateurs optiques à semi-conducteur, est développée. L’efficacité de cette technique est démontrée à l’aide de simulations numériques et de mesures expérimentales de conversion de longueur d’onde de signaux 16-QAM à 10 Gbaud et 64-QAM à 5 Gbaud. Cette méthode permet d’améliorer de façon significative les performances du convertisseur de longueur d’onde, et ce, principalement pour les formats de modulation avancés d’ordre supérieur tel que 64-QAM. Finalement, une étude expérimentale exhaustive de la technique de post-compensation des distorsions induites sur le signal converti est effectuée pour des signaux 64-QAM. Les résultats démontrent que, même en présence d’un signal à bruité à l’entrée du convertisseur de longueur d’onde, la technique proposée améliore toujours la qualité du signal reçu. De plus, une étude du point d’opération optimal du convertisseur de longueur d’onde est effectuée et démontre que celui-ci varie en fonction des pertes optiques suivant la conversion de longueur d’onde. Dans un réseau de communication optique à routage en longueur d’onde, le signal est susceptible de passer par plusieurs étages de conversion de longueur d’onde. Pour cette raison, l’efficacité de la technique de post-compensation est démontrée, et ce pour la première fois dans la littérature, pour deux étages successifs de conversion de longueur d’onde de signaux 64-QAM à 5 Gbaud. Les résultats de cette thèse montrent que les convertisseurs de longueur d’ondes basés sur le mélange à quatre ondes dans les amplificateurs optiques à semi-conducteur, utilisés en conjonction avec des techniques de traitement de signal numérique, constituent une technologie extrêmement prometteuse pour les réseaux de communications optiques modernes à routage en longueur d’onde.
Resumo:
La croissance du phytoplancton est limitée par les faibles concentrations de fer (Fe) dans près de 40% de l’océan mondial. Le Pacifique subarctique Nord-Est représente une de ces zones limitées en fer et désignées High Nutrient - Low Chlorophyll (HNLC). Cet écosystème, dominé par des cellules de petite taille telles les prymnésiophytes, est caractérisé par de très faibles concentrations estivales de chlorophylle a et de fortes concentrations de macronutriments. Il a été maintes fois démontré que les ajouts de fer, sous différentes formes chimiques (habituellement FeSO4), dans les zones HNLC, stimulent la croissance et modifient la structure des communautés planctoniques en favorisant la croissance des cellules de grande taille, notamment les diatomées. Ces effets sur la communauté planctonique ont le potentiel d’influencer les grands mécanismes régulateurs du climat, tels la pompe biologique de carbone et la production de diméthylsulfure (DMS). Les poussières provenant des déserts du nord de la Chine sont reconnues depuis longtemps comme une source sporadique importante de fer pour le Pacifique Nord-Est. Malgré leur importance potentielle, l’influence directe exercée par ces poussières sur l’écosystème planctonique de cette zone HNLC n’a jamais été étudiée. Il s’agit d’une lacune importante puisque le fer associé aux poussières est peu soluble dans l’eau de mer, que la proportion biodisponible n’est pas connue et que les poussières peuvent avoir un effet inhibiteur chez le phytoplancton. Cette thèse propose donc, dans un premier temps, de mesurer pour la première fois l’effet de la fertilisation de la communauté planctonique du Pacifique Nord-Est par un gradient de concentrations de poussières désertiques naturelles. Cette première expérimentation a démontré que le fer contenu dans les poussières asiatiques est biodisponible et qu’une déposition équivalente à celles prenant place au printemps dans le Pacifique Nord-Est peut résulter en une stimulation significative de la prise de nutriments et de la croissance du phytoplancton. Mes travaux ont également montré que l’ajout de 0,5 mg L-1 de poussières peut résulter en la production d’autant de biomasse algale que l’ajout de FeSO4, l’espèce chimique utilisée lors des expériences d’enrichissement en fer à grande échelle. Cependant, les ajouts de FeSO4 favorisent davantage les cellules de petite taille que les ajouts de poussières, observation démontrant que le FeSO4 n’est pas un proxy parfait des poussières asiatiques. Dans un deuxième temps, je me suis intéressée à une source alternative de fer atmosphérique, les cendres volcaniques. Mon intérêt pour cette source de fer a été attisé par les observations d’une floraison spectaculaire dans le Pacifique Nord-Est, ma région d’étude, associée à l’éruption de 2008 du volcan Kasatochi dans les îles Aléoutiennes. Forte de mon expérience sur les poussières, j’ai quantifié l’effet direct de ces cendres volcaniques sur la communauté planctonique du Pacifique Nord-Est. Mes résultats ont montré que le fer contenu dans les cendres volcaniques est également biodisponible pour le phytoplancton. Ils ont également montré que cette source de fer peut être aussi importante que les poussières désertiques dans la régulation de la croissance du phytoplancton dans cette partie de l’océan global à l’échelle millénaire. Dans un troisième temps, j’ai estimé comment l’acidification des océans modulera les réponses des communautés planctoniques aux dépositions naturelles de fer mises en évidence lors de mes expériences précédentes. Pour ce faire, j’ai effectué des enrichissements de poussière dans de l’eau de mer au pH actuel de 8.0 et dans l’eau de mer acidifiée à un pH de 7.8. Mes résultats ont montré une diminution du taux de croissance du phytoplancton dans le milieu acidifié mais pas de changement notable dans la structure de la communauté. Les ajouts de poussières et de cendres, de même que les variations de pH, n’ont pas eu d’effet significatif sur la production de DMS et de son précurseur le diméthylsulfoniopropionate (DMSP), probablement en raison de la courte durée (4 jours) des expériences. L’ensemble des résultats de cette thèse montre que le fer contenu dans diverses sources atmosphériques naturelles est biodisponible pour le phytoplancton du Pacifique Nord-Est et que des taux de déposition réalistes peuvent stimuler la croissance de manière notable dans les premiers jours suivant une tempête désertique ou une éruption volcanique. Finalement, les résultats de mes expériences à stresseurs multiples Fer/acidification suggèrent une certaine résistance des communautés phytoplanctoniques à la diminution du pH prédite d’ici la fin du siècle pour les eaux de surface des océans.
Resumo:
Ce mémoire prend pour objet l’étude des vues du Paris moderne par Gustave Caillebotte. Son engagement profond dans la réalité vécue le conduit vers une fascination particulière pour la reproduction de l’image urbaine. Entre 1876 et 1880, l’artiste déambule dans les rues et les boulevards en vue d’exécuter des traitements picturaux originaux et peindre des visions singulières, par rapport à sa propre production artistique de même qu’à celle de ses confrères impressionnistes. En raison des différents points de vue traités dans l’espace urbain, sa perception de la ville semble, à notre avis, évolutive. Que ce soit depuis la rue ou en hauteur, Caillebotte reproduit Paris telle qu’elle se présente devant lui ; c’est ce qui paraît le guider dans sa recherche. Si bien que notre travail consiste à démontrer qu’il est un peintre de la ville moderne. Par l’analyse de trois points de vue privilégiés (dans la rue, à la fenêtre et au balcon), remarqués à la fois dans son corpus et dans sa démarche, cette recherche veut montrer comment l’artiste perçoit l’urbanité moderne et comment il la rend. Nous observons qu’une adéquation entre les moyens plastiques modernes utilisés et l’intérêt de représenter la réalité elle-même moderne, traduit son processus créatif. Apporter des arguments au sujet de son étude des vues de ville, permet aujourd’hui de mieux cerner le travail unique de Gustave Caillebotte dans le paysage urbain.
Resumo:
Au cours des dernières décennies, l’effort sur les applications de capteurs infrarouges a largement progressé dans le monde. Mais, une certaine difficulté demeure, en ce qui concerne le fait que les objets ne sont pas assez clairs ou ne peuvent pas toujours être distingués facilement dans l’image obtenue pour la scène observée. L’amélioration de l’image infrarouge a joué un rôle important dans le développement de technologies de la vision infrarouge de l’ordinateur, le traitement de l’image et les essais non destructifs, etc. Cette thèse traite de la question des techniques d’amélioration de l’image infrarouge en deux aspects, y compris le traitement d’une seule image infrarouge dans le domaine hybride espacefréquence, et la fusion d’images infrarouges et visibles employant la technique du nonsubsampled Contourlet transformer (NSCT). La fusion d’images peut être considérée comme étant la poursuite de l’exploration du modèle d’amélioration de l’image unique infrarouge, alors qu’il combine les images infrarouges et visibles en une seule image pour représenter et améliorer toutes les informations utiles et les caractéristiques des images sources, car une seule image ne pouvait contenir tous les renseignements pertinents ou disponibles en raison de restrictions découlant de tout capteur unique de l’imagerie. Nous examinons et faisons une enquête concernant le développement de techniques d’amélioration d’images infrarouges, et ensuite nous nous consacrons à l’amélioration de l’image unique infrarouge, et nous proposons un schéma d’amélioration de domaine hybride avec une méthode d’évaluation floue de seuil amélioré, qui permet d’obtenir une qualité d’image supérieure et améliore la perception visuelle humaine. Les techniques de fusion d’images infrarouges et visibles sont établies à l’aide de la mise en oeuvre d’une mise en registre précise des images sources acquises par différents capteurs. L’algorithme SURF-RANSAC est appliqué pour la mise en registre tout au long des travaux de recherche, ce qui conduit à des images mises en registre de façon très précise et des bénéfices accrus pour le traitement de fusion. Pour les questions de fusion d’images infrarouges et visibles, une série d’approches avancées et efficaces sont proposés. Une méthode standard de fusion à base de NSCT multi-canal est présente comme référence pour les approches de fusion proposées suivantes. Une approche conjointe de fusion, impliquant l’Adaptive-Gaussian NSCT et la transformée en ondelettes (Wavelet Transform, WT) est propose, ce qui conduit à des résultats de fusion qui sont meilleurs que ceux obtenus avec les méthodes non-adaptatives générales. Une approche de fusion basée sur le NSCT employant la détection comprime (CS, compressed sensing) et de la variation totale (TV) à des coefficients d’échantillons clairsemés et effectuant la reconstruction de coefficients fusionnés de façon précise est proposée, qui obtient de bien meilleurs résultats de fusion par le biais d’une pré-amélioration de l’image infrarouge et en diminuant les informations redondantes des coefficients de fusion. Une procédure de fusion basée sur le NSCT utilisant une technique de détection rapide de rétrécissement itératif comprimé (fast iterative-shrinking compressed sensing, FISCS) est proposée pour compresser les coefficients décomposés et reconstruire les coefficients fusionnés dans le processus de fusion, qui conduit à de meilleurs résultats plus rapidement et d’une manière efficace.
Resumo:
Les Pensées de Marc-Aurèle représentent un véritable chant du cygne pour le concept grec d’amor fati. Dans le sillon initié par la tradition stoïcienne, Marc-Aurèle, en déployant cette idée, ne met ainsi en lumière qu’un concept qui se trouve en filigrane depuis fort longtemps dans la pensée antique. L’amor fati, ou littéralement « l’amour du destin », bénéficie en effet d’un échafaudage logique et conceptuel déjà riche et développé. Or, le christianisme émergeant à l’époque de Marc-Aurèle, par son idéologie à la fois puissante et populaire, a relayé l’amor fati aux oubliettes pour plusieurs siècles. C’est sous la plume de Friedrich Nietzsche, à la fin du XIXe siècle, que l’amor fati connait sa renaissance la plus éloquente. Un changement majeur est toutefois flagrant : l’amor fati nietzschéen est loin, au premier abord, de s’inscrire dans la foulée d’un néostoïcisme. Systématicité d’un côté et aphorisme de l’autre, ordre d’un côté et chaos de l’autre, raison d’un côté et affect de l’autre, ataraxie d’un côté et joie extatique de l’autre : les couples antimoniques s’additionnent et rendent pour le moins suspecte la thèse du partage du même concept. Cette radicale transfiguration opérée par Nietzsche de l’amor fati suggère l’incommensurabilité des paradigmes stoïcien et nietzschéen. Peut-être empruntent-ils simplement les mêmes mots pour signifier une réalité toute différente? Afin de dissiper l’ambiguïté, l’analyse minutieuse de l’amor fati que développent les stoïciens de l’époque impériale (Marc-Aurèle et Épictète en tête de liste) et Friedrich Nietzsche devient nécessaire.
Resumo:
Avec le vieillissement des infrastructures routières au Québec, plusieurs ponts de courte portée devront être reconstruits à neuf au cours des prochaines années. La pratique usuelle est de les concevoir entièrement en béton ou en systèmes mixtes acier-béton. Toutefois, avec l’avancement de la recherche dans le domaine du bois, le système hybride bois-béton est envisageable. Le but est de tirer profit des avantages de chaque matériau en les disposant aux endroits appropriés. Le tablier du pont est constitué d’une dalle de béton qui agit en compression et protège des intempéries les poutres en bois lamellé-collé qui résistent en traction. L’enjeu est la capacité de lier efficacement ces deux matériaux pour qu’ils puissent reprendre les efforts dus aux charges de conception avec un glissement d’interface minimal. De nombreux chercheurs ont proposé diverses méthodes pour répondre à cette problématique. Les connecteurs locaux (vis, clous) sont moins rigides et se déforment beaucoup à l’ultime. À l’inverse, les connecteurs continus offrent une rigidité très élevée, de petits déplacements à rupture sans négliger la plasticité du système. Pour cette raison, le connecteur choisi est le HBV Shear, une mince bande d’acier de 90mm de hauteur perforée de trous de 10mm. Sa moitié inférieure est collée dans une fente pratiquée dans la poutre et la partie supérieure est immergée dans le béton. Pour caractériser le comportement du connecteur, dix essais en cisaillement simple ont été effectués. Ils ont permis de quantifier la rigidité et d’apprécier la ductilité qui s’installe dans le système par l’ajout de l’acier. Par la suite, six poutres hybrides simple de 4 m, deux systèmes à poutres double de 4m et deux poutres hybrides de 12m de portée ont été amenées à la rupture en flexion. Ces essais ont montré que le connecteur se brisait sous l’effort de manière ductile avant la rupture fragile de la poutre en bois. Les résultats ont aussi prouvé que les méthodes de calculs utilisées estiment correctement la séquence de rupture ainsi que le comportement du système avec une très grande efficacité. Finalement, un tablier de pont composite a été conçu pour résister aux efforts à l’ultime, en service et à long terme.
Resumo:
Les lasers à fibre de haute puissance sont maintenant la solution privilégiée pour les applications de découpe industrielle. Le développement de lasers pour ces applications n’est pas simple en raison des contraintes qu’imposent les normes industrielles. La fabrication de lasers fibrés de plus en plus puissants est limitée par l’utilisation d’une fibre de gain avec une petite surface de mode propice aux effets non linéaires, d’où l’intérêt de développer de nouvelles techniques permettant l’atténuation de ceux-ci. Les expériences et simulations effectuées dans ce mémoire montrent que les modèles décrivant le lien entre la puissance laser et les effets non linéaires dans le cadre de l’analyse de fibres passives ne peuvent pas être utilisés pour l’analyse des effets non linéaires dans les lasers de haute puissance, des modèles plus généraux doivent donc développés. Il est montré que le choix de l’architecture laser influence les effets non linéaires. En utilisant l’équation de Schrödinger non linéaire généralisée, il a aussi été possible de montrer que pour une architecture en co-propagation, la diffusion Raman influence l’élargissement spectral. Finalement, les expériences et les simulations effectuées montrent qu’augmenter la réflectivité nominale et largeur de bande du réseau légèrement réfléchissant de la cavité permet d’atténuer la diffusion Raman, notamment en réduisant le gain Raman effectif.