457 resultados para Flot optique


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il y a des indications que les nanocristaux de silicium (nc-Si) présentent un gain optique qui est potentiellement assez grand pour permettre l'amplification optique dans la gamme de longueurs d'ondes où une photoluminescence (PL) intense est mesurée (600- 1000 nm). Afin de fabriquer des cavités optiques, nous avons implantés des morceaux de silice fondue avec des ions de Si pour former une couche de nc-Si d'une épaisseur d'environ 1 μm. Le Si a été implanté à quatre énergies comprises entre 1 MeV et 1,9 MeV de manière à obtenir une concentration atomique de Si en excès variant entre 25% et 30%. Les pièces ont été flanquées de miroirs diélectriques composés de filtres interférentiels multicouches. Sur une plage de longueurs d'ondes d'environ 200 nm de large, un filtre réfléchit près de 100%, alors que l'autre a une réflexion moyenne d'environ 90%. Nous avons mesuré et comparé les spectres de PL de trois échantillons: le premier sans miroir, le second avec des filtres réfléchissant autour de 765 nm (entre 700 nm et 830 nm), et la troisième avec des filtres agissant autour de 875 nm (entre 810 nm et 940 nm). Lorsque les échantillons sont excités avec un laser pulsé à 390 nm, des mesures de photoluminescence résolue dans le temps (PLT) révèlent des taux de décroissance plus rapides en présence de miroirs dans le domaine de longueurs d'onde où ceux-ci agissent comparé aux échantillons sans miroirs. Aussi, l'intensité PL en fonction de la fluence d'excitation montre une augmentation plus rapide de la présence de miroirs, même si celle-ci reste sous-linéaire. Nous concluons que de l'émission stimulée pourrait être présente dans la cavité optique, mais sans dominer les autres mécanismes d'émission et de pertes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse étudie une approche intégrant la gestion de l’horaire et la conception de réseaux de services pour le transport ferroviaire de marchandises. Le transport par rail s’articule autour d’une structure à deux niveaux de consolidation où l’affectation des wagons aux blocs ainsi que des blocs aux services représentent des décisions qui complexifient grandement la gestion des opérations. Dans cette thèse, les deux processus de consolidation ainsi que l’horaire d’exploitation sont étudiés simultanément. La résolution de ce problème permet d’identifier un plan d’exploitation rentable comprenant les politiques de blocage, le routage et l’horaire des trains, de même que l’habillage ainsi que l’affectation du traffic. Afin de décrire les différentes activités ferroviaires au niveau tactique, nous étendons le réseau physique et construisons une structure de réseau espace-temps comprenant trois couches dans lequel la dimension liée au temps prend en considération les impacts temporels sur les opérations. De plus, les opérations relatives aux trains, blocs et wagons sont décrites par différentes couches. Sur la base de cette structure de réseau, nous modélisons ce problème de planification ferroviaire comme un problème de conception de réseaux de services. Le modèle proposé se formule comme un programme mathématique en variables mixtes. Ce dernie r s’avère très difficile à résoudre en raison de la grande taille des instances traitées et de sa complexité intrinsèque. Trois versions sont étudiées : le modèle simplifié (comprenant des services directs uniquement), le modèle complet (comprenant des services directs et multi-arrêts), ainsi qu’un modèle complet à très grande échelle. Plusieurs heuristiques sont développées afin d’obtenir de bonnes solutions en des temps de calcul raisonnables. Premièrement, un cas particulier avec services directs est analysé. En considérant une cara ctéristique spécifique du problème de conception de réseaux de services directs nous développons un nouvel algorithme de recherche avec tabous. Un voisinage par cycles est privilégié à cet effet. Celui-ci est basé sur la distribution du flot circulant sur les blocs selon les cycles issus du réseau résiduel. Un algorithme basé sur l’ajustement de pente est développé pour le modèle complet, et nous proposons une nouvelle méthode, appelée recherche ellipsoidale, permettant d’améliorer davantage la qualité de la solution. La recherche ellipsoidale combine les bonnes solutions admissibles générées par l’algorithme d’ajustement de pente, et regroupe les caractéristiques des bonnes solutions afin de créer un problème élite qui est résolu de facon exacte à l’aide d’un logiciel commercial. L’heuristique tire donc avantage de la vitesse de convergence de l’algorithme d’ajustement de pente et de la qualité de solution de la recherche ellipsoidale. Les tests numériques illustrent l’efficacité de l’heuristique proposée. En outre, l’algorithme représente une alternative intéressante afin de résoudre le problème simplifié. Enfin, nous étudions le modèle complet à très grande échelle. Une heuristique hybride est développée en intégrant les idées de l’algorithme précédemment décrit et la génération de colonnes. Nous proposons une nouvelle procédure d’ajustement de pente où, par rapport à l’ancienne, seule l’approximation des couts liés aux services est considérée. La nouvelle approche d’ajustement de pente sépare ainsi les décisions associées aux blocs et aux services afin de fournir une décomposition naturelle du problème. Les résultats numériques obtenus montrent que l’algorithme est en mesure d’identifier des solutions de qualité dans un contexte visant la résolution d’instances réelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les réseaux optiques à commutation de rafales (OBS) sont des candidats pour jouer un rôle important dans le cadre des réseaux optiques de nouvelle génération. Dans cette thèse, nous nous intéressons au routage adaptatif et au provisionnement de la qualité de service dans ce type de réseaux. Dans une première partie de la thèse, nous nous intéressons à la capacité du routage multi-chemins et du routage alternatif (par déflection) à améliorer les performances des réseaux OBS, pro-activement pour le premier et ré-activement pour le second. Dans ce contexte, nous proposons une approche basée sur l’apprentissage par renforcement où des agents placés dans tous les nœuds du réseau coopèrent pour apprendre, continuellement, les chemins du routage et les chemins alternatifs optimaux selon l’état actuel du réseau. Les résultats numériques montrent que cette approche améliore les performances des réseaux OBS comparativement aux solutions proposées dans la littérature. Dans la deuxième partie de cette thèse, nous nous intéressons au provisionnement absolu de la qualité de service où les performances pire-cas des classes de trafic de priorité élevée sont garanties quantitativement. Plus spécifiquement, notre objectif est de garantir la transmission sans pertes des rafales de priorité élevée à l’intérieur du réseau OBS tout en préservant le multiplexage statistique et l’utilisation efficace des ressources qui caractérisent les réseaux OBS. Aussi, nous considérons l’amélioration des performances du trafic best effort. Ainsi, nous proposons deux approches : une approche basée sur les nœuds et une approche basée sur les chemins. Dans l’approche basée sur les nœuds, un ensemble de longueurs d’onde est assigné à chaque nœud du bord du réseau OBS pour qu’il puisse envoyer son trafic garanti. Cette assignation prend en considération les distances physiques entre les nœuds du bord. En outre, nous proposons un algorithme de sélection des longueurs d’onde pour améliorer les performances des rafales best effort. Dans l’approche basée sur les chemins, le provisionnement absolu de la qualité de service est fourni au niveau des chemins entre les nœuds du bord du réseau OBS. À cette fin, nous proposons une approche de routage et d’assignation des longueurs d’onde qui a pour but la réduction du nombre requis de longueurs d’onde pour établir des chemins sans contentions. Néanmoins, si cet objectif ne peut pas être atteint à cause du nombre limité de longueurs d’onde, nous proposons de synchroniser les chemins en conflit sans le besoin pour des équipements additionnels. Là aussi, nous proposons un algorithme de sélection des longueurs d’onde pour les rafales best effort. Les résultats numériques montrent que l’approche basée sur les nœuds et l’approche basée sur les chemins fournissent le provisionnement absolu de la qualité de service pour le trafic garanti et améliorent les performances du trafic best effort. En outre, quand le nombre de longueurs d’ondes est suffisant, l’approche basée sur les chemins peut accommoder plus de trafic garanti et améliorer les performances du trafic best effort par rapport à l’approche basée sur les nœuds.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce travail a permis de démontrer que l’électrofilage, ainsi que l’électronébulisation, sont des méthodes faciles et efficaces de préparation de complexes entre des polymères et des petites molécules. En effet, la plupart des méthodes de préparation de complexes donnent des mélanges inhomogènes à cause de la cristallisation cinétiquement favorisée des petites molécules. Or, un mélange inhomogène peut être très difficile à caractériser. Dans ce travail, l’électrofilage a été utilisé pour la première fois avec succès pour obtenir des nanofils de complexe entre le poly(oxyde d’éthylène) (PEO) et le NaSCN (PEO-NaSCN) ainsi qu’entre le PEO et l’hydroquinone. L’électronébulisation a été utilisée pour obtenir du complexe entre la polycaprolactone (PCL) et l’urée. L’électrofilage n’était pas possible pour le système PCL-urée parce que la solubilité n’était pas suffisante pour atteindre la viscosité minimale requise pour l’électrofilage. L’électronébulisation peut donc complémenter l’électrofilage et rendre la technique applicable à encore plus de systèmes. Les systèmes ont été caractérisés par spectroscopie infrarouge (FT-IR), par diffraction de rayons X (XRD), par calorimétrie différentielle à balayage (DSC) et par microscopies optique et électronique à balayage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le réseau de distribution aérien, ou plus simplement le réseau de poteaux de bois et ses câbles, est encore aujourd’hui omniprésent dans la majorité des villes du Québec. Pour plusieurs, le réseau de poteaux d’utilité publique semble appartenir à une autre époque. Pourtant, les poteaux et câbles ne sont pas près de disparaître, au contraire, ils ne cessent de se transformer. Depuis peu, de plus en plus d’équipements s’ajoutent sur le réseau: boîtiers techniques, nombre de câbles, appareillages au sommet des poteaux, antennes de communication, etc. Bien que les équipements du réseau de distribution aérien soient des éléments produits industriellement, ceux-ci intègrent rarement les services du design industriel au moment de leur conception initiale. Cette recherche étudie le système de distribution aérien sous l’angle de la « pensée design ». L’intention de cette étude est d’analyser les impacts de la présence du réseau aérien en milieux urbains et a pour objectif d’orienter les pratiques de conception de ce type d’équipements. Pour ce faire, dans une optique transdisciplinaire, diverses approches ont été sollicitées dont: l’approche systémique, l’approche paysage et les approches des partenaires des réseaux. Au moyen d’une recherche documentaire et d’observations faites sur le terrain, la recherche vise à dresser un portrait général du réseau de distribution aérien et les défis qui y sont associés. La recherche expose, dans un état des lieux, les résultats issus des questions analytiques de recherche suivantes: de quoi est composé le réseau de distribution aérien, quels sont les intervenants sur le réseau, quelles sont leurs interactions, quels sont les points de vue des différentes catégories d’acteurs en relation avec le réseau, quels sont les impacts reliés à la présence du réseau en milieux urbains et quelle a été son évolution au fil des années. Dans la perspective de l’approche design, chercher à comprendre une problématique de façon plus large permet de s’assurer que l’on répond au bon problème, que l’on considère tous les facteurs en cause visant ainsi à réduire les répercussions négatives sur les contextes de vie actuels et futurs. Les principaux constats de cette recherche démontrent que la composition du réseau de distribution, avant même de considérer les nouveaux usages et l’ajout de nouveaux équipements, présente des lacunes importantes. La gestion entre les divers partenaires du réseau de distribution pose aussi problème. L’ajout de nouveaux équipements sur le réseau, combiné aux multiples équipements apparaissant sur les voies publiques laisse entrevoir l’atteinte d’un niveau de saturation des milieux urbains. Les façons de faire hermétiques et «cristallisées» des partenaires du réseau ne collent pas avec les initiatives et aspirations générales en matière d’aménagement. En étudiant la problématique du réseau de distribution par le biais de la pensée design, l’approche design cherche à déceler, de façon proactive, les opportunités de design qui permettront de mieux gérer l’apparition et l’intégration des nouveaux équipements sur les poteaux. Cette démarche permet d’envisager des solutions qui visent à limiter les répercussions collatérales une fois en contexte et qui, du même coup, adressent des problématiques connexes. Finalement, à la lumière de l’état des lieux, cette recherche propose des critères de conception de futurs réseaux de distribution, élaborés dans l’esprit de l’approche design.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le poly(1,3-dioxolanne) (PDOL) est un polymère semi-cristallin présentant à l’état solide quatre morphologies différentes (Phases I, IIa, IIb et III). Les transformations d'une phase à l'autre ont été suivies par microscopie optique polarisée (MOP) et microscopie à force atomique (AFM) en fonction de la température de cristallisation et de la masse molaire. La Phase I présente une morphologie sphérolitique tandis que la Phase IIa peut croître à partir de la Phase I ou spontanément. De façon inattendue, la Phase IIa, devient très biréfringente et cette nouvelle morphologie est appelée Phase IIb. Quand la transformation IIa-IIb est terminée, une nouvelle phase, la Phase III, croît à partir de la Phase IIb. La Phase III n'a jamais été observée sans la présence de Phase IIb; en outre, la Phase IIb remplace toujours la Phase IIa. Ce phénomène est appelé germination croisée. La mesure de la température de fusion des phases par MOP a permis d’établir leur stabilité relative: IIb > III >IIa. La vitesse de croissance (G) des sphérolites a été mesurée sur une plage de températures de 10,0 à 24,0 °C et montre une grande dépendance avec la masse molaire. Ces mesures ont révélé l’existence d’une masse molaire critique, autour de 5000 g.mol-1, en-dessous de laquelle nous avons observé GIIa > GIII et au-dessus de laquelle la relation est inversée avec GIII > GIIa. Finalement, nous avons exploré l’influence de l’ajout d’un deuxième polymère amorphe sur l’évolution des phases optiques dans des mélanges PDOL-PMMA, PDOL-PVC et PDOL-PVAc. Nous avons observé les mêmes transitions de phases que pour le PDOL pur et un certain degré de compatibilité dans le cas du PDOL-PMMA et du PDOL-PVC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La réforme et l’harmonisation du droit des sûretés mobilières sont à l’ordre du jour de plusieurs organisations internationales, car il est admis qu’un régime de sûretés efficient favorise l’accès au crédit à de faibles coûts. L’harmonisation de ce droit comporte deux volets. D’une part, dans l’Occident industrialisé, les efforts d’harmonisation vont de la réforme des droits internes à l’établissement de régimes spéciaux relativement à des biens spécifiques (principalement les biens mobiles de grande valeur, tels les aéronefs, le matériel ferroviaire roulant et les satellites, et les biens incorporels, comprenant les créances, valeurs mobilières, actifs financiers et titres intermédiés). Ces efforts d’harmonisation démontrent que d’un point de vue systémique, malgré quelques différences notables, les régimes nord-américains et européens sont fondés sur des principes similaires et atteignent des résultats comparables. En résulte l’émergence d’un ordre juridique transnational en droit des sûretés mobilières, fondé sur les principes de la primauté de l’individu et la reconnaissance du droit de propriété de l’individu dans ses biens, mis en œuvre grâce à l’État de droit. D’autre part, les institutions financières internationales encouragent l’établissement de régimes de sûretés dans les pays en voie de développement qui obéissent aux mêmes critères que ceux de l’Occident, en insistant sur les réformes institutionnelles et juridiques visant l’établissement d’une bonne gouvernance et l’État de droit. Cependant, une transposition des régimes occidentaux ne peut se faire sans heurts dans les pays en voie de développement, notamment pour des raisons socio-culturelles et politiques. Lorsque les principes de la primauté de l’individu, de la propriété individuelle et de l’État de droit ne sont pas reconnus dans un pays donné, la réforme et l’harmonisation du droit des sûretés s’en trouvent compromis. La démonstration de l’état d’avancement de la réforme et de l’harmonisation du droit des sûretés dans les pays occidentaux industrialisés est faite grâce à une comparaison du Uniform Commercial Code, du Code civil du Québec, des Personal Property Security Acts des provinces canadiennes de common law, des principes des droits français et anglais, de l’influence du droit communautaire sur les pays membres de l’Union Européenne. Sont analysés, aussi, dans cette optique, les principaux instruments de l’harmonisation du droit émanant des organisations internationales. Par ailleurs, deux études de cas relatifs à la réforme du crédit foncier en Égypte et à la réforme de l’urbanisme et de l’habitat en République démocratique du Congo, viennent étayer les difficultés que rencontrent les institutions internationales, telles la Banque mondiale et l’ACDI, dans le cadre de projets de réformes visant la bonne gouvernance et l’instauration d’un véritable État de droit, en partie à cause d’un pluralisme des ordres juridiques de ces pays.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

David Hull et Philip Kitcher présentent tous deux une description des sciences qui tient compte autant de l'articulation logique des théories que de leur dynamique sociale. Hull (1988a, 2001) tente de rendre compte du progrès scientifique par le biais d'une analyse sélectionniste, en s'appuyant sur les contingences sociales et les biais individuels en tant que pressions de sélections. Pour lui, un processus de sélection darwinien filtre les théories supérieures des théories inadéquates. Kitcher (1993) présente plutôt le progrès scientifique comme un changement de consensus résultant de processus sociaux et psychologiques qui mènent de manière fiable à la vérité. Les théories sont ainsi filtrées par une dynamique sociale qui sélectionne les théories selon la qualité de leur articulation logique. Kitcher (1988) exprime un doute à l'idée qu'un processus de sélection darwinien du type suggéré par Hull puisse ajouter quoi que ce soit à une explication du processus d'avancement des sciences. Ce mémoire tentera d'établir si cette critique de Kitcher est fondée. Dans cette optique, une analyse détaillée de l’approche de Hull sera nécessaire afin d’examiner comment il justifie le lien qu’il établit entre la pratique scientifique et un processus de sélection. Un contraste sera ensuite fait avec l’approche de Kitcher pour tester la force et la nécessité de ce lien et pour expliquer le désaccord de Kitcher. Cette analyse comparative permettra de préciser les avantages et les désavantages uniques à chacune des approches pour déterminer si une analyse sélectionniste est plus prometteuse qu’une analyse non-sélectionniste pour rendre compte du progrès scientifique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La spectroscopie Raman est un outil non destructif fort utile lors de la caractérisation de matériau. Cette technique consiste essentiellement à faire l’analyse de la diffusion inélastique de lumière par un matériau. Les performances d’un système de spectroscopie Raman proviennent en majeure partie de deux filtres ; l’un pour purifier la raie incidente (habituellement un laser) et l’autre pour atténuer la raie élastique du faisceau de signal. En spectroscopie Raman résonante (SRR), l’énergie (la longueur d’onde) d’excitation est accordée de façon à être voisine d’une transition électronique permise dans le matériau à l’étude. La section efficace d’un processus Raman peut alors être augmentée d’un facteur allant jusqu’à 106. La technologie actuelle est limitée au niveau des filtres accordables en longueur d’onde. La SRR est donc une technique complexe et pour l’instant fastidieuse à mettre en œuvre. Ce mémoire présente la conception et la construction d’un système de spectroscopie Raman accordable en longueur d’onde basé sur des filtres à réseaux de Bragg en volume. Ce système vise une utilisation dans le proche infrarouge afin d’étudier les résonances de nanotubes de carbone. Les étapes menant à la mise en fonction du système sont décrites. Elles couvrent les aspects de conceptualisation, de fabrication, de caractérisation ainsi que de l’optimisation du système. Ce projet fut réalisé en étroite collaboration avec une petite entreprise d’ici, Photon etc. De cette coopération sont nés les filtres accordables permettant avec facilité de changer la longueur d’onde d’excitation. Ces filtres ont été combinés à un laser titane : saphir accordable de 700 à 1100 nm, à un microscope «maison» ainsi qu’à un système de détection utilisant une caméra CCD et un spectromètre à réseau. Sont d’abord présentés les aspects théoriques entourant la SRR. Par la suite, les nanotubes de carbone (NTC) sont décrits et utilisés pour montrer la pertinence d’une telle technique. Ensuite, le principe de fonctionnement des filtres est décrit pour être suivi de l’article où sont parus les principaux résultats de ce travail. On y trouvera entre autres la caractérisation optique des filtres. Les limites de basses fréquences du système sont démontrées en effectuant des mesures sur un échantillon de soufre dont la raie à 27 cm-1 est clairement résolue. La simplicité d’accordabilité est quant à elle démontrée par l’utilisation d’un échantillon de NTC en poudre. En variant la longueur d’onde (l’énergie d’excitation), différentes chiralités sont observées et par le fait même, différentes raies sont présentes dans les spectres. Finalement, des précisions sur l’alignement, l’optimisation et l’opération du système sont décrites. La faible acceptance angulaire est l’inconvénient majeur de l’utilisation de ce type de filtre. Elle se répercute en problème d’atténuation ce qui est critique plus particulièrement pour le filtre coupe-bande. Des améliorations possibles face à cette limitation sont étudiées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le CD40 ligand (CD40L) est une molécule inflammatoire appartenant à la famille du Facteur de Nécrose Tumorale ("Tumor Necrosis Factor", TNF), originalement identifié au niveau des cellules immunitaires. L’interaction du CD40L avec son récepteur de haute affinité présent sur les cellules B, le CD40, est d’une importance cruciale à la production d’immunoglobulines lors de la réponse immunitaire. Aujourd’hui, nous savons que ces deux molécules qui constituent l’axe CD40/CD40L sont aussi exprimées au niveau des cellules du système vasculaire et occupent une place importante dans une variété de réactions inflammatoires, de sorte que le CD40L est présentement reconnu comme une molécule thrombo-inflammatoire prédictive des évènements cardiovasculaires. Les plaquettes sont la principale source du CD40L soluble ("soluble CD40L", sCD40L) plasmatique et il fut démontré être impliqué dans l’activation plaquettaire, malgré que son impact exact sur la fonction plaquettaire et les mécanismes sous-jacents demeurent inconnus. Ainsi, le but de ce projet était de déterminer l’impact du sCD40L sur la fonction plaquettaire et d’élucider les mécanismes cellulaires et moléculaires sous-jacents. Les objectifs spécifiques étaient : 1) d’évaluer l’impact du sCD40L sur l’activation et l’agrégation plaquettaire in vitro; 2) de déterminer le récepteur cible (CD40 ou autre) impliqué dans ces effets; 3) de décortiquer les voies signalétiques intracellulaires et moléculaires induites par le sCD40L, impliquant la participation potentielle de la famille du facteur associé du récepteur du TNF ("Tumor Necrosis Factor Receptor Associated Factor", TRAF) et 4) d’analyser l’effet du sCD40L sur la formation du thrombus in vivo. Le sCD40L augmente fortement l’activation et l’agrégation plaquettaire induite par de faibles doses d’agonistes. Les plaquettes humaines traitées avec une forme mutante du sCD40L qui n’interagit pas avec le CD40 et les plaquettes de souris CD40 déficientes (CD40-/-) ne furent pas en mesure d’induire ces effets. De plus, nous démontrons la présence de plusieurs membres de la famille des TRAFs dans les plaquettes, parmi lesquels seulement TRAF-2 interagit avec le CD40 suite à la stimulation par le sCD40L. Le sCD40L agit sur les plaquettes au repos par l’entremise de la protéine Rac1 et de sa cible en aval, soit la protéine kinase activatrice du mitogène p38 ("Mitogen Activating Protein Kinase", MAPK). Ceci mène ultimement au changement de forme plaquettaire et à la polymérisation de l’actine. Par ailleurs, il est intéressant de noter que les souris CD40-/- démontrent un défaut significatif de l’agrégation plaquettaire en réponse au collagène, ce qui souligne l’importance du CD40 dans les interactions plaquettes-plaquettes. Dans un deuxième temps, le sCD40L amplifie l’agrégation plaquettaire en sang complet, accélère les temps de thrombose in vitro mesurés à l’aide du système PFA-100 et augmente l’adhésion plaquettaire au collagène sous condition de flux, le tout par l’entremise du CD40. Finalement, dans un modèle de thrombose artérielle murin, l’infusion du sCD40L exacerbe la formation du thrombus chez les souris du type sauvage ("Wild Type", WT), mais non chez les souris CD40-/-. Ceci fut en plus associé à une augmentation significative du nombre de leucocytes au sein du thrombus des souris WT traitées à l’aide du sCD40L, tel que démontré par marquage immuno-histologique anti-CD45 et par quantification des coupes artérielles par microscopie optique. En résumé, ce projet identifie une nouvelle voie signalétique, TRAF-2/Rac1/p38 MAPK, en réponse au sCD40L et démontre ses effets sur l’activation et l’agrégation plaquettaire. De manière encore plus importante, nous démontrons pour la première fois la présence d’une corrélation positive entre les niveaux circulants du sCD40L et la thrombose artérielle, tout en soulignant l’importance du CD40 dans ce processus. Ainsi, le sCD40L constitue un activateur important des plaquettes, les prédisposant à une thrombose exacerbée en réponse au dommage vasculaire. Ces résultats peuvent expliquer le lien étroit qui existe entre les niveaux circulants du sCD40L et l’incidence des maladies cardiovasculaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les matériaux conjugués ont fait l’objet de beaucoup de recherches durant les dernières années. Les nouveaux matériaux présentent des propriétés intéressantes que ce soit au niveau optique, électrique, mécanique ou même les trois en même temps. La synthèse reste la difficulté principale dans la fabrication de dispositifs électroniques. Les méthodes utilisées pour y parvenir sont l’électropolymérisation, le couplage de Suzuki ou de Wittig. Ces techniques comportent encore de nombreuses contraintes et s’avèrent difficilement réalisables à grande échelle. Les thiophènes, les pyrroles et les furanes ont démontré une bonne conductibilité et une bande de conduction basse due à une conjugaison accrue. L’objectif ici est de synthétiser des oligomères principalement composés de thiophènes dans le but d’en caractériser les propriétés spectroscopiques, électrochimiques et de conduction. La synthèse est souvent l’étape délicate de la fabrication de matériaux conjugués. Nous présentons ici une méthode de synthèse simple par modules avec des unités hétérocycliques. Les modules complémentaires sont attachés par condensation entre un aldéhyde et une amine menant à la formation d’un lien robuste, l’azomethine. Les résultats des propriétés photophysiques et électrochimiques de ces matériaux conjugués seront présentés. En ayant recours à différents groupes électrodonneurs et électroaccepteurs, en variant le degré de conjugaison ou en utilisant différents hétérocycles, les propriétés spectroscopiques, électrochimiques et de bande de conduction peuvent être adaptées à volonté, ce qui en fait des matériaux aux propriétés modelables. Ces nouvelles molécules seront analysées pour en déceler les propriétés recherchées dans la fabrication d’OLED. Nous explorerons les domaines de l’oxidation electrochimique réversible et de la polymérisation menant à la fabrication de quelques prototypes simples.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La débitmétrie au laser à effet Doppler (LDF) constitue une méthode prometteuse et non-invasive pour l'étude du débit sanguin local dans l'œil. Cette technique est basée sur un changement de fréquence subi par la lumière lors du mouvement des globules rouges dans les vaisseaux. Une nouvelle sonde LDF a été testée pour sa sensibilité à évaluer la circulation rétinienne/choroïdienne sous des conditions hypercapniques et en présence de diverses substances vasoactives ou suivant la photocoagulation des artères rétiniennes chez le rat. Après dilatation pupillaire, la sonde LDF a été placée en contact avec la cornée de rats anesthésiés et parallèle à l'axe optique. L'hypercapnie a été provoquée par inhalation de CO2 (8% dans de l'air médical), alors que les agents pharmacologiques ont été injectés de façon intravitréenne. La contribution relative à la circulation choroïdienne a été évaluée à la suite de la photocoagulation des artères rétiniennes. Le débit sanguin s'est trouvé significativement augmenté à la suite de l'hypercanie (19%), de l'adénosine (14%) ou du nitroprusside de sodium (16%) comparativement au niveau de base, alors que l'endothéline-1 a provoqué une baisse du débit sanguin (11%). La photocoagulation des artères rétiniennes a significativement diminué le débit sanguin (33%). Des mesures en conditions pathologiques ont ensuite été obtenues après l'injection intravitréenne d'un agoniste sélectif du récepteur B1 (RB1). Ce récepteur des kinines est surexprimé dans la rétine des rats rendus diabétiques avec la streptozotocine (STZ) en réponse à l'hyperglycémie et au stress oxydatif. Les résultats ont montré que le RB1 est surexprimé dans la rétine chez les rats diabétiques-STZ à 4 jours et 6 semaines. À ces moments, le débit sanguin rétinien/choroïdien a été significativement augmenté (15 et 18 %) après l'injection de l'agoniste, suggérant un effet vasodilatateur des RB1 dans l'œil diabétique. Bien que la circulation choroïdienne contribue probablement au signal LDF, les résultats démontrent que le LDF représente une technique efficace et non-invasive pour l'étude de la microcirculation rétinienne in-vivo en continu. Cette méthode peut donc être utilisée pour évaluer de façon répétée les réponses du débit sanguin pendant des modifications métaboliques ou pharmacologiques dans des modèles animaux de maladies oculaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le développement du système nerveux central (SNC) chez les vertébrés est un processus d'une extrême complexité qui nécessite une orchestration moléculaire très précise. Certains gènes exprimés très tôt lors du développement embryonnaire sont d'une importance capitale pour la formation du SNC. Parmi ces gènes, on retrouve le facteur de transcription à Lim homéodomaine Lhx2. Les embryons de souris mutants pour Lhx2 (Lhx2-/-) souffre d'une hypoplasie du cortex cérébral, sont anophtalmiques et ont un foie de volume réduit. Ces embryons mutants meurent in utero au jour embryonnaire 16 (e16) dû à une déficience en érythrocytes matures. L'objectif principal de cette thèse est de caractériser le rôle moléculaire de Lhx2 dans le développement des yeux et du cortex cérébral. Lhx2 fait partie des facteurs de transcription à homéodomaine exprimé dans la portion antérieure de la plaque neurale avec Rx, Pax6, Six3. Le développement de l'oeil débute par une évagination bilatérale de cette région. Nous démontrons que l'expression de Lhx2 est cruciale pour les premières étapes de la formation de l'oeil. En effet, en absence de Lhx2, l'expression de Rx, Six3 et Pax6 est retardée dans la plaque neurale antérieure. Au stade de la formation de la vésicule optique, l'absence de Lhx2 empêche l'activation de Six6 (un facteur de transcription également essentiel au développement de l'œil). Nous démontrons que Lhx2 et Pax6 coopèrent en s'associant au promoteur de Six6 afin de promouvoir sa trans-activation. Donc, Lhx2 est un gène essentiel pour la détermination de l'identité rétinienne au niveau de la plaque neurale. Plus tard, il collabore avec Pax6 pour établir l'identité rétinienne définitive et promouvoir la prolifération cellulaire. De plus, Lhx2 est fortement exprimé dans le télencéphale, région qui donnera naissance au cortex cérébral. L'absence de Lhx2 entraîne une diminution de la prolifération des cellules progénitrices neurales dans cette région à e12.5. Nous démontrons qu'en absence de Lhx2, les cellules progénitrices neurales (cellules de glie radiale) se différencient prématurément en cellules progénitrices intermédiaires et en neurones post-mitotiques. Ces phénotypes sont corrélés à une baisse d'activité de la voie Notch. En absence de Lhx2, DNER (un ligand atypique de la voie Notch) est fortement surexprimé dans le télencéphale. De plus, Lhx2 et des co-répresseurs s'associent à la chromatine de la région promotrice de DNER. Nous concluons que Lhx2 permet l'activation de la voie Notch dans le cortex cérébral en développement en inhibant la transcription de DNER, qui est un inhibiteur de la voie Notch dans ce contexte particulier. Lhx2 permet ainsi la maintenance et la prolifération des cellules progénitrices neurales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec les nouvelles technologies des réseaux optiques, une quantité de données de plus en plus grande peut être transportée par une seule longueur d'onde. Cette quantité peut atteindre jusqu’à 40 gigabits par seconde (Gbps). Les flots de données individuels quant à eux demandent beaucoup moins de bande passante. Le groupage de trafic est une technique qui permet l'utilisation efficace de la bande passante offerte par une longueur d'onde. Elle consiste à assembler plusieurs flots de données de bas débit en une seule entité de données qui peut être transporté sur une longueur d'onde. La technique demultiplexage en longueurs d'onde (Wavelength Division Multiplexing WDM) permet de transporter plusieurs longueurs d'onde sur une même fibre. L'utilisation des deux techniques : WDM et groupage de trafic, permet de transporter une quantité de données de l'ordre de terabits par seconde (Tbps) sur une même fibre optique. La protection du trafic dans les réseaux optiques devient alors une opération très vitale pour ces réseaux, puisqu'une seule panne peut perturber des milliers d'utilisateurs et engendre des pertes importantes jusqu'à plusieurs millions de dollars à l'opérateur et aux utilisateurs du réseau. La technique de protection consiste à réserver une capacité supplémentaire pour acheminer le trafic en cas de panne dans le réseau. Cette thèse porte sur l'étude des techniques de groupage et de protection du trafic en utilisant les p-cycles dans les réseaux optiques dans un contexte de trafic dynamique. La majorité des travaux existants considère un trafic statique où l'état du réseau ainsi que le trafic sont donnés au début et ne changent pas. En plus, la majorité de ces travaux utilise des heuristiques ou des méthodes ayant de la difficulté à résoudre des instances de grande taille. Dans le contexte de trafic dynamique, deux difficultés majeures s'ajoutent aux problèmes étudiés, à cause du changement continuel du trafic dans le réseau. La première est due au fait que la solution proposée à la période précédente, même si elle est optimisée, n'est plus nécessairement optimisée ou optimale pour la période courante, une nouvelle optimisation de la solution au problème est alors nécessaire. La deuxième difficulté est due au fait que la résolution du problème pour une période donnée est différente de sa résolution pour la période initiale à cause des connexions en cours dans le réseau qui ne doivent pas être trop dérangées à chaque période de temps. L'étude faite sur la technique de groupage de trafic dans un contexte de trafic dynamique consiste à proposer différents scénarios pour composer avec ce type de trafic, avec comme objectif la maximisation de la bande passante des connexions acceptées à chaque période de temps. Des formulations mathématiques des différents scénarios considérés pour le problème de groupage sont proposées. Les travaux que nous avons réalisés sur le problème de la protection considèrent deux types de p-cycles, ceux protégeant les liens (p-cycles de base) et les FIPP p-cycles (p-cycles protégeant les chemins). Ces travaux ont consisté d’abord en la proposition de différents scénarios pour gérer les p-cycles de protection dans un contexte de trafic dynamique. Ensuite, une étude sur la stabilité des p-cycles dans un contexte de trafic dynamique a été faite. Des formulations de différents scénarios ont été proposées et les méthodes de résolution utilisées permettent d’aborder des problèmes de plus grande taille que ceux présentés dans la littérature. Nous nous appuyons sur la méthode de génération de colonnes pour énumérer implicitement les cycles les plus prometteurs. Dans l'étude des p-cycles protégeant les chemins ou FIPP p-cycles, nous avons proposé des formulations pour le problème maître et le problème auxiliaire. Nous avons utilisé une méthode de décomposition hiérarchique du problème qui nous permet d'obtenir de meilleurs résultats dans un temps raisonnable. Comme pour les p-cycles de base, nous avons étudié la stabilité des FIPP p-cycles dans un contexte de trafic dynamique. Les travaux montrent que dépendamment du critère d'optimisation, les p-cycles de base (protégeant les liens) et les FIPP p-cycles (protégeant les chemins) peuvent être très stables.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse examine en profondeur la nature et l’application du concept de genre en jeu vidéo. Elle se divise en trois parties. La première fait l’inventaire des théories des genres en littérature et en études cinématographiques. Les propriétés essentielles du genre comme concept sont identifiées : il s’agit d’une catégorisation intuitive et irraisonnée, de nature discursive, qui découle d’un consensus culturel commun plutôt que de systèmes théoriques, et qui repose sur les notions de tradition, d’innovation et d’hybridité. Dans la deuxième partie, ces constats sont appliqués au cas du genre vidéoludique. Quelques typologies sont décortiquées pour montrer l’impossibilité d’une classification autoritaire. Un modèle du développement des genres est avancé, lequel s’appuie sur trois modalités : l’imitation, la réitération et l’innovation. Par l’examen de l’histoire du genre du first-person shooter, la conception traditionnelle du genre vidéoludique basée sur des mécanismes formels est remplacée par une nouvelle définition centrée sur l’expérience du joueur. La troisième partie développe l’expérience comme concept théorique et la place au centre d’une nouvelle conception du genre, la pragmatique des effets génériques. Dans cette optique, tout objet est une suite d’amorces génériques, d’effets en puissance qui peuvent se réaliser pourvu que le joueur dispose des compétences génériques nécessaires pour les reconnaître. Cette nouvelle approche est démontrée à travers une étude approfondie d’un genre vidéoludique : le survival horror. Cette étude de cas témoigne de l’applicabilité plus large de la pragmatique des effets génériques, et de la récursivité des questions de genre entre le jeu vidéo, la littérature et le cinéma.