8 resultados para Flows on surfaces

em Université de Montréal, Canada


Relevância:

80.00% 80.00%

Publicador:

Resumo:

La visée de ce mémoire est d’expliquer les récents changements des lois sur l’immigration et l’asile. À prime abord, le moment de ces changements suggère une influence des attentats du 11 septembre 2001. La littérature avance toutefois que ces changements dateraient plutôt de la fin de la Guerre froide. Nous avons donc vérifié deux hypothèses, la première étant que les changements législatifs découlent de l’évolution des flux migratoires, et la seconde voulant qu’ils résultent d’une « connexion sécurité‐migration ». Nous avons d’abord eu recours aux écrits sur les changements institutionnels et les politiques d’immigration et d’asile et sur la constitution des migrations comme enjeu sécuritaire. Ensuite, nous avons étudié le contenu des lois sur l’immigration et l’asile de pays membres de l’OCDE de 1989 à 2008. Deux typologies ont été construites pour évaluer l’effet des flux migratoires sur lesdits changements législatifs. Enfin, une analyse lexicométrique nous a permis d’évaluer le poids des enjeux sécuritaires dans les lois sur l’immigration et l’asile depuis 1989. Nous avons noté l’absence de corrélation entre changements législatifs et flux migratoires mais la présence d’un lien entre ces changements et la « connexion sécurité‐migration ». Le rôle joué par le 11 septembre et d’autres attaques terroristes a été vérifié pour les États‐Unis, le Royaume‐Uni et l’Union européenne. Ce mémoire démontre ainsi la mutation des lois sur l’immigration et l’asile qui sont passées du statut de « régulateur des migrations internationales » à celui de « garant de la sécurité nationale ».

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette thèse étudie une approche intégrant la gestion de l’horaire et la conception de réseaux de services pour le transport ferroviaire de marchandises. Le transport par rail s’articule autour d’une structure à deux niveaux de consolidation où l’affectation des wagons aux blocs ainsi que des blocs aux services représentent des décisions qui complexifient grandement la gestion des opérations. Dans cette thèse, les deux processus de consolidation ainsi que l’horaire d’exploitation sont étudiés simultanément. La résolution de ce problème permet d’identifier un plan d’exploitation rentable comprenant les politiques de blocage, le routage et l’horaire des trains, de même que l’habillage ainsi que l’affectation du traffic. Afin de décrire les différentes activités ferroviaires au niveau tactique, nous étendons le réseau physique et construisons une structure de réseau espace-temps comprenant trois couches dans lequel la dimension liée au temps prend en considération les impacts temporels sur les opérations. De plus, les opérations relatives aux trains, blocs et wagons sont décrites par différentes couches. Sur la base de cette structure de réseau, nous modélisons ce problème de planification ferroviaire comme un problème de conception de réseaux de services. Le modèle proposé se formule comme un programme mathématique en variables mixtes. Ce dernie r s’avère très difficile à résoudre en raison de la grande taille des instances traitées et de sa complexité intrinsèque. Trois versions sont étudiées : le modèle simplifié (comprenant des services directs uniquement), le modèle complet (comprenant des services directs et multi-arrêts), ainsi qu’un modèle complet à très grande échelle. Plusieurs heuristiques sont développées afin d’obtenir de bonnes solutions en des temps de calcul raisonnables. Premièrement, un cas particulier avec services directs est analysé. En considérant une cara ctéristique spécifique du problème de conception de réseaux de services directs nous développons un nouvel algorithme de recherche avec tabous. Un voisinage par cycles est privilégié à cet effet. Celui-ci est basé sur la distribution du flot circulant sur les blocs selon les cycles issus du réseau résiduel. Un algorithme basé sur l’ajustement de pente est développé pour le modèle complet, et nous proposons une nouvelle méthode, appelée recherche ellipsoidale, permettant d’améliorer davantage la qualité de la solution. La recherche ellipsoidale combine les bonnes solutions admissibles générées par l’algorithme d’ajustement de pente, et regroupe les caractéristiques des bonnes solutions afin de créer un problème élite qui est résolu de facon exacte à l’aide d’un logiciel commercial. L’heuristique tire donc avantage de la vitesse de convergence de l’algorithme d’ajustement de pente et de la qualité de solution de la recherche ellipsoidale. Les tests numériques illustrent l’efficacité de l’heuristique proposée. En outre, l’algorithme représente une alternative intéressante afin de résoudre le problème simplifié. Enfin, nous étudions le modèle complet à très grande échelle. Une heuristique hybride est développée en intégrant les idées de l’algorithme précédemment décrit et la génération de colonnes. Nous proposons une nouvelle procédure d’ajustement de pente où, par rapport à l’ancienne, seule l’approximation des couts liés aux services est considérée. La nouvelle approche d’ajustement de pente sépare ainsi les décisions associées aux blocs et aux services afin de fournir une décomposition naturelle du problème. Les résultats numériques obtenus montrent que l’algorithme est en mesure d’identifier des solutions de qualité dans un contexte visant la résolution d’instances réelles.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les infections nosocomiales sont causées par des germes opportunistes souvent résistants aux antibiotiques et persistants sur les surfaces, représentant une source constante de risque d’infection en milieu hospitalier. Dans ce contexte, l’isolement et la caractérisation de bactériophages s’attaquant spécifiquement aux bactéries nosocomiales telles que Staphylococcus aureus résistant (SARM), Enterococcus résistant (ERV), Pseudomonas aeruginosa et Acinetobacter baumanii, pourraient fournir une alternative bactéricide naturelle contre la transmission de ces infections. Des phages isolés des eaux usées, ont été sélectionnés selon leur capacité d’amplification, leur profil génomique et leur potentiel lytique envers différentes souches bactériennes cliniques. Les meilleurs ont été caractérisés en détail pour s’assurer de leur spécificité, sécurité, stabilité et efficacité préalablement à leur utilisation in vivo. Sept phages contre SARM et trois contre Acinetobacter baumanii ont été caractérisés. Quatre phages SARM s’avèrent être de bons candidats potentiels et pourraient être testés en milieu hospitalier comme agents désinfectants dans le but de lutter contre les infections nosocomiales.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le recours au plasma pour stériliser des dispositifs médicaux (DM) est un domaine de recherche ne datant véritablement que de la fin des années 1990. Les plasmas permettent, dans les conditions adéquates, de réaliser la stérilisation à basse température (≤ 65°C), tel qu’exigé par la présence de polymères dans les DM et ce contrairement aux procédés par chaleur, et aussi de façon non toxique, contrairement aux procédés chimiques comme, par exemple, l’oxyde d’éthylène (OEt). Les laboratoires du Groupe de physique des plasmas à l’Université de Montréal travaillent à l’élaboration d’un stérilisateur consistant plus particulièrement à employer les effluents d’une décharge N2-%O2 basse pression (2-8 Torrs) en flux, formant ce que l’on appelle une post-décharge en flux. Ce sont les atomes N et O de cette décharge qui viendront, dans les conditions appropriées, entrer en collisions dans la chambre de stérilisation pour y créer des molécules excitées NO*, engendrant ainsi l’émission d’une quantité appréciable de photons UV. Ceux-ci constituent, dans le cas présent, l’agent biocide qui va s’attaquer directement au bagage génétique du micro-organisme (bactéries, virus) que l’on souhaite inactiver. L’utilisation d’une lointaine post-décharge évite du même coup la présence des agents érosifs de la décharge, comme les ions et les métastables. L’un des problèmes de cette méthode de stérilisation est la réduction du nombre de molécules NO* créées par suite de la perte des atomes N et O, qui sont des radicaux connus pour interagir avec les surfaces, sur les parois des matériaux des DM que l’on souhaite stériliser. L’objectif principal de notre travail est de déterminer l’influence d’une telle perte en surface, dite aussi réassociation en surface, par l’introduction de matériaux comme le Téflon, l’acier inoxydable, l’aluminium et le cuivre sur le taux d’inactivation des spores bactériennes. Nous nous attendons à ce que la réassociation en surface de ces atomes occasionne ainsi une diminution de l’intensité UV et subséquemment, une réduction du taux d’inactivation. Par spectroscopie optique d’émission (SOE), nous avons déterminé les concentrations perdues de N et de O par la présence des matériaux dans le stérilisateur, ainsi que la diminution de l’émission UV en découlant. Nous avons observé que cette diminution des concentrations atomiques est d’autant plus importante que les surfaces sont catalytiques. Au cours de l’étude du phénomène de pertes sur les parois pour un mélange N2-%O2 nous avons constaté l’existence d’une compétition en surface entre les atomes N et O, dans laquelle les atomes d’oxygènes semblent dominer largement. Cela implique qu’au-delà d’un certain %O2 ajouté à la décharge N2, seuls les atomes O se réassocient en surface. Par ailleurs, l’analyse des courbes de survie bi-phasiques des micro-organismes a permis d’établir une étroite corrélation, par lien de cause à effet, entre la consommation des atomes N et O en surface et la diminution du taux d’inactivation des spores dans la première phase. En revanche, nous avons constaté que notre principal agent biocide (le rayonnement ultraviolet) est moins efficace dans la deuxième phase et, par conséquent, il n’a pas été possible d’établir un lien entre la diminution des concentrations et le taux d’inactivation de cette phase-là.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le réalisme des objets en infographie exige de simuler adéquatement leur apparence sous divers éclairages et à différentes échelles. Une solution communément adoptée par les chercheurs consiste à mesurer avec l’aide d’appareils calibrés la réflectance d’un échantillon de surface réelle, pour ensuite l’encoder sous forme d’un modèle de réflectance (BRDF) ou d’une texture de réflectances (BTF). Malgré des avancées importantes, les données ainsi mises à la portée des artistes restent encore très peu utilisées. Cette réticence pourrait s’expliquer par deux raisons principales : (1) la quantité et la qualité de mesures disponibles et (2) la taille des données. Ce travail propose de s’attaquer à ces deux problèmes sous l’angle de la simulation. Nous conjecturons que le niveau de réalisme du rendu en infographie produit déjà des résultats satisfaisants avec les techniques actuelles. Ainsi, nous proposons de précalculer et encoder dans une BTF augmentée les effets d’éclairage sur une géométrie, qui sera par la suite appliquée sur les surfaces. Ce précalcul de rendu et textures étant déjà bien adopté par les artistes, il pourra mieux s’insérer dans leurs réalisations. Pour nous assurer que ce modèle répond aussi aux exigences des représentations multi-échelles, nous proposons aussi une adaptation des BTFs à un encodage de type MIP map.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette thèse porte sur le développement de biocapteurs basés sur la technique de résonance des plasmons de surface (SPR) pour effectuer des analyses directement dans un fluide sanguin n’ayant subi aucune purification ou dilution. L’ensemble des biocapteurs discutés exploiteront un instrument SPR portable développé dans le groupe du professeur Masson. Le premier volet de la thèse portera sur le processus d’interférence lié à l’adsorption non spécifique du sérum à la surface du capteur. L’analyse des biomolécules adsorbées sera effectuée en combinant la SPR à la spectrométrie de masse. Les informations obtenues seront exploitées pour la construction de biocapteurs adaptés à l’analyse en milieu sanguin. Un premier biocapteur développé ciblera la protéine antigène prostatique spécifique (APS) contenue dans le sérum servant de biomarqueur pour dépister le cancer de la prostate. Pour détecter les faibles concentrations de cette protéine directement dans le sérum, un matériel plasmonique microstructuré sera utilisé pour amplifier les signaux obtenus et sera recouvert d’une monocouche peptidique minimisant l’adsorption non spécifique du sérum. L’instrument SPR aura été adapté pour permettre également la détection simultanée de fluorescence. Un test ELISA sera ainsi effectué en parallèle du test SPR. Chacune des techniques fournira un contrôle pour la deuxième, tout en permettant de détecter le biomarqueur au niveau requis pour dépister la maladie. La combinaison des deux méthodes permettra aussi d’élargir la gamme dynamique du test de dépistage. Pour terminer, l’instrument SPR portable sera utilisé dans le cadre de détection de petites biomolécules ayant un potentiel thérapeutique directement dans un échantillon de sang. Des peptides ayant une activité anti-athérosclérotique pourront ainsi être détectés à même un échantillon de sang ni purifié ni dilué, et ce à des concentrations de l’ordre du micromolaire. Une modification de la microfluidique via l’introduction d’une membrane poreuse au cœur de celle-ci sera la clé permettant d’effectuer de telles analyses. La présente thèse met de l’avant de nouvelles stratégies et des modifications instrumentales permettant d’analyser des protéines et des petites molécules directement dans un échantillon non purifié de sérum ou de sang. Les modifications apportées au système fluidique, à l’instrument SPR et au niveau du biocapteur employé permettront d’effectuer des biodétections dans des matrices aussi complexes que les fluides sanguins. Les présents travaux mettent en lumière la capacité d’un instrument SPR/fluorescence portable à faire en 12 minutes la biodétection d’un marqueur du cancer de la prostate directement dans un échantillon de sérum. Finalement, on rapporte ici un des premiers articles où un biocapteur SPR est utilisé à même un échantillon de sang non-purifié pour faire des biodétections.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le graphène est une nanostructure de carbone hybridé sp2 dont les propriétés électroniques et optiques en font un matériau novateur avec un très large potentiel d’application. Cependant, la production à large échelle de ce matériau reste encore un défi et de nombreuses propriétés physiques et chimiques doivent être étudiées plus en profondeur pour mieux les exploiter. La fonctionnalisation covalente est une réaction chimique qui a un impact important dans l’étude de ces propriétés, car celle-ci a pour conséquence une perte de la structure cristalline des carbones sp2. Néanmoins, la réaction a été très peu explorée pour ce qui est du graphène déposé sur des surfaces, car la réactivité chimique de ce dernier est grandement dépendante de l’environnement chimique. Il est donc important d’étudier la fonctionnalisation de ce type de graphène pour bien comprendre à la fois la réactivité chimique et la modification des propriétés électroniques et optiques pour pouvoir exploiter les retombées. D’un autre côté, les bicouches de graphène sont connues pour avoir des propriétés très différentes comparées à la monocouche à cause d’un empilement des structures électroniques, mais la croissance contrôlée de ceux-ci est encore très difficile, car la cinétique de croissance n’est pas encore maîtrisée. Ainsi, ce mémoire de maîtrise va porter sur l’étude de la réactivité chimique du graphène à la fonctionnalisation covalente et de l’étude des propriétés optiques du graphène. Dans un premier temps, nous avons effectué des croissances de graphène en utilisant la technique de dépôt chimique en phase vapeur. Après avoir réussi à obtenir du graphène monocouche, nous faisons varier les paramètres de croissance et nous nous rendons compte que les bicouches apparaissent lorsque le gaz carboné nécessaire à la croissance reste présent durant l’étape de refroidissement. À partir de cette observation, nous proposons un modèle cinétique de croissance des bicouches. Ensuite, nous effectuons une étude approfondie de la fonctionnalisation du graphène monocouche et bicouche. Tout d’abord, nous démontrons qu’il y a une interaction avec le substrat qui inhibe grandement le greffage covalent sur la surface du graphène. Cet effet peut cependant être contré de plusieurs façons différentes : 1) en dopant chimiquement le graphène avec des molécules réductrices, il est possible de modifier le potentiel électrochimique afin de favoriser la réaction; 2) en utilisant un substrat affectant peu les propriétés électroniques du graphène; 3) en utilisant la méthode d’électrogreffage avec une cellule électrochimique, car elle permet une modulation contrôlée du potentiel électrochimique du graphène. De plus, nous nous rendons compte que la réactivité chimique des bicouches est moindre dû à la rigidité de structure due à l’interaction entre les couches. En dernier lieu, nous démontrons la pertinence de la spectroscopie infrarouge pour étudier l’effet de la fonctionnalisation et l’effet des bicouches sur les propriétés optiques du graphène. Nous réussissons à observer des bandes du graphène bicouche dans la région du moyen infrarouge qui dépendent du dopage. Normalement interdites selon les règles de sélection pour la monocouche, ces bandes apparaissent néanmoins lorsque fonctionnalisée et changent grandement en amplitude dépendamment des niveaux de dopage et de fonctionnalisation.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Assuming at least three individuals and some regularity conditions, we construct a set S* of Pareto surfaces which is an ordinal basis of the set S of all surfaces: every surface in S is ordinally equivalent to some surface in S* and all surfaces in S* are ordinally distinct.