987 resultados para Routes


Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nos jours, la voiture est devenue le mode de transport le plus utilisé, mais malheureusement, il est accompagné d’un certain nombre de problèmes (accidents, pollution, embouteillages, etc.), qui vont aller en s’aggravant avec l’augmentation prévue du nombre de voitures particulières, malgré les efforts très importants mis en œuvre pour tenter de les réduire ; le nombre de morts sur les routes demeure très important. Les réseaux sans fil de véhicules, appelés VANET, qui consistent de plusieurs véhicules mobiles sans infrastructure préexistante pour communiquer, font actuellement l’objet d'une attention accrue de la part des constructeurs et des chercheurs, afin d’améliorer la sécurité sur les routes ou encore les aides proposées aux conducteurs. Par exemple, ils peuvent avertir d’autres automobilistes que les routes sont glissantes ou qu’un accident vient de se produire. Dans VANET, les protocoles de diffusion (broadcast) jouent un rôle très important par rapport aux messages unicast, car ils sont conçus pour transmettre des messages de sécurité importants à tous les nœuds. Ces protocoles de diffusion ne sont pas fiables et ils souffrent de plusieurs problèmes, à savoir : (1) Tempête de diffusion (broadcast storm) ; (2) Nœud caché (hidden node) ; (3) Échec de la transmission. Ces problèmes doivent être résolus afin de fournir une diffusion fiable et rapide. L’objectif de notre recherche est de résoudre certains de ces problèmes, tout en assurant le meilleur compromis entre fiabilité, délai garanti, et débit garanti (Qualité de Service : QdS). Le travail de recherche de ce mémoire a porté sur le développement d’une nouvelle technique qui peut être utilisée pour gérer le droit d’accès aux médias (protocole de gestion des émissions), la gestion de grappe (cluster) et la communication. Ce protocole intègre l'approche de gestion centralisée des grappes stables et la transmission des données. Dans cette technique, le temps est divisé en cycles, chaque cycle est partagé entre les canaux de service et de contrôle, et divisé en deux parties. La première partie s’appuie sur TDMA (Time Division Multiple Access). La deuxième partie s’appuie sur CSMA/CA (Carrier Sense Multiple Access / Collision Avoidance) pour gérer l’accès au medium. En outre, notre protocole ajuste d’une manière adaptative le temps consommé dans la diffusion des messages de sécurité, ce qui permettra une amélioration de la capacité des canaux. Il est implanté dans la couche MAC (Medium Access Control), centralisé dans les têtes de grappes (CH, cluster-head) qui s’adaptent continuellement à la dynamique des véhicules. Ainsi, l’utilisation de ce protocole centralisé nous assure une consommation efficace d’intervalles de temps pour le nombre exact de véhicules actifs, y compris les nœuds/véhicules cachés; notre protocole assure également un délai limité pour les applications de sécurité, afin d’accéder au canal de communication, et il permet aussi de réduire le surplus (overhead) à l’aide d’une propagation dirigée de diffusion.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le problème de localisation-routage avec capacités (PLRC) apparaît comme un problème clé dans la conception de réseaux de distribution de marchandises. Il généralisele problème de localisation avec capacités (PLC) ainsi que le problème de tournées de véhicules à multiples dépôts (PTVMD), le premier en ajoutant des décisions liées au routage et le deuxième en ajoutant des décisions liées à la localisation des dépôts. Dans cette thèse on dévelope des outils pour résoudre le PLRC à l’aide de la programmation mathématique. Dans le chapitre 3, on introduit trois nouveaux modèles pour le PLRC basés sur des flots de véhicules et des flots de commodités, et on montre comment ceux-ci dominent, en termes de la qualité de la borne inférieure, la formulation originale à deux indices [19]. Des nouvelles inégalités valides ont été dévelopées et ajoutées aux modèles, de même que des inégalités connues. De nouveaux algorithmes de séparation ont aussi été dévelopés qui dans la plupart de cas généralisent ceux trouvés dans la litterature. Les résultats numériques montrent que ces modèles de flot sont en fait utiles pour résoudre des instances de petite à moyenne taille. Dans le chapitre 4, on présente une nouvelle méthode de génération de colonnes basée sur une formulation de partition d’ensemble. Le sous-problème consiste en un problème de plus court chemin avec capacités (PCCC). En particulier, on utilise une relaxation de ce problème dans laquelle il est possible de produire des routes avec des cycles de longueur trois ou plus. Ceci est complété par des nouvelles coupes qui permettent de réduire encore davantage le saut d’intégralité en même temps que de défavoriser l’apparition de cycles dans les routes. Ces résultats suggèrent que cette méthode fournit la meilleure méthode exacte pour le PLRC. Dans le chapitre 5, on introduit une nouvelle méthode heuristique pour le PLRC. Premièrement, on démarre une méthode randomisée de type GRASP pour trouver un premier ensemble de solutions de bonne qualité. Les solutions de cet ensemble sont alors combinées de façon à les améliorer. Finalement, on démarre une méthode de type détruir et réparer basée sur la résolution d’un nouveau modèle de localisation et réaffectation qui généralise le problème de réaffectaction [48].

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire décrit le développement d’une nouvelle méthodologie d’expansion de cycle irréversible à partir de N-alkyl-3,4-déhydroprolinols pour former des N-alkyl tétrahydropyridines 3-substituées en passant par un intermédiaire aziridinium bicyclique. Cette méthode permet l’introduction d’un vaste éventail de substituants à la position 3 et tolère bien la présence de groupements aux positions 2 et 6, donnant accès à des pipéridines mono-, di- ou trisubstituées avec un excellent diastéréocontrôle. De plus, il est démontré que l’information stéréogénique du 3,4-déhydroprolinol de départ est totalement transférée vers le produit tétrahydropyridine. Additionnellement, une méthodologie fut dévelopée pour la préparation des produits de départ 3,4-déhydroprolinols en forme énantiopure, avec ou sans substituants aux positions 2 et 5, avec un très bon stéréocontrôle. Le premier chapitre présente un résumé de la littérature sur le sujet, incluant un bref survol des méthodes existantes pour la synthèse de pipéridines 3-substituées, ainsi qu’une vue d’ensemble de la chimie des aziridiniums. L’hypothèse originale ainsi que le raisonnement pour l’entreprise de ce projet y sont également inclus. Le second chapitre traite de la synthèse des N-alkyl-3,4-déhydroprolinols utilisés comme produits de départ pour l’expansion de cycle vers les tétrahydropyridines 3-substituées, incluant deux routes synthétiques différentes pour leur formation. Le premier chemin synthétique utilise la L-trans-4-hydroxyproline comme produit de départ, tandis que le deuxième est basé sur une modification de la réaction de Petasis-Mannich suivie par une métathèse de fermeture de cycle, facilitant l’accès aux précurseurs pour l’expansion de cycle. Le troisième chapitre présente une preuve de concept de la viabilité du projet ainsi que l’optimisation des conditions réactionnelles pour l’expansion de cycle. De plus, il y est démontré que l’information stéréogénique des produits de départs est transférée vers les produits. iv Au quatrième chapitre, l’étendue des composés pouvant être synthétisés par cette méthodologie est présentée, ainsi qu’une hypothèse mécanistique expliquant les stéréochimies relatives observées. Une synthèse énantiosélective efficace et divergente de tétrahydropyridines 2,3-disubstituées est également documentée, où les deux substituants furent introduits à partir d’un intermédiaire commun en 3 étapes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les macrocycles ont longtemps attiré l'attention des chimistes. Malgré cet intérêt, peu de méthodes générales et efficaces pour la construction de macrocycles ont été développés. Récemment, notre groupe a développé un programme de recherche visant à développer de nouvelles voies vers la synthèse de paracyclophanes et ce mémoire présente l pluspart des efforts les plus récents dans ce domaine. Traditionnellement, la synthèse de paracyclophanes rigides est facilitée par l'installation d'un groupe fonctionnel capable de contrôler la structure de la molécule en solution (ex un élément de contrôle de conformation (ECC)). Cependant, cette approche utilisant des auxiliaires exige que le ECC soit facilement installé avant macrocyclisation et facilement enlevé après la cyclisation. Le présent mémoire décrit une méthode alternative pour guider la macrocyclisations difficile à travers l'utilisation d'additifs comme ECC. Les additifs sont des hétérocycles aromatiques N-alkylé qui sont bon marché, faciles à préparer et peuvent être facilement ajoutés à un mélange de réaction et enlevés suite à la macrocyclisation par simple précipitation et de filtration. En outre, les ECCs sont recyclables. L'utilisation du nouveau ECC est démontré dans la synthèse des para-et métacyclophanes en utilisant soit la métathèse de fermeture de cycle (RCM) ou couplage de Glaser-Hay.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le problème de tarification qui nous intéresse ici consiste à maximiser le revenu généré par les usagers d'un réseau de transport. Pour se rendre à leurs destinations, les usagers font un choix de route et utilisent des arcs sur lesquels nous imposons des tarifs. Chaque route est caractérisée (aux yeux de l'usager) par sa "désutilité", une mesure de longueur généralisée tenant compte à la fois des tarifs et des autres coûts associés à son utilisation. Ce problème a surtout été abordé sous une modélisation déterministe de la demande selon laquelle seules des routes de désutilité minimale se voient attribuer une mesure positive de flot. Le modèle déterministe se prête bien à une résolution globale, mais pèche par manque de réalisme. Nous considérons ici une extension probabiliste de ce modèle, selon laquelle les usagers d'un réseau sont alloués aux routes d'après un modèle de choix discret logit. Bien que le problème de tarification qui en résulte est non linéaire et non convexe, il conserve néanmoins une forte composante combinatoire que nous exploitons à des fins algorithmiques. Notre contribution se répartit en trois articles. Dans le premier, nous abordons le problème d'un point de vue théorique pour le cas avec une paire origine-destination. Nous développons une analyse de premier ordre qui exploite les propriétés analytiques de l'affectation logit et démontrons la validité de règles de simplification de la topologie du réseau qui permettent de réduire la dimension du problème sans en modifier la solution. Nous établissons ensuite l'unimodalité du problème pour une vaste gamme de topologies et nous généralisons certains de nos résultats au problème de la tarification d'une ligne de produits. Dans le deuxième article, nous abordons le problème d'un point de vue numérique pour le cas avec plusieurs paires origine-destination. Nous développons des algorithmes qui exploitent l'information locale et la parenté des formulations probabilistes et déterministes. Un des résultats de notre analyse est l'obtention de bornes sur l'erreur commise par les modèles combinatoires dans l'approximation du revenu logit. Nos essais numériques montrent qu'une approximation combinatoire rudimentaire permet souvent d'identifier des solutions quasi-optimales. Dans le troisième article, nous considérons l'extension du problème à une demande hétérogène. L'affectation de la demande y est donnée par un modèle de choix discret logit mixte où la sensibilité au prix d'un usager est aléatoire. Sous cette modélisation, l'expression du revenu n'est pas analytique et ne peut être évaluée de façon exacte. Cependant, nous démontrons que l'utilisation d'approximations non linéaires et combinatoires permet d'identifier des solutions quasi-optimales. Finalement, nous en profitons pour illustrer la richesse du modèle, par le biais d'une interprétation économique, et examinons plus particulièrement la contribution au revenu des différents groupes d'usagers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette dissertation traite des (re)configurations postcoloniales de la résistance et de la négociation comme concepts permettant d’aborder les représentations des conflits nationaux dans les littératures Africaines contemporaines. Ensemble, ces concepts ouvrent de nouvelles voix et possibilités de se remémorer, de raconter, et de lire la violence en problématisant non seulement les discours sur la guerre civile en Afrique, mais aussi les conceptions d’histoire nationale, de la mémoire, et de leur représentation. Si cette étude cherche à reconfigurer la négociation et la résistance au-delà des définitions qui tendent à les opposer, elle se consacre surtout à développer la notion de négociation comme stratégie de dépassement, de lecture, et d’écriture, qui, néanmoins, ne vise pas de résolution. La négociation implique ainsi une conception pluraliste d’un pouvoir d’action sociale, politique, et culturelle. Cette dissertation avance que la négociation est un concept d’écriture et de lecture qui intervient dans les événements, discours, et pratiques de remémoration en prenant compte de leurs multiplicités et définitions instables. Cette étude explore les manières selon lesquelles Nuruddin Farah, Chenjerai Hove, Yvonne Vera, Chimamanda Adichie, et Sefi Atta déploient la négociation et la résistance comme outils d’engagement esthétique et sociopolitique dans la narration de la violence en Somalie, au Zimbabwe, et au Nigeria. En outre, la négociation marque mon analyse de l’intervention des textes dans les discours d’historiographie et de représentation. Si ces romans mettent en exergue la généalogie complexe du conflit postcolonial, ils négocient aussi les implications multiples, incluant la leur, dans les questions problématiques de la responsabilité et de la représentation. La vii négociation représente un acte conscient à travers lequel nous reconnaissons l’instabilité de toute bataille politique, morale, ou éthique sans pour autant céder à un cynisme paralysant. De par son approche négociée et interdisciplinaire, cette dissertation ne fait pas qu’entrer en débat avec des discours multiples des études postcoloniales, Africaines, et littéraires. Elle intervient aussi dans les conceptions de la nation, la violence, la mémoire, la responsabilité, et la justice selon les études philosophiques, politiques, et culturelles. Outre les critiques littéraires, les chapitres interrogent les théories de penseurs tels Ngugi wa Thiong’o, David Jefferess, Pheng Cheah, et Wole Soyinka. Cette approche éclectique reflète l’attention des romans à la complexité irréductible des responsabilités individuelles et collectives dans les récits d’histoire et d’appartenance nationales. Cet engagement négocié avec les questions entourant la postcolonialité, malgré la dominance actuelle des discours de la globalisation, permet de reconceptualiser l’approche postcoloniale pour contrer les analyses déhistorisées et décontextualisées des conflits sociopolitiques en Afrique. Le chapitre 1 élabore les concepts clés de la dissertation. Le chapitre 2 explore la résistance et la négociation dans le langage figuré métonymique dans les représentations de la guerre en Somalie. Le chapitre 3 se consacre à l’analyse de la figure de la spectralité dans la narration de l’histoire et de la violence nationales au Zimbabwe. Finalement, le chapitre 4 négocie les concepts de représentation et de responsabilité dans les récits du trauma postcolonial au Nigeria. viii Mots-clés : négociation, résistance, littératures africaines, violence, responsabilité, nation, représentation

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Part of the research described in this thesis is conducted in collaboration with Centre d' étude et de Recherche sur les Macromolécules (CERM), Université de Liège, Sart-Tilman, Belgium

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les changements climatiques mesurés dans le Nord-ouest canadien au cours du XXIe siècle entraînent une dégradation du pergélisol. Certaines des principales conséquences physiques sont la fonte de la glace interstitielle lors du dégel du pergélisol, l’affaissement du sol et la réorganisation des réseaux de drainage. L’effet est particulièrement marqué pour les routes bâties sur le pergélisol, où des dépressions et des fentes se créent de façon récurrente, rendant la conduite dangereuse. Des observations et mesures de terrain effectuées à Beaver Creek (Yukon) entre 2008 et 2011 ont démontré qu’un autre processus très peu étudié et quantifié dégradait le pergélisol de façon rapide, soit la chaleur transmise au pergélisol par l’écoulement souterrain. Suite aux mesures de terrain effectuées (relevé topographique, étude géotechnique du sol, détermination de la hauteur de la nappe phréatique et des chenaux d’écoulement préférentiels, température de l’eau et du sol, profondeur du pergélisol et de la couche active), des modèles de transfert de chaleur par conduction et par advection ont été produits. Les résultats démontrent que l’écoulement souterrain dans la couche active et les zones de talik contribue à la détérioration du pergélisol via différents processus de transfert de chaleur conducto-convectifs. L’écoulement souterrain devrait être pris en considération dans tous les modèles et scénarios de dégradation du pergélisol. Avec une bonne caractérisation de l’environnement, le modèle de transfert de chaleur élaboré au cours de la présente recherche est applicable dans d’autres zones de pergélisol discontinu.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nombreux individus vont expérimenter avec les drogues d’abus, mais peu vont devenir toxicomanes. Plusieurs facteurs sont impliqués dans la transition d’un usage récréatif à l’addiction. Les drogues, les conditionnements et les voies d’administration qui mènent à l’augmentation rapide du taux drogue dans le cerveau favorisent cette évolution. La raison est méconnue. Nous avons émis l’hypothèse que l’injection rapide de drogue promeut des changements dans le cerveau qui mènent à l’augmentation de la consommation et de la motivation à obtenir la drogue. Nous avons comparé la consommation lors de conditions à ratio fixe (FR) et à ratio progressif (PR) chez des rats s’auto-administrant la cocaïne administrée par voie intraveineuse (i.v.) en 5 ou 90 secondes (s). Tous les rats ont été entrainés à peser sur un levier afin de s’auto administrer des injections de cocaïne de 0.25 ou 0.5 mg/kg par voie intraveineuse injectée en 5 s sous FR avant d’être divisés en groupes s’auto administrant la cocaïne injectée en 5 ou 90 s pendant 1 heure (h)/session. Pour étudier les différences potentielles en consommation, l’accès à la cocaïne à été augmenté à 6 h/session. Les différences en motivation ont été détectées par l’auto administration de la cocaïne sous PR en fonction de la dose et de la vitesse d’infusion. L’accès à la drogue pendant 1 h/session n’a pas influencé la consommation. Lorsque l’accès a été prolongé à 6 h, tous les animaux ont augmenté leur consommation, mais l’augmentation était plus prononcée chez les rats s’injectant la cocaïne en 5 s. De plus, la vitesse d’injection a influencé la motivation pour obtenir la drogue. Lors de conditions à PR, la courbe dose-réponse pour le nombre d’infusions prises a été déplacée vers le haut pour les rats s’auto administrant des injections de cocaïne en 5 s versus 90 s. De plus, des différences qualitatives on été observées en PR. La consommation de cocaïne des rats s’injectant des infusions en 5 s était dépendante de la dose, tandis que les rats s’auto administrant la drogue en 90 s ont pris la même quantité de drogue, peu importe la dose. Finalement, les rats s’auto administrant des infusions de cocaïne 0.5 mg/kg en 5 s ont consommé plus de cocaïne que les rats prenant des infusions en 90 s, peu importe si elle était injectée en 5 ou 90 s le jour du test. Ainsi, nos résultats montrent que l’injection rapide de drogue dans le cerveau mène à l’augmentation de la consommation et de la motivation pour obtenir la cocaïne, deux symptômes qui caractérisent la toxicomanie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au cours des dernières décennies, l’intérêt pour la gazéification de biomasses a considérablement augmenté, notamment en raison de la grande efficacité de recouvrement énergétique de ce procédé par rapport aux autres procédés de génération de bioénergies. Les composants majoritaires du gaz de synthèse, le monoxyde de carbone (CO) et l’hydrogène (H2) peuvent entre autres servir de substrats à divers microorganismes qui peuvent produire une variété de molécules chimiques d’intérêts, ou encore produire des biocarburants, particulièrement le méthane. Il est donc important d'étudier les consortiums méthanogènes naturels qui, en syntrophie, serait en mesure de convertir le gaz de synthèse en carburants utiles. Cette étude évalue principalement le potentiel de méthanisation du CO par un consortium microbien issu d’un réacteur de type UASB, ainsi que les voies métaboliques impliquées dans cette conversion en conditions mésophiles. Des tests d’activité ont donc été réalisés avec la boue anaérobie du réacteur sous différentes pressions partielles de CO variant de 0.1 à 1,65 atm (0.09 à 1.31 mmol CO/L), en présence ou absence de certains inhibiteurs métaboliques spécifiques. Dès le départ, la boue non acclimatée au CO présente une activité carboxidotrophique relativement intéressante et permet une croissance sur le CO. Les tests effectués avec de l’acide 2- bromoethanesulfonique (BES) ou avec de la vancomycine démontrent que le CO est majoritairement consommé par les bactéries acétogènes avant d’être converti en méthane par les méthanogènes acétotrophes. De plus, un plus grand potentiel de méthanisation a pu être atteint sous une atmosphère constituée uniquement de CO en acclimatant auparavant la boue. Cette adaptation est caractérisée par un changement dans la population microbienne désormais dominée par les méthanogènes hydrogénotrophes. Ceci suggère un potentiel de production à large échelle de biométhane à partir du gaz de synthèse avec l’aide de biofilms anaérobies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

D'après des études récentes, le lien qui unit les propriétés objectives de la peine (c.-à-d. la sévérité, la certitude et la célérité de la peine) et les propriétés telles que perçues par les délinquants potentiels serait faible, voire inexistant. Par conséquent, les politiques publiques s'appuyant sur le paradigme dissuasif seraient inefficaces pour réduire la criminalité. Toutefois, ces études s'appuient sur un modèle conceptuel limité qui sous-entend que la peine produirait uniquement de la dissuasion. Cette étude vise donc à tester un modèle élargi de prévention générale qui intègre à la fois les notions de dissuasion et de validation normative. D'après ce modèle, l'effet préventif de la peine pourrait s'effectuer à travers les valeurs et les croyances des délinquants potentiels, et ce sans nécessairement modifier leurs perceptions de la peine. Afin de vérifier l'utilité d'un tel modèle, des données ont été colligées à l'aide d'un sondage sur les habitudes de conduite de 448 jeunes conducteurs québécois. Les résultats indiquent que les mécanismes dissuasifs, tels que la certitude perçue d'arrestation et la sévérité perçue des peines, n'ont pas d'effet significatif sur l'intention délictuelle des automobilistes. Toutefois, les valeurs et les croyances de l'automobiliste jouent un rôle essentiel dans la décision d'adopter un comportement routier respectueux des lois. Les automobilistes percevant les problématiques de sécurité routière (c.-à-d. alcool au volant ou vitesse) comme graves auraient moins d'intentions délinquantes. Ces valeurs et ces croyances seraient modulées à la fois par les expériences d'impunité et par le niveau d'exposition aux différentes activités policières sur les routes. Ces résultats suggèrent que l'application des lois peut produire un effet préventif sans nécessairement que des mécanismes dissuasifs en soient responsables.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Problème de Tournées de Véhicules (PTV) est une clé importante pour gérér efficacement des systèmes logistiques, ce qui peut entraîner une amélioration du niveau de satisfaction de la clientèle. Ceci est fait en servant plus de clients dans un temps plus court. En terme général, il implique la planification des tournées d'une flotte de véhicules de capacité donnée basée à un ou plusieurs dépôts. Le but est de livrer ou collecter une certain quantité de marchandises à un ensemble des clients géographiquement dispersés, tout en respectant les contraintes de capacité des véhicules. Le PTV, comme classe de problèmes d'optimisation discrète et de grande complexité, a été étudié par de nombreux au cours des dernières décennies. Étant donné son importance pratique, des chercheurs dans les domaines de l'informatique, de la recherche opérationnelle et du génie industrielle ont mis au point des algorithmes très efficaces, de nature exacte ou heuristique, pour faire face aux différents types du PTV. Toutefois, les approches proposées pour le PTV ont souvent été accusées d'être trop concentrées sur des versions simplistes des problèmes de tournées de véhicules rencontrés dans des applications réelles. Par conséquent, les chercheurs sont récemment tournés vers des variantes du PTV qui auparavant étaient considérées trop difficiles à résoudre. Ces variantes incluent les attributs et les contraintes complexes observés dans les cas réels et fournissent des solutions qui sont exécutables dans la pratique. Ces extensions du PTV s'appellent Problème de Tournées de Véhicules Multi-Attributs (PTVMA). Le but principal de cette thèse est d'étudier les différents aspects pratiques de trois types de problèmes de tournées de véhicules multi-attributs qui seront modélisés dans celle-ci. En plus, puisque pour le PTV, comme pour la plupart des problèmes NP-complets, il est difficile de résoudre des instances de grande taille de façon optimale et dans un temps d'exécution raisonnable, nous nous tournons vers des méthodes approcheés à base d’heuristiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'évaluation des risques de l'exposition aux mélanges de produits chimiques par voies multiples peut être améliorée par une compréhension de la variation de la dose interne due à l’interaction entre les produits. Les modèles pharmacocinétiques à base physiologique (PBPK) sont des outils éprouvés pour prédire l'ampleur de ces variations dans différents scénarios. Dans cette étude, quatre composés organiques volatils (COV) (toluène, nhexane, cyclohexane et isooctane) ont été choisis pour représenter des produits pétroliers (essence) pouvant contaminer l'eau potable. Premièrement, les modèles PBPK ont simulé l'exposition à un seul COV par une voie (inhalation ou gavage). Ensuite, ces modèles ont été interconnectés pour simuler l'exposition à un mélange par voies multiples. Les modèles ont été validés avec des données in vivo chez des rats Sprague-Dawley (n=5) exposés par inhalation (50 ppm ; toluène, hexane, et 300 ppm ; cyclohexane, isooctane; 2-h) ou par gavage (8,3; 5,5; 27,9 et 41,27 mg/kg pour le toluène, l’hexane, le cyclohexane et l’isooctane, respectivement). Des doses similaires ont été utilisées pour l'exposition au mélange par voies multiples. Les AUC (mg/L x min) pour le toluène, l'hexane, le cyclohexane et l'isooctane étaient respectivement de 157,25; 18,77; 159,58 et 176,54 pour les données expérimentales, et 121,73; 21,91; 19,55 et 170,54 pour les modèles PBPK. Les résultats des modèles PBPK et les données in vivo (simple COV par voies multiples vs. mélange par voies multiples) ont montré des interactions entre les COVs dans le cas de l'exposition au mélange par voies multiples. Cette étude démontre l'efficacité des modèles PBPK pour simuler l'exposition aux mélanges de COV par voies multiples.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thèse réalisée en cotutelle entre l'Université de Montréal et l'Université de Technologie de Troyes