113 resultados para Généralisation


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans certaines circonstances, des actions de groupes sont plus performantes que des actions individuelles. Dans ces situations, il est préférable de former des coalitions. Ces coalitions peuvent être disjointes ou imbriquées. La littérature économique met un fort accent sur la modélisation des accords où les coalitions d’agents économiques sont des ensembles disjoints. Cependant on observe dans la vie de tous les jours que les coalitions politiques, environnementales, de libre-échange et d’assurance informelles sont la plupart du temps imbriquées. Aussi, devient-il impératif de comprendre le fonctionnement économique des coalitions imbriquées. Ma thèse développe un cadre d’analyse qui permet de comprendre la formation et la performance des coalitions même si elles sont imbriquées. Dans le premier chapitre je développe un jeu de négociation qui permet la formation de coalitions imbriquées. Je montre que ce jeu admet un équilibre et je développe un algorithme pour calculer les allocations d’équilibre pour les jeux symétriques. Je montre que toute structure de réseau peut se décomposer de manière unique en une structure de coalitions imbriquées. Sous certaines conditions, je montre que cette structure correspond à une structure d’équilibre d’un jeu sous-jacent. Dans le deuxième chapitre j’introduis une nouvelle notion de noyau dans le cas où les coalitions imbriquées sont permises. Je montre que cette notion de noyau est une généralisation naturelle de la notion de noyau de structure de coalitions. Je vais plus loin en introduisant des agents plus raffinés. J’obtiens alors le noyau de structure de coalitions imbriquées que je montre être un affinement de la première notion. Dans la suite de la thèse, j’applique les théories développées dans les deux premiers chapitres à des cas concrets. Le troisième chapitre est une application de la relation biunivoque établie dans le premier chapitre entre la formation des coalitions et la formation de réseaux. Je propose une modélisation réaliste et effective des assurances informelles. J’introduis ainsi dans la littérature économique sur les assurances informelles, quatre innovations majeures : une fusion entre l’approche par les groupes et l’approche par les réseaux sociaux, la possibilité d’avoir des organisations imbriquées d’assurance informelle, un schéma de punition endogène et enfin les externalités. Je caractérise les accords d’assurances informelles stables et j’isole les conditions qui poussent les agents à dévier. Il est admis dans la littérature que seuls les individus ayant un revenu élevé peuvent se permettre de violer les accords d’assurances informelles. Je donne ici les conditions dans lesquelles cette hypothèse tient. Cependant, je montre aussi qu’il est possible de violer cette hypothèse sous d’autres conditions réalistes. Finalement je dérive des résultats de statiques comparées sous deux normes de partage différents. Dans le quatrième et dernier chapitre, je propose un modèle d’assurance informelle où les groupes homogènes sont construits sur la base de relations de confiance préexistantes. Ces groupes sont imbriqués et représentent des ensembles de partage de risque. Cette approche est plus générale que les approches traditionnelles de groupe ou de réseau. Je caractérise les accords stables sans faire d’hypothèses sur le taux d’escompte. J’identifie les caractéristiques des réseaux stables qui correspondent aux taux d’escomptes les plus faibles. Bien que l’objectif des assurances informelles soit de lisser la consommation, je montre que des effets externes liés notamment à la valorisation des liens interpersonnels renforcent la stabilité. Je développe un algorithme à pas finis qui égalise la consommation pour tous les individus liés. Le fait que le nombre de pas soit fini (contrairement aux algorithmes à pas infinis existants) fait que mon algorithme peut inspirer de manière réaliste des politiques économiques. Enfin, je donne des résultats de statique comparée pour certaines valeurs exogènes du modèle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La protection des données personnelles en Suisse trouve son fondement dans la constitution et se concrétise avant tout dans une loi fédérale adoptée avant l'avènement d'Internet et la généralisation de la transmission d'informations personnelles sur des réseaux numériques. Cette réglementation est complétée par les engagements internationaux de la Suisse et notamment la Convention européenne des Droits de l'Homme du Conseil de l'Europe. L'article délimite tout d'abord le champ d'application de la législation, qui joue un rôle pour le traitement de données personnelles par des particuliers comme par les autorités de l'administration fédérale. Suit une brève analyse des principes fondamentaux (licéité, bonne foi, proportionnalité, finalité, exactitude, communication à l'étranger, sécurité, droit d'accès) et de leur application sur Internet. Enfin, la protection du contenu des messages électroniques privés est brièvement abordée sous l'angle du secret des télécommunications et à la lumière d'une jurisprudence récente du Tribunal fédéral.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche vise à mieux comprendre la mobilisation des ressources de pouvoir, par les associations patronales, dans le but d’influencer les politiques publiques, plus précisément dans le secteur de l’aérospatiale. Dans un premier temps, cette recherche tente de répondre à notre première question de recherche qui s’attarde à l’impact de la logique de représentation sur la détermination du champ d’intervention en matière de politiques publiques. Dans un deuxième temps, notre seconde question de recherche tente de cerner comment les associations patronales utilisent leurs ressources de pouvoir dans le but d’influencer les politiques publiques. D’un angle théorique, cette recherche s’inscrit dans le courant des travaux néo-institutionnalistes. Tout d’abord, les associations patronales sont perçues comme étant des «entrepreneurs institutionnels» capables d’influencer leur environnement institutionnel (Campbell, 2004 ; Streeck et Thelen, 2005 ; Crouch, 2005). Plus précisément, nous constatons également que les employeurs et leurs associations sont en mesure de mobiliser plusieurs leviers de pouvoir pour influencer, à leur avantage, les développements politiques et économiques des sociétés capitalistes (Traxler et Huemer, 2007). D’un angle empirique, notre recherche vise trois objectifs : cerner les logiques de représentation des associations patronales; identifier quels types de ressources sont à la disposition des associations patronales; analyser comment s’exerce le lien entre les ressources de pouvoir (internes et externes) et l’influence potentielle sur les politiques publiques (commerciales et du travail). Afin de rencontrer nos objectifs de recherche, nous avons utilisé la technique de l’étude de cas. Cette méthode qualitative est l’un des meilleurs moyens pour analyser un phénomène inconnu car elle fournit des données en profondeur. Cette recherche suit les recommandations de Merriem (1998) qui propose de mener la recherche en trois grandes étapes : la préparation, la collecte des données et l’interprétation. Nous avons recueilli nos données à l’aide d’entrevues semi-dirigées, conduites à l’hiver 2012. Ces entrevues ont été menées auprès de représentants des associations patronales du secteur de l’aérospatiale. Nous avons effectué une analyse qualitative des données en fonction de notre revue de littérature et nos propositions de recherche. Dans cette perspective, nous avons utilisé la technique de l’appariement logique de Yin (1994) qui consistait à comparer nos observations avec nos propositions de recherche. Enfin, il faut mentionner que cette méthode de recherche (étude de cas) comporte une importante limite de recherche : la généralisation. Effectivement, nous pouvons difficilement généraliser les résultats de notre recherche à une autre population, considérant les nombreuses particularités du secteur de l’aérospatiale. Toutefois, cette recherche a tout de même contribué à enrichir les connaissances sur l’acteur patronal organisé au Canada.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport d'analyse d'intervention présenté à la Faculté des arts et sciences en vue de l'obtention du grade de Maîtrise ès sciences (M. Sc.) en psychoéducation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse fait la lumière sur les différentes manières dont, historiquement, a été perçu, conçu et vécu le territoire, à travers l’expérience et l’essor de la mobilité. Cette étude montre le rôle crucial de l’automobilité dans le développement touristique du Québec et de l’Ontario et les manières dont elle a façonné certains de leurs territoires. La thèse reconstitue ces processus en examinant les différentes mesures adoptées pour mettre en tourisme ces territoires et les transformer sur le plan matériel comme symbolique, entre 1920 et 1967. Elle répond à la question suivante : en quoi et comment la mobilité associée à l’automobile transforme et crée les territoires touristiques? La période étudiée s’ouvre au moment où débute l’intervention gouvernementale en matière de tourisme et s’amorce l’aménagement d’infrastructures favorisant une plus grande automobilité. Elle se clôt sur les célébrations entourant le Centenaire du Canada et la tenue de l’Expo 1967 à Montréal, qui donnent lieu à un aménagement intense du territoire afin d’accommoder un nombre sans précédent de touristes motorisés en provenance des autres provinces canadiennes et des États-Unis. La thèse reconstitue d’abord le processus de mise en tourisme des territoires par la conception, la construction et la promotion du système routier, l’élaboration d’itinéraires et de circuits touristiques et le développement d’outils accompagnant le touriste dans sa mobilité. L’embellissement en tant qu’élément structurant de la transformation des territoires est ensuite examiné. Enfin, la publicité, les récits et les pratiques touristiques sont étudiés de manière détaillée afin d’identifier les mécanismes par lesquels se construisent les représentations des territoires par l’apport de différents acteurs. Cette thèse révèle ainsi les liens étroits et complexes qui se développent à partir des années 1920 entre l’automobilité, le tourisme et la modification des territoires. Elle contribue à mettre au jour l’historicité de certains réflexes et orientations qui ont encore cours dans l’industrie touristique canadienne soit ceux d’aborder son développement en fonction de l’accessibilité du territoire à l’automobile et du regard à travers le pare-brise. En montrant le rôle du système automobile dans l’expérience touristique, l’étude ajoute un élément nouveau à la compréhension de la démocratisation des loisirs. Souvent expliquée par la hausse du niveau de vie, du temps libre et de la généralisation des congés payés, cette démocratisation se trouve aussi favorisée par l’accessibilité à l’automobile qui, à son tour, rend accessible des territoires de plus en plus éloignés à des fins de loisirs. La dimension récréative de l’automobile permet d’expliquer son adoption rapide par les Nord-Américains et les Canadiens ainsi que la dépendance qu’ils ont progressivement développée à son égard.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le modèle GARCH à changement de régimes est le fondement de cette thèse. Ce modèle offre de riches dynamiques pour modéliser les données financières en combinant une structure GARCH avec des paramètres qui varient dans le temps. Cette flexibilité donne malheureusement lieu à un problème de path dependence, qui a empêché l'estimation du modèle par le maximum de vraisemblance depuis son introduction, il y a déjà près de 20 ans. La première moitié de cette thèse procure une solution à ce problème en développant deux méthodologies permettant de calculer l'estimateur du maximum de vraisemblance du modèle GARCH à changement de régimes. La première technique d'estimation proposée est basée sur l'algorithme Monte Carlo EM et sur l'échantillonnage préférentiel, tandis que la deuxième consiste en la généralisation des approximations du modèle introduites dans les deux dernières décennies, connues sous le nom de collapsing procedures. Cette généralisation permet d'établir un lien méthodologique entre ces approximations et le filtre particulaire. La découverte de cette relation est importante, car elle permet de justifier la validité de l'approche dite par collapsing pour estimer le modèle GARCH à changement de régimes. La deuxième moitié de cette thèse tire sa motivation de la crise financière de la fin des années 2000 pendant laquelle une mauvaise évaluation des risques au sein de plusieurs compagnies financières a entraîné de nombreux échecs institutionnels. À l'aide d'un large éventail de 78 modèles économétriques, dont plusieurs généralisations du modèle GARCH à changement de régimes, il est démontré que le risque de modèle joue un rôle très important dans l'évaluation et la gestion du risque d'investissement à long terme dans le cadre des fonds distincts. Bien que la littérature financière a dévoué beaucoup de recherche pour faire progresser les modèles économétriques dans le but d'améliorer la tarification et la couverture des produits financiers, les approches permettant de mesurer l'efficacité d'une stratégie de couverture dynamique ont peu évolué. Cette thèse offre une contribution méthodologique dans ce domaine en proposant un cadre statistique, basé sur la régression, permettant de mieux mesurer cette efficacité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction La santé est considérée comme un idéal, un objectif et un but à atteindre; pour l'améliorer, certains ergothérapeutes utilisent les approches habilitantes. Ces dernières démontrent des résultats positifs pour la prévention des troubles musculosquelettiques (TMS). Objectif L’objectif de cette recherche est de mesurer les effets d'un programme en partenariat pour la prévention des TMS dans une pharmacie communautaire. Méthodologie Un devis mixte (quantitatif, qualitatif et descriptif) avant-après avec un groupe témoin non équivalent est utilisé. Le recrutement des participants se fait sur une base volontaire. Ceux-ci sont âgés de 18 ans et plus (groupe expérimental (n = 18) et témoin (n = 17)) et occupent trois titres d'emplois distincts. Différentes mesures via des questionnaires et des entrevues sont prises avant et après l’intervention. L’intervention, quant à elle, comprend trois rencontres élaborées à partir des concepts de l’ergonomie. Résultats En lien avec les connaissances acquises et la mobilisation, une diminution des sensations douloureuses est constatée chez les participants du groupe expérimental. De même, pour ceux-ci, une tendance à la généralisation des connaissances est notée. Conclusion Inspirée des principes de la prévention, de l’ergonomie et de l’habilitation, cette recherche, malgré ses limites, permet de mieux documenter les effets d'un programme en partenariat en entreprise de services pour la prévention des TMS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette recherche vise à apporter un éclairage sur les facteurs déterminants de la concertation économique. De manière spécifique, elle poursuit trois principaux objectifs. Premièrement, nous cherchons à définir la notion de dialogue social et les termes qui y sont généralement associés tels que la concertation, la consultation, le tripartisme, le partenariat, la négociation collective, etc. Deuxièmement, nous faisons le point sur l’État du dialogue social au Québec, notamment en décrivant son évolution historique, les acteurs impliqués, les objets abordés et les instances de dialogue. Certaines comparaisons entre la culture québécoise de concertation et celles caractérisant d’autres cultures (Canada, États-Unis, Europe) sont par ailleurs présentées. De plus, ce tour d’horizon des différents lieux de dialogue social permettra de mieux saisir les composantes de la concertation en lien avec le développement économique, plus particulièrement, sur les façons de planifier le développement économique d’une manière socialement responsable (Papadakis, 2010). Troisièmement, une analyse empirique des facteurs déterminants de la concertation économique est effectuée. Pour atteindre les objectifs et répondre à notre question de recherche, nous articulons cette recherche en deux phases. Dans un premier temps, une cartographie des instances de dialogue social au Québec et la collecte de données auprès d’instances québécoises sont établies. Cette première phase permet également d’identifier quels sont les facteurs déterminants de la concertation économique généralement reconnus au sein de la littérature. Afin de mieux saisir ces facteurs et par conséquent, bonifier le modèle d’analyse, l’étude s’appuie sur une série d’entretiens exploratoires réalisés au Québec, mais aussi en France où la culture de dialogue social économique semble plus développée. Ce mouvement itératif entre la littérature et les entretiens exploratoires effectués permet de construire un modèle d’analyse des facteurs déterminants de la concertation économique. Dans un second temps, ce modèle d’analyse est testé en se concentrant sur deux organismes de concertation économique au Québec. Au sein de ces organismes ont été rencontrés des acteurs syndicaux, patronaux et gouvernementaux. L’entretien a été retenu comme la méthode de collecte de données utilisée auprès des individus (Gavard-Perret, Gotteland, Haon et Jolibert, 2008) et plus spécifiquement, des entretiens semi-directifs auprès des répondants afin de leur laisser la liberté de s’exprimer de façon plus large sur les questions et possiblement apporter de nouveaux éléments pouvant enrichir le modèle. La méthode de l’appariement logique sert à analyser les réponses aux questionnaires d’entrevues (Yin, 1994) et à les comparer aux propositions de recherche. Au plan théorique, l’apport des théories néo-institutionnalistes permet d’approfondir nos constats en lien avec la naissance et le développement des institutions de dialogue social. L’analyse de nos résultats nous permet de vérifier la théorie sur la création des institutions qui se veut la prise de conscience d’une problématique par les acteurs qui perçoivent leur implication au sein des institutions comme une façon de résoudre cette situation. Nous vérifions également la notion d’acteur dominant via le double rôle de l’acteur gouvernemental comme participant et comme donneur d’argent. Finalement, notre recherche a permis de confirmer notre modèle d’analyse tout en le raffinant par l’ajout de nouveaux facteurs déterminants de la concertation économique. Les entrevues que nous avons réalisées nous ont permis d’apporter des nuances et de préciser la portée des facteurs déterminants tirés de la littérature. Notre analyse confirme trois de nos propositions de recherche telle que formulées et deux autres le sont que partiellement. Nos constats confirment en effet que la volonté réelle des parties à travailler ensemble, la présence d’intérêts communs et la participation de l’État sont tous des facteurs qui ont un impact positif sur la concertation économique. La question de la confiance est nécessaire pour la poursuite de la concertation. En appui aux travaux antérieurs sur la question, nous avons observé que la confiance entre les acteurs influence positivement le déroulement de la concertation économique. Nous avons toutefois constaté qu’un certain niveau de méfiance réside entre les acteurs qui participent à ce processus, ces derniers représentant des organisations distinctes qui ont leurs intérêts propres. Pour permettre la concertation entre acteurs, le niveau de confiance doit être plus élevé que le niveau de méfiance. Nos observations nous ont aussi permis d’établir des liens entre la présence des facteurs déterminants et l’atteinte de résultats par la concertation, mais nous ne pouvons pas déterminer leur importance relative: nous ne pouvons donc pas prétendre qu’un plus grand nombre de facteurs réunis va assurer la réussite du processus de concertation ou s’il s’agit plutôt de la présence de certains facteurs qui auraient plus d’impact sur les résultats. Notre recherche fournit un apport important à la littérature sur la concertation puisqu’elle a permis de cerner de nouveaux facteurs déterminants à la réussite de ce processus. Les entretiens réalisés ont montré que le « contrôle des égos » des acteurs de la concertation et la mise en place de mécanismes permettant une intégration réussie des nouveaux participants au processus constituent des facteurs à ne pas négliger. De plus, notre recherche a permis de raffiner notre modèle conceptuel puisque nous avons été en mesure de cerner différents sous-facteurs qui permettent d’approfondir l’analyse des facteurs déterminants de la concertation. Notre recherche comporte toutefois certaines limites puisque les institutions comparées présentent des différences importantes en termes de culture et le nombre restreint d’organisme étudié limite grandement la généralisation des résultats.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectif du présent mémoire vise à présenter des modèles de séries chronologiques multivariés impliquant des vecteurs aléatoires dont chaque composante est non-négative. Nous considérons les modèles vMEM (modèles vectoriels et multiplicatifs avec erreurs non-négatives) présentés par Cipollini, Engle et Gallo (2006) et Cipollini et Gallo (2010). Ces modèles représentent une généralisation au cas multivarié des modèles MEM introduits par Engle (2002). Ces modèles trouvent notamment des applications avec les séries chronologiques financières. Les modèles vMEM permettent de modéliser des séries chronologiques impliquant des volumes d'actif, des durées, des variances conditionnelles, pour ne citer que ces applications. Il est également possible de faire une modélisation conjointe et d'étudier les dynamiques présentes entre les séries chronologiques formant le système étudié. Afin de modéliser des séries chronologiques multivariées à composantes non-négatives, plusieurs spécifications du terme d'erreur vectoriel ont été proposées dans la littérature. Une première approche consiste à considérer l'utilisation de vecteurs aléatoires dont la distribution du terme d'erreur est telle que chaque composante est non-négative. Cependant, trouver une distribution multivariée suffisamment souple définie sur le support positif est plutôt difficile, au moins avec les applications citées précédemment. Comme indiqué par Cipollini, Engle et Gallo (2006), un candidat possible est une distribution gamma multivariée, qui impose cependant des restrictions sévères sur les corrélations contemporaines entre les variables. Compte tenu que les possibilités sont limitées, une approche possible est d'utiliser la théorie des copules. Ainsi, selon cette approche, des distributions marginales (ou marges) peuvent être spécifiées, dont les distributions en cause ont des supports non-négatifs, et une fonction de copule permet de tenir compte de la dépendance entre les composantes. Une technique d'estimation possible est la méthode du maximum de vraisemblance. Une approche alternative est la méthode des moments généralisés (GMM). Cette dernière méthode présente l'avantage d'être semi-paramétrique dans le sens que contrairement à l'approche imposant une loi multivariée, il n'est pas nécessaire de spécifier une distribution multivariée pour le terme d'erreur. De manière générale, l'estimation des modèles vMEM est compliquée. Les algorithmes existants doivent tenir compte du grand nombre de paramètres et de la nature élaborée de la fonction de vraisemblance. Dans le cas de l'estimation par la méthode GMM, le système à résoudre nécessite également l'utilisation de solveurs pour systèmes non-linéaires. Dans ce mémoire, beaucoup d'énergies ont été consacrées à l'élaboration de code informatique (dans le langage R) pour estimer les différents paramètres du modèle. Dans le premier chapitre, nous définissons les processus stationnaires, les processus autorégressifs, les processus autorégressifs conditionnellement hétéroscédastiques (ARCH) et les processus ARCH généralisés (GARCH). Nous présentons aussi les modèles de durées ACD et les modèles MEM. Dans le deuxième chapitre, nous présentons la théorie des copules nécessaire pour notre travail, dans le cadre des modèles vectoriels et multiplicatifs avec erreurs non-négatives vMEM. Nous discutons également des méthodes possibles d'estimation. Dans le troisième chapitre, nous discutons les résultats des simulations pour plusieurs méthodes d'estimation. Dans le dernier chapitre, des applications sur des séries financières sont présentées. Le code R est fourni dans une annexe. Une conclusion complète ce mémoire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le problème de tournées de véhicules (VRP), introduit par Dantzig and Ramser en 1959, est devenu l'un des problèmes les plus étudiés en recherche opérationnelle, et ce, en raison de son intérêt méthodologique et de ses retombées pratiques dans de nombreux domaines tels que le transport, la logistique, les télécommunications et la production. L'objectif général du VRP est d'optimiser l'utilisation des ressources de transport afin de répondre aux besoins des clients tout en respectant les contraintes découlant des exigences du contexte d’application. Les applications réelles du VRP doivent tenir compte d’une grande variété de contraintes et plus ces contraintes sont nombreuse, plus le problème est difficile à résoudre. Les VRPs qui tiennent compte de l’ensemble de ces contraintes rencontrées en pratique et qui se rapprochent des applications réelles forment la classe des problèmes ‘riches’ de tournées de véhicules. Résoudre ces problèmes de manière efficiente pose des défis considérables pour la communauté de chercheurs qui se penchent sur les VRPs. Cette thèse, composée de deux parties, explore certaines extensions du VRP vers ces problèmes. La première partie de cette thèse porte sur le VRP périodique avec des contraintes de fenêtres de temps (PVRPTW). Celui-ci est une extension du VRP classique avec fenêtres de temps (VRPTW) puisqu’il considère un horizon de planification de plusieurs jours pendant lesquels les clients n'ont généralement pas besoin d’être desservi à tous les jours, mais plutôt peuvent être visités selon un certain nombre de combinaisons possibles de jours de livraison. Cette généralisation étend l'éventail d'applications de ce problème à diverses activités de distributions commerciales, telle la collecte des déchets, le balayage des rues, la distribution de produits alimentaires, la livraison du courrier, etc. La principale contribution scientifique de la première partie de cette thèse est le développement d'une méta-heuristique hybride dans la quelle un ensemble de procédures de recherche locales et de méta-heuristiques basées sur les principes de voisinages coopèrent avec un algorithme génétique afin d’améliorer la qualité des solutions et de promouvoir la diversité de la population. Les résultats obtenus montrent que la méthode proposée est très performante et donne de nouvelles meilleures solutions pour certains grands exemplaires du problème. La deuxième partie de cette étude a pour but de présenter, modéliser et résoudre deux problèmes riches de tournées de véhicules, qui sont des extensions du VRPTW en ce sens qu'ils incluent des demandes dépendantes du temps de ramassage et de livraison avec des restrictions au niveau de la synchronization temporelle. Ces problèmes sont connus respectivement sous le nom de Time-dependent Multi-zone Multi-Trip Vehicle Routing Problem with Time Windows (TMZT-VRPTW) et de Multi-zone Mult-Trip Pickup and Delivery Problem with Time Windows and Synchronization (MZT-PDTWS). Ces deux problèmes proviennent de la planification des opérations de systèmes logistiques urbains à deux niveaux. La difficulté de ces problèmes réside dans la manipulation de deux ensembles entrelacés de décisions: la composante des tournées de véhicules qui vise à déterminer les séquences de clients visités par chaque véhicule, et la composante de planification qui vise à faciliter l'arrivée des véhicules selon des restrictions au niveau de la synchronisation temporelle. Auparavant, ces questions ont été abordées séparément. La combinaison de ces types de décisions dans une seule formulation mathématique et dans une même méthode de résolution devrait donc donner de meilleurs résultats que de considérer ces décisions séparément. Dans cette étude, nous proposons des solutions heuristiques qui tiennent compte de ces deux types de décisions simultanément, et ce, d'une manière complète et efficace. Les résultats de tests expérimentaux confirment la performance de la méthode proposée lorsqu’on la compare aux autres méthodes présentées dans la littérature. En effet, la méthode développée propose des solutions nécessitant moins de véhicules et engendrant de moindres frais de déplacement pour effectuer efficacement la même quantité de travail. Dans le contexte des systèmes logistiques urbains, nos résultats impliquent une réduction de la présence de véhicules dans les rues de la ville et, par conséquent, de leur impact négatif sur la congestion et sur l’environnement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les implications philosophiques de la Théorie de la Perspective de 1979, notamment celles qui concernent l’introduction d’une fonction de valeur sur les résultats et d’un coefficient de pondération sur les probabilités, n’ont à ce jour jamais été explorées. Le but de ce travail est de construire une théorie philosophique de la volonté à partir des résultats de la Théorie de la Perspective. Afin de comprendre comment cette théorie a pu être élaborée il faut étudier la Théorie de l’Utilité Attendue dont elle est l’aboutissement critique majeur, c’est-à-dire les axiomatisations de la décision de Ramsey (1926), von Neumann et Morgenstern (1947), et enfin Savage (1954), qui constituent les fondements de la théorie classique de la décision. C’est entre autres la critique – par l’économie et la psychologie cognitive – du principe d’indépendance, des axiomes d’ordonnancement et de transitivité qui a permis de faire émerger les éléments représentationnels subjectifs à partir desquels la Théorie de la Perspective a pu être élaborée. Ces critiques ont été menées par Allais (1953), Edwards (1954), Ellsberg (1961), et enfin Slovic et Lichtenstein (1968), l’étude de ces articles permet de comprendre comment s’est opéré le passage de la Théorie de l’Utilité Attendue, à la Théorie de la Perspective. À l’issue de ces analyses et de celle de la Théorie de la Perspective est introduite la notion de Système de Référence Décisionnel, qui est la généralisation naturelle des concepts de fonction de valeur et de coefficient de pondération issus de la Théorie de la Perspective. Ce système, dont le fonctionnement est parfois heuristique, sert à modéliser la prise de décision dans l’élément de la représentation, il s’articule autour de trois phases : la visée, l’édition et l’évaluation. À partir de cette structure est proposée une nouvelle typologie des décisions et une explication inédite des phénomènes d’akrasie et de procrastination fondée sur les concepts d’aversion au risque et de surévaluation du présent, tous deux issus de la Théorie de la Perspective.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Réalisé en cotutelle avec l'Université Paris-Diderot.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire, composé d'un article en collaboration avec Monsieur Luc Vinet et Vincent X. Genest, est la suite du travail effectué sur les systèmes quantiques super-intégrables définis par des Hamiltoniens de type Dunkl. Plus particulièrement, ce mémoire vise l'analyse du problème de Coulomb-Dunkl dans le plan qui est une généralisation du système quantique de l'atome d'hydrogène impliquant des opérateurs de réflexion sur les variables x et y. Le modèle est défini par un potentiel en 1/r. Nous avons tout d'abord remarqué que l'Hamiltonien est séparable en coordonnées polaires et que les fonctions d'onde s'écrivent en termes de produits de polynômes de Laguerre généralisés et des harmoniques de Dunkl sur le cercle. L'algèbre générée par les opérateurs de symétrie nous a également permis de confirmer le caractère maximalement super-intégrable du problème de Coulomb-Dunkl. Nous avons aussi pu écrire explicitement les représentations de cette même algèbre. Nous avons finalement trouvé le spectre de l'énergie de manière algébrique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cette thèse, nous analysons les propriétés géométriques des surfaces obtenues des solutions classiques des modèles sigma bosoniques et supersymétriques en deux dimensions ayant pour espace cible des variétés grassmanniennes G(m,n). Plus particulièrement, nous considérons la métrique, les formes fondamentales et la courbure gaussienne induites par ces surfaces naturellement plongées dans l'algèbre de Lie su(n). Le premier chapitre présente des outils préliminaires pour comprendre les éléments des chapitres suivants. Nous y présentons les théories de jauge non-abéliennes et les modèles sigma grassmanniens bosoniques ainsi que supersymétriques. Nous nous intéressons aussi à la construction de surfaces dans l'algèbre de Lie su(n) à partir des solutions des modèles sigma bosoniques. Les trois prochains chapitres, formant cette thèse, présentent les contraintes devant être imposées sur les solutions de ces modèles afin d'obtenir des surfaces à courbure gaussienne constante. Ces contraintes permettent d'obtenir une classification des solutions en fonction des valeurs possibles de la courbure. Les chapitres 2 et 3 de cette thèse présentent une analyse de ces surfaces et de leurs solutions classiques pour les modèles sigma grassmanniens bosoniques. Le quatrième consiste en une analyse analogue pour une extension supersymétrique N=2 des modèles sigma bosoniques G(1,n)=CP^(n-1) incluant quelques résultats sur les modèles grassmanniens. Dans le deuxième chapitre, nous étudions les propriétés géométriques des surfaces associées aux solutions holomorphes des modèles sigma grassmanniens bosoniques. Nous donnons une classification complète de ces solutions à courbure gaussienne constante pour les modèles G(2,n) pour n=3,4,5. De plus, nous établissons deux conjectures sur les valeurs constantes possibles de la courbure gaussienne pour G(m,n). Nous donnons aussi des éléments de preuve de ces conjectures en nous appuyant sur les immersions et les coordonnées de Plücker ainsi que la séquence de Veronese. Ces résultats sont publiés dans la revue Journal of Geometry and Physics. Le troisième chapitre présente une analyse des surfaces à courbure gaussienne constante associées aux solutions non-holomorphes des modèles sigma grassmanniens bosoniques. Ce travail généralise les résultats du premier article et donne un algorithme systématique pour l'obtention de telles surfaces issues des solutions connues des modèles. Ces résultats sont publiés dans la revue Journal of Geometry and Physics. Dans le dernier chapitre, nous considérons une extension supersymétrique N=2 du modèle sigma bosonique ayant pour espace cible G(1,n)=CP^(n-1). Ce chapitre décrit la géométrie des surfaces obtenues des solutions du modèle et démontre, dans le cas holomorphe, qu'elles ont une courbure gaussienne constante si et seulement si la solution holomorphe consiste en une généralisation de la séquence de Veronese. De plus, en utilisant une version invariante de jauge du modèle en termes de projecteurs orthogonaux, nous obtenons des solutions non-holomorphes et étudions la géométrie des surfaces associées à ces nouvelles solutions. Ces résultats sont soumis dans la revue Communications in Mathematical Physics.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire est composé de trois articles et présente les résultats de travaux de recherche effectués dans le but d'améliorer les techniques actuelles permettant d'utiliser des données associées à certaines tâches dans le but d'aider à l'entraînement de réseaux de neurones sur une tâche différente. Les deux premiers articles présentent de nouveaux ensembles de données créés pour permettre une meilleure évaluation de ce type de techniques d'apprentissage machine. Le premier article introduit une suite d'ensembles de données pour la tâche de reconnaissance automatique de chiffres écrits à la main. Ces ensembles de données ont été générés à partir d'un ensemble de données déjà existant, MNIST, auquel des nouveaux facteurs de variation ont été ajoutés. Le deuxième article introduit un ensemble de données pour la tâche de reconnaissance automatique d'expressions faciales. Cet ensemble de données est composé d'images de visages qui ont été collectées automatiquement à partir du Web et ensuite étiquetées. Le troisième et dernier article présente deux nouvelles approches, dans le contexte de l'apprentissage multi-tâches, pour tirer avantage de données pour une tâche donnée afin d'améliorer les performances d'un modèle sur une tâche différente. La première approche est une généralisation des neurones Maxout récemment proposées alors que la deuxième consiste en l'application dans un contexte supervisé d'une technique permettant d'inciter des neurones à apprendre des fonctions orthogonales, à l'origine proposée pour utilisation dans un contexte semi-supervisé.