32 resultados para all substring common subsequence problem


Relevância:

30.00% 30.00%

Publicador:

Resumo:

A common real-life problem is to fairly allocate a number of indivisible objects and a fixed amount of money among a group of agents. Fairness requires that each agent weakly prefers his consumption bundle to any other agent’s bundle. Under fairness, efficiency is equivalent to budget-balance (all the available money is allocated among the agents). Budget-balance and fairness in general are incompatible with non-manipulability (Green and Laffont, 1979). We propose a new notion of the degree of manipulability which can be used to compare the ease of manipulation in allocation mechanisms. Our measure counts for each problem the number of agents who can manipulate the rule. Given this notion, the main result demonstrates that maximally linked fair allocation rules are the minimally manipulable rules among all budget-balanced and fair allocation mechanisms. Such rules link any agent to the bundle of a pre-selected agent through indifferences (which can be viewed as indirect egalitarian equivalence).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le problème de localisation-routage avec capacités (PLRC) apparaît comme un problème clé dans la conception de réseaux de distribution de marchandises. Il généralisele problème de localisation avec capacités (PLC) ainsi que le problème de tournées de véhicules à multiples dépôts (PTVMD), le premier en ajoutant des décisions liées au routage et le deuxième en ajoutant des décisions liées à la localisation des dépôts. Dans cette thèse on dévelope des outils pour résoudre le PLRC à l’aide de la programmation mathématique. Dans le chapitre 3, on introduit trois nouveaux modèles pour le PLRC basés sur des flots de véhicules et des flots de commodités, et on montre comment ceux-ci dominent, en termes de la qualité de la borne inférieure, la formulation originale à deux indices [19]. Des nouvelles inégalités valides ont été dévelopées et ajoutées aux modèles, de même que des inégalités connues. De nouveaux algorithmes de séparation ont aussi été dévelopés qui dans la plupart de cas généralisent ceux trouvés dans la litterature. Les résultats numériques montrent que ces modèles de flot sont en fait utiles pour résoudre des instances de petite à moyenne taille. Dans le chapitre 4, on présente une nouvelle méthode de génération de colonnes basée sur une formulation de partition d’ensemble. Le sous-problème consiste en un problème de plus court chemin avec capacités (PCCC). En particulier, on utilise une relaxation de ce problème dans laquelle il est possible de produire des routes avec des cycles de longueur trois ou plus. Ceci est complété par des nouvelles coupes qui permettent de réduire encore davantage le saut d’intégralité en même temps que de défavoriser l’apparition de cycles dans les routes. Ces résultats suggèrent que cette méthode fournit la meilleure méthode exacte pour le PLRC. Dans le chapitre 5, on introduit une nouvelle méthode heuristique pour le PLRC. Premièrement, on démarre une méthode randomisée de type GRASP pour trouver un premier ensemble de solutions de bonne qualité. Les solutions de cet ensemble sont alors combinées de façon à les améliorer. Finalement, on démarre une méthode de type détruir et réparer basée sur la résolution d’un nouveau modèle de localisation et réaffectation qui généralise le problème de réaffectaction [48].

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les projets interdisciplinaires constituent rarement le terrain des études 
sur le processus de conception en design. Les théories générales du design, en tentant de définir ce qui est commun à toutes les disciplines du design, ont davantage étudié les cas typiques que les cas atypiques. Or, nous croyons qu’il existe dans les projets interdisciplinaires une négociation argumentative et une ouverture vers l’autre, propice à l’analyse du processus de conception en design. Pour réaliser l’étude de ce processus, la stratégie empruntée a été la «recherche-projet» qui propose une participation active sur le terrain. 
À l’intérieur de cette stratégie méthodologique, nous avons réalisé l’étude de cas d’un projet hybride, une signalétique identitaire destinée à marquer les écocentres montréalais et orienter leurs usagers. Comme plusieurs autres pratiques du design, la complexité des projets interdisciplinaires demande l’apport de plusieurs acteurs dans le processus. 
Ces personnes conçoivent le projet à travers des représentations visuelles et des échanges verbaux, nous avons choisi de faire porter notre étude principalement sur le second. Pour ce faire, nous avons choisi comme cadre théorique le Traité de l’argumentation de Chaïm Perelman et Lucie Olbrechts-Tyteca en nous intéressant plus spécifiquement aux concepts d’«accord» et d’«auditoire». Parce que le véhicule de l’action en design est la notion de «projet», l’Anthropologie du projet de Jean-Pierre Boutinet sera notre guide à travers cette conduite. L’objet de recherche de ce mémoire sera donc le processus de conception en design qui sera étudié à travers le regard de l’argumentation. L’argumentation s'est révélée la clé du problème que posent les jugements de valeur, commune à toutes les disciplines du design. Qu’est-ce qu’un «bon» projet réalisé? Est-il possible de répondre à cette question, sans tomber dans un cadre argumentatif, sans devoir révéler les arguments qui nous permettent de croire vraisemblable une telle proposition? C’est en mettant en lien la théorie du projet en design et la théorie de l’argumentation que nous avons éclairé la pratique du designer, sa relation à ses collègues et ultimement avec lui-même. L’argumentation s’est avérée un outil permettant la construction de la réalité dans le projet interdisciplinaire.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le réalisme des images en infographie exige de créer des objets (ou des scènes) de plus en plus complexes, ce qui entraîne des coûts considérables. La modélisation procédurale peut aider à automatiser le processus de création, à simplifier le processus de modification ou à générer de multiples variantes d'une instance d'objet. Cependant même si plusieurs méthodes procédurales existent, aucune méthode unique permet de créer tous les types d'objets complexes, dont en particulier un édifice complet. Les travaux réalisés dans le cadre de cette thèse proposent deux solutions au problème de la modélisation procédurale: une solution au niveau de la géométrie de base, et l’autre sous forme d'un système général adapté à la modélisation des objets complexes. Premièrement, nous présentons le bloc, une nouvelle primitive de modélisation simple et générale, basée sur une forme cubique généralisée. Les blocs sont disposés et connectés entre eux pour constituer la forme de base des objets, à partir de laquelle est extrait un maillage de contrôle pouvant produire des arêtes lisses et vives. La nature volumétrique des blocs permet une spécification simple de la topologie, ainsi que le support des opérations de CSG entre les blocs. La paramétrisation de la surface, héritée des faces des blocs, fournit un soutien pour les textures et les fonctions de déplacements afin d'appliquer des détails de surface. Une variété d'exemples illustrent la généralité des blocs dans des contextes de modélisation à la fois interactive et procédurale. Deuxièmement, nous présentons un nouveau système de modélisation procédurale qui unifie diverses techniques dans un cadre commun. Notre système repose sur le concept de composants pour définir spatialement et sémantiquement divers éléments. À travers une série de déclarations successives exécutées sur un sous-ensemble de composants obtenus à l'aide de requêtes, nous créons un arbre de composants définissant ultimement un objet dont la géométrie est générée à l'aide des blocs. Nous avons appliqué notre concept de modélisation par composants à la génération d'édifices complets, avec intérieurs et extérieurs cohérents. Ce nouveau système s'avère général et bien adapté pour le partionnement des espaces, l'insertion d'ouvertures (portes et fenêtres), l'intégration d'escaliers, la décoration de façades et de murs, l'agencement de meubles, et diverses autres opérations nécessaires lors de la construction d'un édifice complet.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Même si la coopération policière transnationale est l’objet ces dernières années d’un engouement souvent attribué à des vertus d’efficacité, il reste que relativement peu d’informations sont disponibles sur le processus en lui-même. L’objectif général de la thèse était de fournir une analyse englobant à la fois les préoccupations des autorités politiques et celles des acteurs judiciaires et policiers. Ces acteurs occupent tous des rôles nécessaires dans le système de la coopération policière transnationale, mais outre cette constatation, les études à leur sujet ne se recoupent pas véritablement. C’est donc dire que, d’une part, les études sur les acteurs politiques se concentrent sur les décisions prises par ceux-ci, sur l’élaboration de concepts et sur la signature de conventions. D’autre part, les études sur les acteurs policiers et judiciaires mettent l’accent sur le déroulement quotidien des activités policières transnationales et sur ce qui s’ensuit, c’est-à-dire les procédures judiciaires. À l’aide de concepts tels que la discrétion et la souplesse, la familiarité, la confiance, la méfiance, le scepticisme et l’évitement, nous tentons de rallier les récents concepts de reconnaissance mutuelle et de confiance mutuelle avec ce qui se passe effectivement dans le monde opérationnel. La thèse, qui s’intéresse principalement à la coopération policière transnationale en matière de trafic de drogues, s’appuie sur deux types de données. Tout d’abord, des entrevues qualitatives semi-dirigées ont été menées auprès de 21 policiers et procureurs. Ensuite, une analyse documentaire a été effectuée sur des documents canadiens, soit les sept jurisprudences sur l’extranéité et un guide rédigé par un procureur à l’intention des enquêteurs œuvrant dans les enquêtes. Nous allons présenter rapidement les résultats les plus importants de la thèse. Dans le premier chapitre, il a été question de deux niveaux de structures de pouvoir, qui n’évoluent pas en vases clos, mais qui s’influencent mutuellement. C’est dire que le levier d’influence des acteurs étatiques sur les acteurs du policing transnational peut être relativement puissant, mais que des parades peuvent toujours être utilisées par les policiers dans des cas spécifiques. Nadelmann (1993) avait raison lorsqu’il a soutenu qu’une norme adoptée au niveau transnational n’est pas nécessairement utile à la réalisation des objectifs communs des États, c’est-à-dire l’immobilisation des criminels. La norme est le produit d’une négociation politique et d’un jeu de pouvoir. Au final, elle n’influe pas énormément sur les décisions prises par les policiers dans les enquêtes à composantes transnationales. Au mieux, elle est un guide de règles à ne pas violer ouvertement et impunément. De plus, alors que les pays et les organisations utilisent un système de récompense, d’incitatifs ou de menace de sanctions pour favoriser la coopération policière transnationale en vu d’une participation à une enquête à composantes transnationales, les individus qui travaillent dans les enquêtes à composantes transnationales utilisent la familiarité et valorisent la confiance comme moyen pour établir et maintenir des liens. Ces individus ne peuvent pas s’obliger entre eux, alors qu’il existe la possibilité d’imposer des sanctions réelles entre acteurs étatiques. Il s’agit donc de deux niveaux d’analyse, dans lesquelles la configuration des relations est différente. Dans le deuxième chapitre d’analyse, nous avons examiné les jurisprudences canadiennes et le guide d’un procureur à l’intention des policiers, ce qui nous a amené à constater la discrétion laissée par les agents judiciaires aux policiers travaillant au sein d’enquêtes à composantes transnationales. En fait, nous avons trouvé que les agents judiciaires sont conscients des difficultés des enquêtes à composantes transnationales et qu’ils sont plus flexibles dans ces cas que dans les enquêtes nationales. Le troisième chapitre d’analyse a montré que de nombreux moyens sont à la disposition des agents de l’enquête, et qu’une certaine logique sous-tendait les choix des policiers. Plus particulièrement, c’est la gestion des incertitudes, la nature de l’information et son utilisation envisagée qui importe pour les agents de l’enquête à composantes transnationale. Finalement, le dernier chapitre d’analyse illustre les différents types de relations entretenues entre agents de l’enquête. Nous avons trouvé que le scepticisme est prépondérant mais que la coopération demeure le plus souvent possible, lorsque les acteurs ont des intérêts en commun. Une certaine familiarité entre les acteurs est nécessaire, mais la confiance n’est pas toujours essentielle à la mise en œuvre des activités policières transnationales. En fait, cela dépend du niveau d’échanges nécessaires et du contexte. Gambetta (1988) avait d’ailleurs montré qu’une structure sociale relativement stable puisse se maintenir dans un contexte généralisé de méfiance.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La présente thèse de doctorat visait d’abord à valider les résultats des études antérieures démontrant un accroissement de la prévalence des problèmes de santé mentale et ensuite, à évaluer l’importance du contexte social dans l’explication des changements de prévalence, à partir des effets d’âge, de période et de cohorte. L’atteinte de ces objectifs s’est faite à partir de deux études empiriques, chacune ciblant sa propre problématique en santé mentale. La première étude, basée sur les données de l’Enquête longitudinale nationale sur les enfants et les jeunes (ELNEJ) de Statistique Canada, a permis de conclure à un accroissement réel de la prévalence du diagnostic de trouble déficitaire de l’attention/hyperactivité (TDA/H) et de la consommation de psychostimulants chez les enfants canadiens entre 1994 et 2007. Toutefois, cette tendance n’est ni constante, ni universelle, puisque des effets de période et d’âge apparaissent clairement : l’augmentation des prévalences est uniquement remarquée dans les années 2000, et survient seulement chez les enfants d’âge scolaire. L’identification d’inégalités de prévalence dues à la période historique et à l’âge des enfants souligne l’importance du contexte social dans la problématique du diagnostic de TDA/H et de la consommation de psychostimulants. La seconde étude a été réalisée à partir des données du Panel Study of Belgian Households (PSBH) et cherchait à expliquer l’accroissement des symptômes dépressifs observé ces vingt dernières années chez les adultes belges. L’utilisation de l’analyse multiniveaux longitudinale permettant la distinction des effets d’âge et des effets de cohortes a été privilégiée. Bien que l’intensité des symptômes dépressifs ait varié de manière relativement importante chez les individus au cours des années 1990, nos conclusions démontrent que les symptômes auto-rapportés de dépression sont davantage associés aux conditions de vie, qu’à la personnalité. L’augmentation résulte d’un effet de la succession des cohortes, où les individus des cohortes les plus récentes rapportent toujours une plus grande intensité de symptômes dépressifs que les individus des cohortes précédentes. Les membres d’une même cohorte de naissance partagent donc des expériences communes à un âge similaire, ce qui a un impact durable sur leurs comportements et sur leur santé mentale. De manière générale, les résultats des deux articles empiriques ont, chacun à leur manière, confirmé la réalité de l’accroissement des problèmes de santé mentale dans les sociétés occidentales contemporaines, et permis de constater que la prévalence diffère selon l’âge et la cohorte de naissance des individus, ainsi que selon la période historique, renforçant ainsi l’hypothèse de l’importance des facteurs sociaux dans l’étiologie des problèmes de santé mentale. Bien que la nature de ces facteurs n’ait pu être testée de manière directe, de nombreuses explications sociales furent tout de même proposées. À cet égard, des changements dans les normes comportementales associées à l’âge, dans les normes sociales, dans la conceptualisation des troubles mentaux, des modifications dans la sphère éducative, ainsi que des innovations pharmacologiques, médicales et technologiques constituent des explications sociales aux effets d’âge, de période et de cohorte qui ont été observés.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il est convenu de dire que la famille d’aujourd’hui se construit de multiples façons. Les familles recomposées, issues des nouvelles technologies de la reproduction, de l’adoption internationale ou dont les parents sont de même sexe font partie du paysage depuis de nombreuses années, au point où elles n’étonnent plus. Ces familles ont comme particularité de remettre en question l’adéquation entre la sexualité du couple et la reproduction tout en introduisant d’autres personnes dans la conception ou dans l’éducation des enfants. Malgré la polymorphie des familles contemporaines, perdure toutefois une certaine représentation de la famille basée sur le sang partagé entre les différents membres qui la composent. En ce sens, les « vrais » parents sont ceux qui sont à l’origine de la naissance de l’enfant (Déchaux, 2007; Deliège, 2005). Parallèlement à cela, on constate l’émergence d’un discours centré sur l’importance du père pour le développement et le bien-être de l’enfant, au point où l’absence du père au sein du foyer familial tend de plus en plus à être conceptualisée comme un problème social majeur (Kelly, 2009). De fait, les recherches démontrent que l’engagement paternel profite autant aux enfants qu’au père et à la mère. C’est dans ce contexte que s’inscrivent les familles lesboparentales dont les enfants sont nés d’un donneur connu. Cette thèse a comme objectif de comprendre le rôle du donneur au sein des familles lesboparentales, à savoir la place que lui font les mères dans leur projet parental. Nous cherchons également à comprendre comment ce rôle s’actualise. Pour ce faire, nous avons interrogé neuf (9) couples lesbiens et les neuf (9) donneurs à l’origine de leur projet parental. Les résultats présentent un niveau différencié d’implication des donneurs en fonction de la mise à distance ou de l’appropriation par les mères du schéma nucléaire traditionnel.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Si le rapport entre Derrida et Bergson n’a pas fait l’objet de nombreuses études, les commentaires existants témoignent à peu près tous d’une vision commune : entre les deux philosophes, les divergences peuvent être atténuées, voire dissoutes, par la considération de convergences plus fondamentales. Les pages qui suivent seront l’occasion pour nous de faire contrepoids à cette vulgate interprétative. Sans nier l’existence de points de contact entre Derrida et Bergson, nous voudrions en effet montrer qu’un important désaccord subsiste entre eux au sujet de la possibilité de l’intuition. Alors que Derrida met en cause les doctrines intuitionnistes, Bergson érige l’intuition en méthode philosophique. Le présent mémoire prendra pour fil conducteur les motifs de cette discorde. Réduit à sa plus simple expression, l’objectif que nous y poursuivrons sera de montrer que les pensées bergsonienne et derridienne, lorsque mises en dialogue, révèlent un désaccord partiel qui permet de réfléchir de façon féconde sur la possibilité de l’intuition. Pour être plus exact, nous caresserons ici une triple ambition : i/ cerner étroitement l’objet du litige entre Derrida et Bergson, trop peu souligné par les commentateurs, et dont nous montrons qu’il s’articule à une entente partielle ; ii/ tirer au clair les diverses raisons qui amènent l’un à s’en prendre à l’intuition, l’autre à embrasser la méthode intuitive ; iii/ établir que certains arguments de Bergson, bien qu’ils connaissent un regain d’intérêt depuis quelques années, paraissent lacunaires lorsqu’on les confronte à différentes objections.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le virus du papillome humain (HPV) est l’infection sexuellement transmise la plus fréquente au monde. Plusieurs études ont établi son implication dans l’étiologie de pratiquement tous les cancers du col de l’utérus, une maladie qui constitue un problème de santé majeur dans les pays pauvres. Le HPV est également responsable de 90% des cancers de l’anus, 40-50% des cancers du pénis, de la vulve et du vagin, et 30% des cancers de la tête et du cou. L’objectif général de cette thèse est de combler les lacunes relatives aux connaissances sur la distribution génotypique du HPV dans les lésions néoplasiques cervicales utérines et de la tête et du cou, plus particulièrement en Afrique. Les objectifs spécifiques sont les suivants: 1) analyser la distribution génotypique du HPV dans les cancers du col de l’utérus et faire une analyse comparative de cette distribution dans cinq pays africains en fonction de la prévalence du VIH; 2) évaluer la présence du HPV dans les cancers de la tête et du cou au Sénégal; 3) faire une revue de la littérature et une méta-analyse sur la distribution du HPV dans les cancers de la tête et du cou dans toutes les régions du monde. Pour le premier et le second objectifs, qui découlent d’un large projet international coordonné par l’Institut Catalan d’Oncologie pour l’Organisation Mondiale de la Santé (OMS), une étude transversale multicentrique a été menée au Mali et au Sénégal pour collecter des blocs de paraffine de patientes diagnostiquées entre 2001 et 2010 du cancer invasif du col et des cancers de la tête et du cou. Pour le troisième objectif, une revue exhaustive de la littérature a permis d’identifier tous les articles qui ont été publiés sur les cancers de la tête et du cou dans tous les pays du monde et d’effectuer une méta-analyse sur la prévalence de l’ADN du HPV selon le site du cancer et la région géographique. Notre analyse montre que les principaux types de HPV ciblés dans les vaccins prophylactiques (HPV16/18) représentent la majorité des types de HPV détectés dans le cancer invasif du col de l’utérus en Afrique subsaharienne. Par contre, le HPV45 vient au second rang dans certains pays d’Afrique, dont le Mali et le Sénégal. Nos données suggèrent également que le VIH aurait un rôle dans la contribution relative du HPV18 et HPV45 dans le développement du cancer du col de l’utérus. Au Sénégal, notre étude montre que la prévalence du HPV dans les cancers de la tête et du cou est très faible et ne semble pas jouer un rôle important dans l’oncogenèse. Finalement, la méta-analyse a mesuré la prévalence des HPV dans les cancers de la cavité orale, de l’oropharynx, du larynx et de l’hypopharynx, et confirme l’importante contribution relative du HPV16 dans ces cancers. Globalement, cette thèse permet de mieux comprendre l’impact potentiel des vaccins prophylactiques sur l’incidence des cancers associés au HPV.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le problème de l’extrême pauvreté dans le Tiers-monde n’est pas d’abord une question économique. Il est avant tout politique parce qu’il est la conséquence directe des choix de société et de l’organisation du pouvoir au niveau des États et des diverses instances de la communauté internationale. Le politique a pour objet la conquête du pouvoir et la répartition des richesses à grande échelle. Il s’agit aussi d’un problème moral parce que les options prises collectivement par les peuples et le concert des nations ne s’orientent pas toujours vers la vertu de justice et l’égalité de chances pour tous. Extrême pauvreté et justice globale forment un binôme qui nous ramène donc au cœur de la philosophie politique et morale. Après la Seconde guerre mondiale, la philosophie politique a élargi ses horizons. Elle réfléchit davantage à l’exercice du pouvoir sur la scène internationale et la distribution des richesses au niveau mondial. Le phénomène de la mondialisation économique crée une dépendance mutuelle et d’importantes influences multilatérales entre les États. Plus que par le passé, l’autarcie n’est guère envisageable. Le dogme de la souveraineté intangible des États, issu du Traité de Westphalie au XVIIe siècle, s’avère de plus en plus caduque au regard des enjeux communs auxquels l’humanité fait actuellement face. D’où la nécessité d’une redéfinition du sens des souverainetés nationales et d’une fondation des droits cosmopolitiques pour chaque individu de la planète. Voilà pourquoi le binôme extrême pauvreté/justice globale nécessite une réflexion philosophique sur le concept de la responsabilité qui s’étend non seulement sur la sphère nationale, mais aussi sur une large amplitude cosmopolitique. L’expression « pays du Tiers-monde » peut sembler archaïque, péjorative et humiliante. Cependant, mieux que celles de « pays sous-développés » ou « pays en voie de développement », elle rend compte, sans euphémisme, de la réalité crue, brute et peu élégante de la misère politique et économique qui y sévit. Bien qu’elle semble désuète, elle délimite assez clairement le domaine de définition conceptuel et géographique de notre champ d’investigation philosophique. Elle désigne l’ensemble des pays qui sont exclus de la richesse économique répartie entre les nations. Étant donné que le pouvoir économique va généralement avec le pouvoir politique, cet ensemble est aussi écarté des centres décisionnels majeurs. Caractérisée par une pauvreté extrême, la réalité tiers-mondiste nécessité une analyse minutieuse des causes de cette marginalisation économique et politique à outrance. Une typologie de la notion de responsabilité en offre une figure conceptuelle avec une géométrie de six angles : la causalité, la moralité, la capacité, la communauté, le résultat et la solidarité, comme fondements de la réparation. Ces aspects sous lesquels la responsabilité est étudiée, sont chapeautés par des doctrines philosophiques de types conséquentialiste, utilitariste, déontologique et téléologique. La typologie de la responsabilité donne lieu à plusieurs solutions : aider par philanthropie à sauver des vies humaines ; établir et assigner des responsabilités afin que les torts passés et présents soient réparés aussi bien au niveau national qu’international ; promouvoir l’obligation de protéger dans un contexte international sain qui prenne en considération le devoir négatif de ne pas nuire aux plus défavorisés de la planète ; institutionnaliser des règles transfrontalières de justice ainsi que des droits cosmopolitiques. Enfin, nous entendrons par omniresponsabilité la responsabilité de tous vis-à-vis de ceux qui subissent les affres de l’extrême pauvreté dans le Tiers-monde. Loin d’être un concept-valise fourre-tout, c’est un ensemble de responsabilités partagées par des acteurs identifiables de la scène mondiale, en vue de la coréparation due aux victimes de l’injustice globale. Elle vise un telos : l’épanouissement du bien-être du citoyen du monde.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il y a quelques décennies, l’émergence du discours de la promotion de la santé infléchissait un nouveau tournant à la santé publique, orientant sa pratique vers l’action communautaire, participative et intersectorielle. Parallèlement, au Québec, la réforme du système de santé de 2004 réorganisait le niveau de gouverne locale à travers la création des centres de santé et de services sociaux (CSSS). Ceux-ci doivent articuler les secteurs des soins et de la santé publique à travers un continuum de services qui va de la promotion de la santé aux soins palliatifs. Ces changements ont des implications majeures pour les acteurs de la santé et de la santé publique, qui doivent composer avec de nouveaux rôles professionnels et de nouvelles stratégies d’action. Le développement professionnel est considéré comme un levier potentiel pour soutenir ces changements. En 2009, une équipe de la Direction de la santé publique de l’Agence de santé et des services sociaux de Montréal concevait un programme de développement professionnel appelé le Laboratoire de promotion de la santé. Ce programme mise sur une approche d’apprentissage de groupe pour permettre aux professionnels des CSSS de développer de nouvelles compétences, une pratique réflexive ainsi que de nouvelles pratiques de promotion de la santé. Basée sur une méthodologie générale qualitative et une approche d’évaluation collaborative, cette thèse utilise plusieurs stratégies d’investigation afin d’évaluer le Laboratoire de promotion de la santé sous trois angles, qui renvoient à sa conceptualisation, à son implantation et à ses effets. Plus spécifiquement, elle vise à : (1) examiner la plausibilité de la théorie d’intervention du programme; (2) décrire et comprendre les processus d’apprentissage d’équipe ainsi que les facteurs qui les influencent; et (3) explorer, du point de vue des participants, les effets réflexifs du Laboratoire. Afin de répondre à ces objectifs, la thèse mobilise diverses perspectives théoriques liées à l’apprentissage individuel, d’équipe et organisationnel. Les résultats des analyses démontrent que : (1) malgré quelques améliorations possibles, le modèle du programme est généralement bien conçu pour parvenir aux résultats visés; (2) l’implantation de ce modèle dans deux sites a donné lieu à des processus d’apprentissage d’équipe différents, bien que conditionnés par des facteurs communs liés aux participants, à l’équipe, au contexte organisationnel et à l’implantation du programme; (3) tel que visé, les participants des deux sites ont développé de la réflexivité vis-à-vis leur pratique et leur rôle professionnel – cette réflexivité adoptant une fonction formative ou critique en regard de l’expérience professionnelle. Ces résultats soulignent le potentiel que représente l’évaluation de la théorie d’intervention pour améliorer la conceptualisation d’un programme de développement professionnel, ainsi que l’intérêt et la pertinence d’évaluer les processus d’apprentissage au niveau de l’équipe dans le cadre d’une approche collective de développement professionnel. De plus, ils appuient l’importance de l’apprentissage réflexif pour l’amélioration des pratiques et l’engagement social des professionnels. En ce sens, ils proposent différentes avenues qui ont le potentiel de consolider les capacités de la main-d’œuvre de santé publique et d’influer conséquemment sur son efficacité à améliorer la santé des collectivités dans le prochain siècle.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nous étudions la gestion de centres d'appels multi-compétences, ayant plusieurs types d'appels et groupes d'agents. Un centre d'appels est un système de files d'attente très complexe, où il faut généralement utiliser un simulateur pour évaluer ses performances. Tout d'abord, nous développons un simulateur de centres d'appels basé sur la simulation d'une chaîne de Markov en temps continu (CMTC), qui est plus rapide que la simulation conventionnelle par événements discrets. À l'aide d'une méthode d'uniformisation de la CMTC, le simulateur simule la chaîne de Markov en temps discret imbriquée de la CMTC. Nous proposons des stratégies pour utiliser efficacement ce simulateur dans l'optimisation de l'affectation des agents. En particulier, nous étudions l'utilisation des variables aléatoires communes. Deuxièmement, nous optimisons les horaires des agents sur plusieurs périodes en proposant un algorithme basé sur des coupes de sous-gradients et la simulation. Ce problème est généralement trop grand pour être optimisé par la programmation en nombres entiers. Alors, nous relaxons l'intégralité des variables et nous proposons des méthodes pour arrondir les solutions. Nous présentons une recherche locale pour améliorer la solution finale. Ensuite, nous étudions l'optimisation du routage des appels aux agents. Nous proposons une nouvelle politique de routage basé sur des poids, les temps d'attente des appels, et les temps d'inoccupation des agents ou le nombre d'agents libres. Nous développons un algorithme génétique modifié pour optimiser les paramètres de routage. Au lieu d'effectuer des mutations ou des croisements, cet algorithme optimise les paramètres des lois de probabilité qui génèrent la population de solutions. Par la suite, nous développons un algorithme d'affectation des agents basé sur l'agrégation, la théorie des files d'attente et la probabilité de délai. Cet algorithme heuristique est rapide, car il n'emploie pas la simulation. La contrainte sur le niveau de service est convertie en une contrainte sur la probabilité de délai. Par après, nous proposons une variante d'un modèle de CMTC basé sur le temps d'attente du client à la tête de la file. Et finalement, nous présentons une extension d'un algorithme de coupe pour l'optimisation stochastique avec recours de l'affectation des agents dans un centre d'appels multi-compétences.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’évolution récente des commutateurs de sélection de longueurs d’onde (WSS -Wavelength Selective Switch) favorise le développement du multiplexeur optique d’insertionextraction reconfigurable (ROADM - Reconfigurable Optical Add/Drop Multiplexers) à plusieurs degrés sans orientation ni coloration, considéré comme un équipement fort prometteur pour les réseaux maillés du futur relativement au multiplexage en longueur d’onde (WDM -Wavelength Division Multiplexing ). Cependant, leur propriété de commutation asymétrique complique la question de l’acheminement et de l’attribution des longueur d’ondes (RWA - Routing andWavelength Assignment). Or la plupart des algorithmes de RWA existants ne tiennent pas compte de cette propriété d’asymétrie. L’interruption des services causée par des défauts d’équipements sur les chemins optiques (résultat provenant de la résolution du problème RWA) a pour conséquence la perte d’une grande quantité de données. Les recherches deviennent ainsi incontournables afin d’assurer la survie fonctionnelle des réseaux optiques, à savoir, le maintien des services, en particulier en cas de pannes d’équipement. La plupart des publications antérieures portaient particulièrement sur l’utilisation d’un système de protection permettant de garantir le reroutage du trafic en cas d’un défaut d’un lien. Cependant, la conception de la protection contre le défaut d’un lien ne s’avère pas toujours suffisante en termes de survie des réseaux WDM à partir de nombreux cas des autres types de pannes devenant courant de nos jours, tels que les bris d’équipements, les pannes de deux ou trois liens, etc. En outre, il y a des défis considérables pour protéger les grands réseaux optiques multidomaines composés de réseaux associés à un domaine simple, interconnectés par des liens interdomaines, où les détails topologiques internes d’un domaine ne sont généralement pas partagés à l’extérieur. La présente thèse a pour objectif de proposer des modèles d’optimisation de grande taille et des solutions aux problèmes mentionnés ci-dessus. Ces modèles-ci permettent de générer des solutions optimales ou quasi-optimales avec des écarts d’optimalité mathématiquement prouvée. Pour ce faire, nous avons recours à la technique de génération de colonnes afin de résoudre les problèmes inhérents à la programmation linéaire de grande envergure. Concernant la question de l’approvisionnement dans les réseaux optiques, nous proposons un nouveau modèle de programmation linéaire en nombres entiers (ILP - Integer Linear Programming) au problème RWA afin de maximiser le nombre de requêtes acceptées (GoS - Grade of Service). Le modèle résultant constitue celui de l’optimisation d’un ILP de grande taille, ce qui permet d’obtenir la solution exacte des instances RWA assez grandes, en supposant que tous les noeuds soient asymétriques et accompagnés d’une matrice de connectivité de commutation donnée. Ensuite, nous modifions le modèle et proposons une solution au problème RWA afin de trouver la meilleure matrice de commutation pour un nombre donné de ports et de connexions de commutation, tout en satisfaisant/maximisant la qualité d’écoulement du trafic GoS. Relativement à la protection des réseaux d’un domaine simple, nous proposons des solutions favorisant la protection contre les pannes multiples. En effet, nous développons la protection d’un réseau d’un domaine simple contre des pannes multiples, en utilisant les p-cycles de protection avec un chemin indépendant des pannes (FIPP - Failure Independent Path Protecting) et de la protection avec un chemin dépendant des pannes (FDPP - Failure Dependent Path-Protecting). Nous proposons ensuite une nouvelle formulation en termes de modèles de flots pour les p-cycles FDPP soumis à des pannes multiples. Le nouveau modèle soulève un problème de taille, qui a un nombre exponentiel de contraintes en raison de certaines contraintes d’élimination de sous-tour. Par conséquent, afin de résoudre efficacement ce problème, on examine : (i) une décomposition hiérarchique du problème auxiliaire dans le modèle de décomposition, (ii) des heuristiques pour gérer efficacement le grand nombre de contraintes. À propos de la protection dans les réseaux multidomaines, nous proposons des systèmes de protection contre les pannes d’un lien. Tout d’abord, un modèle d’optimisation est proposé pour un système de protection centralisée, en supposant que la gestion du réseau soit au courant de tous les détails des topologies physiques des domaines. Nous proposons ensuite un modèle distribué de l’optimisation de la protection dans les réseaux optiques multidomaines, une formulation beaucoup plus réaliste car elle est basée sur l’hypothèse d’une gestion de réseau distribué. Ensuite, nous ajoutons une bande pasiv sante partagée afin de réduire le coût de la protection. Plus précisément, la bande passante de chaque lien intra-domaine est partagée entre les p-cycles FIPP et les p-cycles dans une première étude, puis entre les chemins pour lien/chemin de protection dans une deuxième étude. Enfin, nous recommandons des stratégies parallèles aux solutions de grands réseaux optiques multidomaines. Les résultats de l’étude permettent d’élaborer une conception efficace d’un système de protection pour un très large réseau multidomaine (45 domaines), le plus large examiné dans la littérature, avec un système à la fois centralisé et distribué.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le contrôle des mouvements du bras fait intervenir plusieurs voies provenant du cerveau. Cette thèse, composée principalement de deux études, tente d’éclaircir les contributions des voies tirant leur origine du système vestibulaire et du cortex moteur. Dans la première étude (Raptis et al 2007), impliquant des mouvements d’atteinte, nous avons cerné l’importance des voies descendantes partant du système vestibulaire pour l’équivalence motrice, i.e. la capacité du système moteur à atteindre un but moteur donné lorsque le nombre de degrés de liberté articulaires varie. L’hypothèse émise était que le système vestibulaire joue un rôle essentiel dans l’équivalence motrice. Nous avons comparé la capacité d’équivalence motrice de sujets sains et de patients vestibulodéficients chroniques lors de mouvements nécessitant un contrôle des positions du bras et du tronc. Pendant que leur vision était temporairement bloquée, les sujets devaient soit maintenir une position de l’index pendant une flexion du tronc, soit atteindre une cible dans l’espace péri-personnel en combinant le mouvement du bras avec une flexion du tronc. Lors d’essais déterminés aléatoirement et imprévus par les participants, leur tronc était retenu par un mécanisme électromagnétique s’activant en même temps que le signal de départ. Les sujets sains ont pu préserver la position ou la trajectoire de l’index dans les deux conditions du tronc (libre, bloqué) en adaptant avec une courte latence (60-180 ms) les mouvements articulaires au niveau du coude et de l’épaule. En comparaison, six des sept patients vestibulodéficients chroniques ont présenté des déficits au plan des adaptations angulaires compensatoires. Pour ces patients, entre 30 % et 100 % du mouvement du tronc n’a pas été compensé et a été transmis à la position ou trajectoire de l’index. Ces résultats indiqueraient que les influences vestibulaires évoquées par le mouvement de la tête pendant la flexion du tronc jouent un rôle majeur pour garantir l’équivalence motrice dans ces tâches d’atteinte lorsque le nombre de degrés de liberté articulaires varie. Également, ils démontrent que la plasticité de long terme survenant spontanément après une lésion vestibulaire unilatérale complète ne serait pas suffisante pour permettre au SNC de retrouver un niveau d’équivalence motrice normal dans les actions combinant un déplacement du bras et du tronc. Ces tâches de coordination bras-tronc constituent ainsi une approche inédite et sensible pour l’évaluation clinique des déficits vestibulaires. Elles permettent de sonder une dimension fonctionnelle des influences vestibulaires qui n’était pas prise en compte dans les tests cliniques usuels, dont la sensibilité relativement limitée empêche souvent la détection d’insuffisances vestibulaires six mois après une lésion de ces voies. Avec cette première étude, nous avons donc exploré comment le cerveau et les voies descendantes intègrent des degrés de liberté articulaires supplémentaires dans le contrôle du bras. Dans la seconde étude (Raptis et al 2010), notre but était de clarifier la nature des variables spécifiées par les voies descendantes pour le contrôle d’actions motrices réalisées avec ce membre. Nous avons testé l’hypothèse selon laquelle les voies corticospinales contrôlent la position et les mouvements des bras en modulant la position-seuil (position de référence à partir de laquelle les muscles commencent à être activés en réponse à une déviation de cette référence). Selon ce principe, les voies corticospinales ne spécifieraient pas directement les patrons d’activité EMG, ce qui se refléterait par une dissociation entre l’EMG et l’excitabilité corticospinale pour des positions-seuils différentes. Dans un manipulandum, des participants (n=16) ont modifié leur angle du poignet, d’une position de flexion (45°) à une position d’extension (-25°), et vice-versa. Les forces élastiques passives des muscles ont été compensées avec un moteur couple afin que les sujets puissent égaliser leur activité EMG de base dans les deux positions. L’excitabilité motoneuronale dans ces positions a été comparée à travers l’analyse des réponses EMG évoquées à la suite d’étirements brefs. Dans les deux positions, le niveau d’EMG et l’excitabilité motoneuronale étaient semblables. De plus, ces tests ont permis de montrer que le repositionnement du poignet était associé à une translation de la position-seuil. Par contre, malgré la similitude de l’excitabilité motoneuronale dans ces positions, l’excitabilité corticospinale des muscles du poignet était significativement différente : les impulsions de stimulation magnétique transcrânienne (TMS; à 1.2 MT, sur l’aire du poignet de M1) ont provoqué des potentiels moteurs évoqués (MEP) de plus grande amplitude en flexion pour les fléchisseurs comparativement à la position d’extension et vice-versa pour les extenseurs (p<0.005 pour le groupe). Lorsque les mêmes positions étaient établies après une relaxation profonde, les réponses réflexes et les amplitudes des MEPs ont drastiquement diminué. La relation caractéristique observée entre position physique et amplitude des MEPs dans le positionnement actif s’est aussi estompée lorsque les muscles étaient relâchés. Cette étude suggère que la voie corticospinale, en association avec les autres voies descendantes, participerait au contrôle de la position-seuil, un processus qui prédéterminerait le référentiel spatial dans lequel l’activité EMG émerge. Ce contrôle de la « référence » constituerait un principe commun s’appliquant à la fois au contrôle de la force musculaire, de la position, du mouvement et de la relaxation. Nous avons aussi mis en évidence qu’il est nécessaire, dans les prochaines recherches ou applications utilisant la TMS, de prendre en compte la configuration-seuil des articulations, afin de bien interpréter les réponses musculaires (ou leurs changements) évoquées par cette technique; en effet, la configuration-seuil influencerait de manière notable l’excitabilité corticomotrice, qui peut être considérée comme un indicateur non seulement lors d’activités musculaires, mais aussi cognitives, après apprentissages moteurs ou lésions neurologiques causant des déficits moteurs (ex. spasticité, faiblesse). Considérées dans leur ensemble, ces deux études apportent un éclairage inédit sur des principes fondamentaux du contrôle moteur : nous y illustrons de manière plus large le rôle du système vestibulaire dans les tâches d’atteinte exigeant une coordination entre le bras et son « support » (le tronc) et clarifions l’implication des voies corticomotrices dans la spécification de paramètres élémentaires du contrôle moteur du bras. De plus amples recherches sont cependant nécessaires afin de mieux comprendre comment les systèmes sensoriels et descendants (e.g. vestibulo-, réticulo-, rubro-, propriospinal) participent et interagissent avec les signaux corticofugaux afin de spécifier les seuils neuromusculaires dans le contrôle de la posture et du mouvement.