53 resultados para arbitraire
Resumo:
Résumé Il est actuellement reconnu que l'endothélium vasculaire joue un rôle primordial dans la genèse des maladies cardiovasculaires, notamment l'artériosclérose. Dès lors, il est important de pouvoir investiguer la fonction endothéliale en clinique. Pour ce faire, il est particulièrement simple d'examiner la microcirculation cutanée, car celle-ci est très simplement accessible, de manière non-invasive, par fluxmétrie laser-Doppler. Pratiquement, on mesure l'augmentation du flux sanguin dermique en réponse à des stimuli connus pour agir via l'endothélium vasculaire. Les stimuli endothélium-dépendants les plus courants sont l'interruption temporaire du flux sanguin qui est suivie d'une hyperémie réactive, et l'administration transcutanée d'acétylcholine (Ach) par iontophorèse. La iontophorèse consiste à obtenir le transfert d' une substance ionisée, telle l'Ach, par l'application d'un courant électrique de polarité appropriée. L'objectif du présent travail était de déterminer le rôle des prostaglandines dans ces réponse vasodilatatrices dépendante de l'endothélium, rôle actuellement peu clair. 23 jeunes hommes volontaires non fumeurs et en bonne santé habituelle ont été examinés lors de deux visites séparées par 1 à 3 semaines. Lors de chaque visite, l'hyperémie réactive et la réponse vasodilatatrice à l'Ach ont été déterminées dans la peau de l'avant bras après administration soit d'un placebo, soit d'un inhibiteur de la cyclooxygénase (COX, enzyme qui contrôle la synthèse des prostaglandines). Chez certains sujets, l'inhibiteur était de l'acétylsalicylate de lysine (900 mg par voie intraveineuse). Chez d'autres sujets, il s'agissait d'indométhacine. (75 mg par voie orale). Comme la stimulation nociceptive liée au courant iontophorétique peut influencer la réponse à l'Ach, celle-ci a été déterminée en présence et en l'absence d'anesthésie de surface (crème de lidocaine). La réponse à l'Ach a été obtenue pour 4 doses différentes de cet agent (exprimées sous la forme de la densité de charge iontophorétique appliquée : 0.28, 1.4, 7, et 14 millicoulombs par cm2 de peau exposée). Le flux sanguin dermique était mesuré par imagerie laser-Doppler, une variante de la fluxmétrie laser-Doppler classique permettant l'exploration d'une surface de peau de taille arbitraire. Quelle que soit la condition testée, nous n'avons jamais observé la moindre influence de l'inhibition de la COX sur l'hyperémie réactive, ni sur la réponse à l'Ach. Cette dernière était augmentée significativement par l'anesthésie cutanée, que les sujets aient reçu ou non de l'acétylsalicylate de lysine ou de l'indométhacine . Par exemple, la réponses moyenne (±SD) à la plus haute dose d'Ach (testée sur 6 sujets, et exprimée en unités de perfusion, comme il est d'usage en fluxmétrie laser-Doppler ) était la suivante : en l'absence d'anesthésie : acétylsalicylate de lysine 339 ± 105, placebo 344 ± 68 ; avec l'anesthésie : acétylsalicylate de lysine 453 ± 76 , placebo 452 ± 65 (p * 0.001 pour les effets de l'anesthésie). En conclusion, nos résultats infirment une contribution des prostaglandines à l'hyperémie réactive ou à la vasodilatation induite par l'acétylcholine dans la microcirculation cutanée. Dans ce lit vasculaire, l'anesthésie locale accroît la vasodilatation induite par l'acétylcholine par un mécanisme indépendant des prostaglandines.
Resumo:
Les instabilités engendrées par des gradients de densité interviennent dans une variété d'écoulements. Un exemple est celui de la séquestration géologique du dioxyde de carbone en milieux poreux. Ce gaz est injecté à haute pression dans des aquifères salines et profondes. La différence de densité entre la saumure saturée en CO2 dissous et la saumure environnante induit des courants favorables qui le transportent vers les couches géologiques profondes. Les gradients de densité peuvent aussi être la cause du transport indésirable de matières toxiques, ce qui peut éventuellement conduire à la pollution des sols et des eaux. La gamme d'échelles intervenant dans ce type de phénomènes est très large. Elle s'étend de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères à laquelle interviennent les phénomènes à temps long. Une reproduction fiable de la physique par la simulation numérique demeure donc un défi en raison du caractère multi-échelles aussi bien au niveau spatial et temporel de ces phénomènes. Il requiert donc le développement d'algorithmes performants et l'utilisation d'outils de calculs modernes. En conjugaison avec les méthodes de résolution itératives, les méthodes multi-échelles permettent de résoudre les grands systèmes d'équations algébriques de manière efficace. Ces méthodes ont été introduites comme méthodes d'upscaling et de downscaling pour la simulation d'écoulements en milieux poreux afin de traiter de fortes hétérogénéités du champ de perméabilité. Le principe repose sur l'utilisation parallèle de deux maillages, le premier est choisi en fonction de la résolution du champ de perméabilité (grille fine), alors que le second (grille grossière) est utilisé pour approximer le problème fin à moindre coût. La qualité de la solution multi-échelles peut être améliorée de manière itérative pour empêcher des erreurs trop importantes si le champ de perméabilité est complexe. Les méthodes adaptatives qui restreignent les procédures de mise à jour aux régions à forts gradients permettent de limiter les coûts de calculs additionnels. Dans le cas d'instabilités induites par des gradients de densité, l'échelle des phénomènes varie au cours du temps. En conséquence, des méthodes multi-échelles adaptatives sont requises pour tenir compte de cette dynamique. L'objectif de cette thèse est de développer des algorithmes multi-échelles adaptatifs et efficaces pour la simulation des instabilités induites par des gradients de densité. Pour cela, nous nous basons sur la méthode des volumes finis multi-échelles (MsFV) qui offre l'avantage de résoudre les phénomènes de transport tout en conservant la masse de manière exacte. Dans la première partie, nous pouvons démontrer que les approximations de la méthode MsFV engendrent des phénomènes de digitation non-physiques dont la suppression requiert des opérations de correction itératives. Les coûts de calculs additionnels de ces opérations peuvent toutefois être compensés par des méthodes adaptatives. Nous proposons aussi l'utilisation de la méthode MsFV comme méthode de downscaling: la grille grossière étant utilisée dans les zones où l'écoulement est relativement homogène alors que la grille plus fine est utilisée pour résoudre les forts gradients. Dans la seconde partie, la méthode multi-échelle est étendue à un nombre arbitraire de niveaux. Nous prouvons que la méthode généralisée est performante pour la résolution de grands systèmes d'équations algébriques. Dans la dernière partie, nous focalisons notre étude sur les échelles qui déterminent l'évolution des instabilités engendrées par des gradients de densité. L'identification de la structure locale ainsi que globale de l'écoulement permet de procéder à un upscaling des instabilités à temps long alors que les structures à petite échelle sont conservées lors du déclenchement de l'instabilité. Les résultats présentés dans ce travail permettent d'étendre les connaissances des méthodes MsFV et offrent des formulations multi-échelles efficaces pour la simulation des instabilités engendrées par des gradients de densité. - Density-driven instabilities in porous media are of interest for a wide range of applications, for instance, for geological sequestration of CO2, during which CO2 is injected at high pressure into deep saline aquifers. Due to the density difference between the C02-saturated brine and the surrounding brine, a downward migration of CO2 into deeper regions, where the risk of leakage is reduced, takes place. Similarly, undesired spontaneous mobilization of potentially hazardous substances that might endanger groundwater quality can be triggered by density differences. Over the last years, these effects have been investigated with the help of numerical groundwater models. Major challenges in simulating density-driven instabilities arise from the different scales of interest involved, i.e., the scale at which instabilities are triggered and the aquifer scale over which long-term processes take place. An accurate numerical reproduction is possible, only if the finest scale is captured. For large aquifers, this leads to problems with a large number of unknowns. Advanced numerical methods are required to efficiently solve these problems with today's available computational resources. Beside efficient iterative solvers, multiscale methods are available to solve large numerical systems. Originally, multiscale methods have been developed as upscaling-downscaling techniques to resolve strong permeability contrasts. In this case, two static grids are used: one is chosen with respect to the resolution of the permeability field (fine grid); the other (coarse grid) is used to approximate the fine-scale problem at low computational costs. The quality of the multiscale solution can be iteratively improved to avoid large errors in case of complex permeability structures. Adaptive formulations, which restrict the iterative update to domains with large gradients, enable limiting the additional computational costs of the iterations. In case of density-driven instabilities, additional spatial scales appear which change with time. Flexible adaptive methods are required to account for these emerging dynamic scales. The objective of this work is to develop an adaptive multiscale formulation for the efficient and accurate simulation of density-driven instabilities. We consider the Multiscale Finite-Volume (MsFV) method, which is well suited for simulations including the solution of transport problems as it guarantees a conservative velocity field. In the first part of this thesis, we investigate the applicability of the standard MsFV method to density- driven flow problems. We demonstrate that approximations in MsFV may trigger unphysical fingers and iterative corrections are necessary. Adaptive formulations (e.g., limiting a refined solution to domains with large concentration gradients where fingers form) can be used to balance the extra costs. We also propose to use the MsFV method as downscaling technique: the coarse discretization is used in areas without significant change in the flow field whereas the problem is refined in the zones of interest. This enables accounting for the dynamic change in scales of density-driven instabilities. In the second part of the thesis the MsFV algorithm, which originally employs one coarse level, is extended to an arbitrary number of coarse levels. We prove that this keeps the MsFV method efficient for problems with a large number of unknowns. In the last part of this thesis, we focus on the scales that control the evolution of density fingers. The identification of local and global flow patterns allows a coarse description at late times while conserving fine-scale details during onset stage. Results presented in this work advance the understanding of the Multiscale Finite-Volume method and offer efficient dynamic multiscale formulations to simulate density-driven instabilities. - Les nappes phréatiques caractérisées par des structures poreuses et des fractures très perméables représentent un intérêt particulier pour les hydrogéologues et ingénieurs environnementaux. Dans ces milieux, une large variété d'écoulements peut être observée. Les plus communs sont le transport de contaminants par les eaux souterraines, le transport réactif ou l'écoulement simultané de plusieurs phases non miscibles, comme le pétrole et l'eau. L'échelle qui caractérise ces écoulements est définie par l'interaction de l'hétérogénéité géologique et des processus physiques. Un fluide au repos dans l'espace interstitiel d'un milieu poreux peut être déstabilisé par des gradients de densité. Ils peuvent être induits par des changements locaux de température ou par dissolution d'un composé chimique. Les instabilités engendrées par des gradients de densité revêtent un intérêt particulier puisque qu'elles peuvent éventuellement compromettre la qualité des eaux. Un exemple frappant est la salinisation de l'eau douce dans les nappes phréatiques par pénétration d'eau salée plus dense dans les régions profondes. Dans le cas des écoulements gouvernés par les gradients de densité, les échelles caractéristiques de l'écoulement s'étendent de l'échelle poreuse où les phénomènes de croissance des instabilités s'opèrent, jusqu'à l'échelle des aquifères sur laquelle interviennent les phénomènes à temps long. Etant donné que les investigations in-situ sont pratiquement impossibles, les modèles numériques sont utilisés pour prédire et évaluer les risques liés aux instabilités engendrées par les gradients de densité. Une description correcte de ces phénomènes repose sur la description de toutes les échelles de l'écoulement dont la gamme peut s'étendre sur huit à dix ordres de grandeur dans le cas de grands aquifères. Il en résulte des problèmes numériques de grande taille qui sont très couteux à résoudre. Des schémas numériques sophistiqués sont donc nécessaires pour effectuer des simulations précises d'instabilités hydro-dynamiques à grande échelle. Dans ce travail, nous présentons différentes méthodes numériques qui permettent de simuler efficacement et avec précision les instabilités dues aux gradients de densité. Ces nouvelles méthodes sont basées sur les volumes finis multi-échelles. L'idée est de projeter le problème original à une échelle plus grande où il est moins coûteux à résoudre puis de relever la solution grossière vers l'échelle de départ. Cette technique est particulièrement adaptée pour résoudre des problèmes où une large gamme d'échelle intervient et évolue de manière spatio-temporelle. Ceci permet de réduire les coûts de calculs en limitant la description détaillée du problème aux régions qui contiennent un front de concentration mobile. Les aboutissements sont illustrés par la simulation de phénomènes tels que l'intrusion d'eau salée ou la séquestration de dioxyde de carbone.
Resumo:
Rapport de synthèseLe syndrome d'apnées obstructives du sommeil (SAOS) est une pathologie respiratoire fréquente. Sa prévalence est estimée entre 2 et 5% de la population adulte générale. Ses conséquences sont importantes. Notamment, une somnolence diurne, des troubles de la concentration, des troubles de la mémoire et une augmentation du risque d'accident de la route et du travail. Il représente également un facteur de risque cardiovasculaire indépendant.Ce syndrome est caractérisé par la survenue durant le sommeil d'obstructions répétées des voies aériennes supérieures. L'arrêt ou la diminution d'apport en oxygène vers les poumons entraîne des épisodes de diminution de la saturation en oxygène de l'hémoglobine. Les efforts ventilatoires visant à lever l'obstacle présent sur les voies aériennes causent de fréquents réveils à l'origine d'une fragmentation du sommeil.La polysomnographie (PSG) représente le moyen diagnostic de choix. Il consiste en l'enregistrement dans un laboratoire du sommeil et en présence d'un technicien diplômé, du tracé électroencéphalographique (EEG), de l'électrooculogramme (EOG), de l'électromyogramme mentonnier (EMG), du flux respiratoire nasal, de l'oxymétrie de pouls, de la fréquence cardiaque, de l'électrocardiogramme (ECG), des mouvements thoraciques et abdominaux, de la position du corps et des mouvements des jambes. L'examen est filmé par caméra infrarouge et les sons sont enregistrés.Cet examen permet entre autres mesures, de déterminer les événements respiratoires obstructifs nécessaires au diagnostic de syndrome d'apnée du sommeil. On définit une apnée lors d'arrêt complet du débit aérien durant au moins 10 secondes et une hypopnée en cas, soit de diminution franche de l'amplitude du flux respiratoire supérieure à 50% durant au moins 10 secondes, soit de diminution significative (20%) de l'amplitude du flux respiratoire pendant au minimum 10 secondes associée à un micro-éveil ou à une désaturation d'au moins 3% par rapport à la ligne de base. La détection des micro-éveils se fait en utilisant les dérivations électroencéphalographiques, électromyographiques et électrooculographiques. Il existe des critères visuels de reconnaissance de ces éveils transitoire: apparition de rythme alpha (8.1 à 12.0 Hz) ou beta (16 à 30 Hz) d'une durée supérieure à 3 secondes [20-21].Le diagnostic de S AOS est retenu si l'on retrouve plus de 5 événements respiratoires obstructifs par heure de sommeil associés soit à une somnolence diurne évaluée selon le score d'Epworth ou à au moins 2 symptômes parmi les suivants: sommeil non réparateur, étouffements nocturne, éveils multiples, fatigue, troubles de la concentration. Le S AOS est gradué en fonction du nombre d'événements obstructifs par heure de sommeil en léger (5 à 15), modéré (15 à 30) et sévère (>30).La polysomnographie (PSG) comporte plusieurs inconvénients pratiques. En effet, elle doit être réalisée dans un laboratoire du sommeil avec la présence permanente d'un technicien, limitant ainsi son accessibilité et entraînant des délais diagnostiques et thérapeutiques. Pour ces mêmes raisons, il s'agit d'un examen onéreux.La polygraphie respiratoire (PG) représente l'alternative diagnostique au gold standard qu'est l'examen polysomnographique. Cet examen consiste en l'enregistrement en ambulatoire, à savoir au domicile du patient, du flux nasalrespiratoire, de l'oxymétrie de pouls, de la fréquence cardiaque, de la position du corps et du ronflement (par mesure de pression).En raison de sa sensibilité et sa spécificité moindre, la PG reste recommandée uniquement en cas de forte probabilité de SAOS. Il existe deux raisons principales à l'origine de la moindre sensibilité de l'examen polygraphique. D'une part, du fait que l'état de veille ou de sommeil n'est pas déterminé avec précision, il y a dilution des événements respiratoires sur l'ensemble de l'enregistrement et non sur la période de sommeil uniquement. D'autre part, en l'absence de tracé EEG, la quantification des micro-éveils est impossible. Il n'est donc pas possible dans l'examen poly graphique, de reconnaître une hypopnée en cas de diminution de flux respiratoire de 20 à 50% non associée à un épisode de désaturation de l'hémoglobine de 3% au moins. Alors que dans l'examen polysomnographique, une telle diminution du flux respiratoire pourrait être associée à un micro-éveil et ainsi comptabilisée en tant qu'hypopnée.De ce constat est né la volonté de trouver un équivalent de micro-éveil en polygraphie, en utilisant les signaux à disposition, afin d'augmenter la sensibilité de l'examen polygraphique.Or plusieurs études ont démontrés que les micro-éveils sont associés à des réactions du système nerveux autonome. Lors des micro-éveils, on met en évidence la survenue d'une vasoconstriction périphérique. La variation du tonus sympathique associée aux micro-éveils peut être mesurée par différentes méthodes. Les variations de l'amplitude de l'onde de pouls mesurée par pulsoxymétrie représentant un marqueur fiable de la vasoconstriction périphérique associée aux micro-réveils, il paraît donc opportun d'utiliser ce marqueur autonomique disponible sur le tracé des polygraphies ambulatoires afin de renforcer la sensibilité de cet examen.Le but de l'étude est d'évaluer la sensibilité des variations de l'amplitude de l'onde de pouls pour détecter des micro-réveils corticaux afin de trouver un moyen d'augmenter la sensibilité de l'examen polygraphique et de renforcer ainsi sont pouvoir diagnostic.L'objectif est de démontrer qu'une diminution significative de l'amplitude de l'onde pouls est concomitante à une activation corticale correspondant à un micro¬réveil. Cette constatation pourrait permettre de déterminer une hypopnée, en polygraphie, par une diminution de 20 à 50% du flux respiratoire sans désaturation de 3% mais associée à une baisse significative de l'amplitude de pouls en postulant que l'événement respiratoire a entraîné un micro-réveil. On retrouve par cette méthode les mêmes critères de scoring d'événements respiratoires en polygraphie et en polysomnographie, et l'on renforce la sensibilité de la polygraphie par rapport au gold standard polysomnographique.La méthode consiste à montrer en polysomnographie qu'une diminution significative de l'amplitude de l'onde de pouls mesurée par pulsoxymétrie est associée à une activation du signal électroencéphalographique, en réalisant une analyse spectrale du tracé EEG lors des baisses d'amplitude du signal d'onde de pouls.Pour ce faire nous avons réalisé une étude rétrospective sur plus de 1000 diminutions de l'amplitude de l'onde de pouls sur les tracés de 10 sujets choisis de manière aléatoire parmi les patients référés dans notre centre du sommeil (CIRS) pour suspicion de trouble respiratoire du sommeil avec somnolence ou symptomatologie diurne.Les enregistrements nocturnes ont été effectués de manière standard dans des chambres individuelles en utilisant le système d'acquisition Embla avec l'ensemble des capteurs habituels. Les données ont été par la suite visuellement analysées et mesurées en utilisant le software Somnologica version 5.1, qui fournit un signal de l'amplitude de l'onde de pouls (puise wave amplitude - PWA).Dans un premier temps, un technicien du sommeil a réalisé une analyse visuelle du tracé EEG, en l'absence des données du signal d'amplitude d'onde de pouls. Il a déterminé les phases d'éveil et de sommeil, les stades du sommeil et les micro¬éveils selon les critères standards. Les micro-éveils sont définis lors d'un changement abrupt dans la fréquence de l'EEG avec un pattern d'ondes thêta-alpha et/ou une fréquence supérieure à 16 Hz (en l'absence de fuseau) d'une durée d'au minimum trois secondes. Si cette durée excède quinze secondes, l'événement correspond à un réveil.Puis, deux investigateurs ont analysé le signal d'amplitude d'onde de pouls, en masquant les données du tracé EEG qui inclut les micro-éveils. L'amplitude d'onde de pouls est calculée comme la différence de valeur entre le zénith et le nadir de l'onde pour chaque cycle cardiaque. Pour chaque baisse de l'amplitude d'onde de pouls, la plus grande et la plus petite amplitude sont déterminées et le pourcentage de baisse est calculé comme le rapport entre ces deux amplitudes. On retient de manière arbitraire une baisse d'au moins 20% comme étant significative. Cette limite a été choisie pour des raisons pratiques et cliniques, dès lors qu'elle représentait, à notre sens, la baisse minimale identifiable à l'inspection visuelle. Chaque baisse de PWA retenue est divisée en 5 périodes contiguës de cinq secondes chacune. Deux avant, une pendant et deux après la baisse de PWA.Pour chaque période de cinq secondes, on a pratiqué une analyse spectrale du tracé EEG correspondant. Le canal EEG C4-A1 est analysé en utilisant la transformée rapide de Fourier (FFT) pour chaque baisse de PWA et pour chaque période de cinq secondes avec une résolution de 0.2 Hz. La distribution spectrale est catégorisée dans chaque bande de fréquence: delta (0.5 à 4.0 Hz); thêta (4.1 à 8.0Hz); alpha (8.1 à 12.0 Hz); sigma (12.1 à 16 Hz) et beta (16.1 à 30.0 Hz). La densité de puissance (power density, en μΥ2 ) pour chaque bande de fréquence a été calculée et normalisée en tant que pourcentage de la puissance totale. On a déterminé, ensuite, la différence de densité de puissance entre les 5 périodes par ANOVA on the rank. Un test post hoc Tukey est été utilisé pour déterminer si les différences de densité de puissance étaient significatives. Les calculs ont été effectués à l'aide du software Sigmastat version 3.0 (Systat Software San Jose, California, USA).Le principal résultat obtenu dans cette étude est d'avoir montré une augmentation significative de la densité de puissance de l'EEG pour toutes les bandes de fréquence durant la baisse de l'amplitude de l'onde de pouls par rapport à la période avant et après la baisse. Cette augmentation est par ailleurs retrouvée dans la plupart des bande de fréquence en l'absence de micro-réveil visuellement identifié.Ce résultat témoigné donc d'une activation corticale significative associée à la diminution de l'onde de pouls. Ce résulat pourrait permettre d'utiliser les variations de l'onde de pouls dans les tracés de polygraphie comme marqueur d'une activation corticale. Cependant on peut dire que ce marqueur est plus sensible que l'analyse visuelle du tracé EEG par un technicien puisque qu'on notait une augmentation de lactivité corticale y compris en l'absence de micro-réveil visuellement identifié. L'application pratique de ces résultats nécessite donc une étude prospective complémentaire.
Resumo:
L’apport de cet article réside dans le concept de «laïcité multiculturelle». Dans les sociétés du XXIe siècle, ce concept représente un progrès vers une égalité de différences où toutes les croyances et religions seraient traitées de façon égalitaire. Le principe de laïcité a constitué un pas en avant vers une plus grande égalité des droits, en Europe la démarche a été au début du XXe siècle. Un siècle plus tard, l’impact sans précédents du phénomène international des migrations a rendu les sociétés européennes multiculturelles de nouveau. Dans ce nouveau cadre, la conception traditionnelle de la laïcité, au lieu d’assurer l’égalité des droits, est devenu un principe arbitraire nuisant, plus particulièr ement à la communauté musulmane. Pour surmonter le trait discriminatoire de la conception traditionnelle de laïcité envers certaines confessions, un nouveau concept s’ avère nécessaire, celui d’une «laïcité multiculturelle» fondée sur l’égalité de différences et le dialogue égalitaire entre les différentes cultures.
Resumo:
Résumé I. Introduction La présente étude analyse les conflits entre les autorités nationales de concurrence dans le cas de figure où plusieurs autorités examinent en même temps la convergence d'une opération de concentration avec leur droit de concentration respectif. Tandis que le débat concernant le contrôle parallèle des opérations de concentration internationales est aujourd'hui extrêmement vif, la recherche fondamentale sur ce sujet n'a pas encore beaucoup avancé. Cependant il y a un besoin de réforme évident, un besoin au centre duquel se situe une réflexion sur l'organisation du droit de concurrence international. Le but de cette étude est donc de fournir une vue d'ensemble des conflits possibles entre les autorités nationales de concurrence en matière politique, économique et juridique (matérielle et procédurale) causés par une opération de concentration internationale. L'objectif n'est pas de fournir une évaluation des différents systèmes de contrôle de concentration, mais plutôt de chercher la source des conflits. Par ailleurs, l'analyse qui suit insistera sur la nécessité d'une solution internationale de ces conflits. II. Arrière-plan Depuis plusieurs décennies, les relations économiques internationales entre les Etats et les entreprises ont été profondément marquées par un processus dynamique de globalisation et de libéralisation. La libéralisation a engendré une croissance énorme du commerce mondial. En conséquence, les entreprises ont développé des stratégies globales pour arriver à une croissance durable. Ainsi, le nombre et la taille des entreprises internationales a constamment augmenté. À cause de cette présence globale des entreprises, les anciens marchés nationaux ou régionaux sont devenus des marchés globaux. Dans le cadre de la libéralisation économique, beaucoup d'Etats ainsi que l'Union Européenne ont reconnu que la concurrence est le moyen approprié pour faire progresser l'innovation et la croissance économique. Il faut donc maintenir et développer les structures de concurrence. Pour cela, il faut surveiller dans le cadre du droit de contrôle international toutes les pratiques concertées dont l'objet ou l'effet serait de restreindre la concurrence, ainsi que les abus d'une position dominante ou les opérations de concentration d'entreprises. Jusqu'à présent, sur environ 200 Etats souverains existants au monde, une bonne centaine ainsi que l'Union Européenne (l'UE) ont développé un droit de concurrence. Et parmi ces Etats, 75 environ ont créé un droit de contrôle de concentration. Mais ces règles nationales ne sont pas toujours appropriées au regard de l'économie mondiale. On constate plutôt que ,,l'internationalisation croissante des marchés [...] n'a pas été suivie d'une internationalisation parallèle de la politique de concurrence". Par ailleurs, un grand nombre d'Etats appliquent leur droit de concurrence également en dehors de leur propre territoire afin de contrôler les abus à l'étranger. Même si on peut comprendre ce besoin de contrôle, cette évolution risque de provoquer des conflits avec les législations des autres Etats concernés. D'autres difficultés naissent des différences théoriques ou pratiques des systèmes du droit de la concurrence ou de régulations divergentes du point de vue matériel et procédural. Même sur la base de règles comparables, des divergences apparaissent à cause de différentes méthodes d'interprétation ou d'application. La communauté internationale s'emploie à combattre toutes les barrières au commerce transnational -notamment dans le cadre de l'Organisation Mondiale du Commerce (OMC). Mais si elle néglige de lutter en même temps contre les barrières commerciales établies par les entreprises elles-mêmes, elle risque de perdre les gains d'efficacité et de bien public déjà acquis par la suppression des barrières commerciales publiques. Car certaines actions des entreprises privées, comme l'exclusion ou la répartition mutuelle du marché, peuvent aussi bien conduire à des restrictions de la concurrence que les barrières commerciales publiques, tarifaires ou non-tarifaires, et peuvent même s'y substituer. III. Plan de l'étude Après l'Introduction, la partie B traite de la coopération de l'Union Européenne avec les Etats-Unis en matière du droit de la concurrence. En effet, les accords bilatéraux entre l'UE et les Etats-Unis montrent les possibilités et les limites d'une telle coopération. Les conflits entre les autorités de concurrence résultent de la mondialisation croissante et de l'intensification de la concurrence qui en découle. Aussi, ces conflits ne sont pas seulement d'ordre théorique mais également d'une grande importance pratique comme le montre l'analyse des deux cas dans la partie C. Les autorités de concurrence des Etats-Unis et de l'Union Européenne ont chacun de leur côté examiné la fusion des entreprises Boeing Corporation et McDonnell Douglas Corporation (MDD), ainsi que le projet de fusion entre Honeywell International Inc. (Honeywell) et General Electric Co. (GE). Or, ces deux procédures sont paradigmatiques en ce qui concerne la sensibilité politique des autorités de concurrence et les limites de la coopération bilatérale. Après ces analyse de cas, la partie D qui compare le droit de contrôle de concentration aux Etats-Unis et en Europe et examine les conflits éventuels entre les deux systèmes constitue la partie principale de l'étude. Les sources de ces conflits peuvent être aussi bien trouvées dans le droit matériel que dans le droit procédural, tout comme dans les différences d'orientation politique générale des deux systèmes. La partie E montre les différentes solutions qui ont été proposées dans ce cadre. Ensuite, ces propositions sont comparées avec celles concernant l'harmonisation des politiques de concurrence et de contrôle de concentrations. Sur la base de ces résultats, une proposition de solution montrant les premiers pas nécessaires pour résoudre les conflits existants entre les autorités de concurrence est présentée. IV. Résumé des conflits L'étude aboutit à la constatation que presque tous les aspects du contrôle des concentrations constituent un important potentiel de conflits. Celui-ci est d'ailleurs bien plus important que l'on ne pourrait penser au w des lois applicables. La complexité du droit de la concurrence provoque nécessairement des conflits. Mais il faut également tenir compte des différences fondamentales concernant les objectifs politiques des Etats, les formes d'institutionnalisation des autorités de concurrence et la prise en considération des pays en développement ou des pays émergents. Les différences purement juridiques accroissent le potentiel de conflits entre les Etats et empêchent une intensification de la coopération. Cela est notamment vrai pour la définition de la concentration, l'application extraterritoriale du droit national, la notification obligatoire et ses seuils fixés. Concernant le droit matériel, les conflits se situent dans les domaines de la délimitation du marché, le critère d'incompabilité, l'analyse économique, la prise en compte des gains d'efficacité, l'importance de la concentration de sauvetage ainsi que de l'application du principe de ,,comity of nations". Du point de we du droit procédural, les différences d'inscription obligatoire et d'interdiction partielle de l'accomplissement consécutif donnent autant également lieu à des conflits potentiels que les différences de méthode d'investigation et d'exécution des décisions publiques. Il en va de même pour les différents remèdes ou les sanctions prévues pour le mépris des décisions des autorités ou des tribunaux et la position des parties tierces dans la procédure est également un facteur de conflit. Enfin, il faut mentionner le manque de transparence qui nuit à la sécurité juridique. L'application arbitraire du droit, le protectionnisme, le mercantilisme ainsi que le manque de sécurité juridique augmentent le danger de conflits interétatiques. La coopération entre les Etats-Unis et l'Union Européenne sur la base de l'accord de 1991 n'a pas vraiment réduit ce potentiel de conflits. Cela s'est notamment avéré au moment des projets de fusion entre GE et Honeywell et de la reprise de MDD par Boeing. V. Les possibilités d'harmonisation Aussi bien la nécessité que la faisabilité d'une harmonisation globale du droit de la concurrence et d'une politique de la concurrence sont encore très discutés. La plupart des débats tournent plutôt autour de l'arrangement concret d'un tel droit harmonisé que de l'objectif général d'une harmonisation. Quelques Etats comme les Etats-Unis redoutent une trop grande perte de souveraineté et veulent par conséquent maintenir leur méthode unilatérale et extraterritoriale. Cependant, la plupart des experts des organisations internationales comme ceux des autorités de concurrence et du public intéressé approuvent l'idée d'un droit de concurrence international. Etant donné la gravité de certains conflits, de nombreux Etats et un grand nombre de juristes perçoivent la nécessité de développer la conscience d'une indispensable harmonisation, et un accord sur ce plan semble parfaitement possible. Parmi ceux qui soutiennent cet accord l'on trouve presque tous les Etats membres de l'Organisation de coopération et de développement économiques (l'OCDE), de nombreux Etats membres de l'OMC, de l'Organisations des nations unies (l'ONU) et de l'Accord de libre-échange nord-américain (l'ALENA), particulièrement les Etats de l'UE, l'Australie, le Japon, le Canada, le Mexique, la Nouvelle Zélande et quelques représentants des autorités de concurrence des Etats-Unis. La méthode la plus efficace et raisonnable pour lutter contre les obstacles privés à la concurrence est la coopération et la coordination globale des mécanismes de contrôle. Les forums et les structures nécessaires pour la préparation d'une telle tâche existent déjà. Ainsi, le cadre institutionnel éprouvé de l'OMC pourra faire progresser le processus d`harmonisation. Il faudrait simplement élargir les compétences de l'OMC pour garantir un contrôle international efficace. L'harmonisation sur le plan international serait plus efficace qu'une harmonisation unilatérale ou bilatérale. La flexibilité d'un accord international pourrait être garanti par 1"insertion de cet accord dans le Mémorandum d'accords commerciaux plurilatéraux (Annexe 4) de l'OMC. Ainsi, cet accord ne serait obligatoire que pour les Etats membres qui l'auraient déjà approuvé séparément. Les autres Etats auraient la possibilité de le signer plus tard. En cas de conflits dans le cadre de l'application de cet accord, on pourrait se servir du mécanisme d'arbitrage de l'OMC. Il faudrait également créer une autorité internationale de concurrence et un comité spécial international de concurrence. Un tel accord de l'OMC ne constitue qu'un premier pas. Les exigences minimales de l'accord doivent être renforcées et régulièrement ajustées à l'évolution et aux nouvelles données de l'économie mondiale. Ainsi, le processus d'harmonisation internationale sera l'objet d'une dynamique permanente. VI. Résultats et conclusions L'étude a montré que l'application parallèle des droits nationaux de concurrence est une importante source de conflits. Elle a surtout mis l'accent sur les relations entre les Etats-Unis et l'Union Européenne. Il est d'ailleurs très probable que ce genre de conflits augmente encore dans le futur. En 2000, l'activité mondiale des fusions et acquisitions a eu un volume de 3 billions de dollars Anglo-américains. Cela équivaut à une multiplication par onze du volume de 1991. En 2001, par contre, le volume a de nouveau baissé à 1,6 billions de dollars Anglo-américains. Mais selon les pronostics, le nombre des concentrations va à nouveau augmenter considérablement dans les prochaines années. Cette vague de concentrations internationales est la conséquence de l'intensification mondiale des relations économiques transnationales. Cette évolution va se poursuivre pour autant que les barrières commerciales publiques continuent à être démantelées, que le renforcement de la dérégularisation ouvre de nouveaux marchés à la compétition, que de plus en plus de standards techniques soient harmonisés et que les transports et la communication internationale soient améliorés et moins couteux. Enfin, la consolidation de certains secteurs économiques à la suite de fusions déjà réalisées encourage de plus en plus les entreprises à fusionner sur le plan international et dans des dimensions de plus en plus grandes. Outre les conflits engendrés par les différentes législations nationales, il faut également mentionner les oppositions qui résultent d'une façon indirecte de la compétition entre les différentes autorités de contrôle. Ainsi, par exemple, les conséquences économiques et financières d'un retard dans la procédure de contrôle ou les sanctions importantes imposées aux entreprises concernées sont souvent le sujet de discussions et de conflits politiques. Dans ce cadre, il faut souligner qu'en réalité le droit de concurrence ainsi que le droit de contrôle de concentrations ne vise pas seulement une politique de concurrence mais également la politique industrielle et générale. La diversité de ces différentes visées politiques provoque nécessairement des conflits politiques. La solution présentée à la fin de ce travail voudrait proposer une application efficace du droit de contrôle de concentration sur le plan international. A la base de cette efficacité il y a aurait notamment: L'encouragement d'une politique de concurrence au sein des Etats qui n'ont pas encore développé un droit de concurrence ou qui ne l'exécutent pas d'une manière suffisante. L'encouragement de la concurrence et des concentrations positives améliorant la situation compétitive. La simplification de la coopération des autorités de concurrence. L'accélération des procédures et des décisions. La garantie de la sécurité juridique. La diminution des conflits politiques. L'encouragement d'une amélioration globale du bien public qui est à la base de toute politique commerciale. Ces objectifs ne peuvent être atteints que si le protectionnisme national est battu en brêche et si des systèmes de contrôle international sont installés. Les intérêts des Etats doivent refléter les nouvelles dimensions de l'économie globale qui ne s'arrête pas aux frontières nationales. Pour cela il leur faut accepter certaines pertes de souveraineté et tolérer certaines infractions aux règles internationales de la non-ingérence. Les intérêts nationaux doivent s'ajuster à l'économie mondiale et aux intérêts des autres Etats. Bien entendu, tant que la divergence actuelle entre les marchés internationaux et les systèmes de contrôle nationaux persiste, une amélioration de la situation est peu probable. Pour que cela soit possible, il faudrait une législation qui reflète les nouvelles dimensions de l'économie et ses effets transnationaux et qui, en même temps, augmente et assure une concurrence efficace. Une telle stratégie aiderait non seulement les autorités de concurrence et les Etats mais également tout particulièrement les consommateurs et les entreprises. Car une telle concurrence efficace engendre des entreprises plus efficaces, des produits améliorés, un choix plus grand et des prix plus bas. En fin de compte, un tel effet de bien public diminuerait aussi le risque de conflits interétatiques. Dans le cadre de la consolidation et de l'amélioration des structures juridiques du système de l'OMC, il serait essentiel que les institutions et la méthode d'arbitrage de l'OMC inspirent suffisamment confiance à la communauté internationale des Etats. Car c'est seulement sur la base d'une telle confiance et avec la volonté des Etats de faire un pas décisif en faveur d'un commerce mondial plus libre et plus loyal qu'un projet aussi ambitieux est réalisable. Il est donc essentiel que les responsables réalisent enfin les projets d'harmonisation et de coopération renforcées qu'ils ont si souvent annoncés. En tous cas, une forte ,,dynamique du processus d'harmonisation" sera nécessaire pour progresser sur le terrain de l'harmonisation internationale de la politique de la concurrence. Berlin, 17/08/2006 Florens Girardet
Resumo:
L"apport de cet article réside dans le concept de « laïcité multiculturelle ». Dans les sociétés du XXIe siècle, ce concept représente un progrès vers une égalité de différences où toutes les croyances et religions seraient traitées de façon égalitaire. Le principe de laïcité a constitué un pas en avant vers une plus grande égalité des droits, en Europe la démarche a été au début du XXe siècle. Un siècle plus tard, l"impact sans précédents du phénomène international des migrations a rendu les sociétés européennes multiculturelles de nouveau. Dans ce nouveau cadre, la conception traditionnelle de la laïcité, au lieu d"assurer l"égalité des droits, est devenu un principe arbitraire nuisant, plus particulièrement à la communauté musulmane. Pour surmonter le trait discriminatoire de la conception traditionnelle de laïcité envers certaines confessions, un nouveau concept s"avère nécessaire, celui d"une « laïcité multiculturelle » fondée sur l"égalité de différences et le dialogue égalitaire entre les différentes cultures.
Resumo:
Dans la th´eorie des repr´esentations modulaires des groupes finis, les modules d?endo-permutation occupent une place importante. En e_et, c?est le r?ole jou´e par ces modules dans l?analyse de la structure de certains modules simples pour des groupes finis p-nilpotents, qui a amen´e E. Dade `a en introduire le concept, en 1978. Quelques ann´ees plus tard, L. Puig a d´emontr´e que la source de n?importe quel module simple pour un groupe fini p-r´esoluble quelconque est un module d?endo-permutation. Plus r´ecemment, on s?est rendu compte que ces modules interviennent aussi dans l?analyse locale des cat´egories d´eriv´ees et dans l?´etude des syst`emes de fusion. La situation que l?on consid`ere est la suivante. On se donne un nombre premier p, un p-groupe fini P, un corps alg´ebriquement clos k de caract´eristique p et on veut d´eterminer tous les kP-modules d?endo-permutation couverts ind´ecomposables de type fini, c?est-`a-dire tous les kP-modules ind´ecomposables de type fini, tels que leur alg`ebre d?endomorphismes est un kP-module de permutation ayant un facteur direct trivial. On d´efinit une relation d?´equivalence sur l?ensemble de ces kP-modules et le produit tensoriel des modules induit une structure de groupe ab´elien sur l?ensemble des classes d?´equivalence. On appelle ce groupe, le groupe de Dade de P. Ainsi, classifier les modules d?endo-permutation couverts revient `a d´eterminer le groupe de Dade de P. Le groupe de Dade d?un p-groupe fini arbitraire est encore inconnu, bien qu?E. Dade, en 1978, ´etait d´ej`a parvenu `a la classification dans le cas o`u P est ab´elien. La premi`ere partie de ce travail de th`ese est consacr´ee au probl`eme de la classification dans le cas g´en´eral et r´esoud la question dans le cas de deux familles de p-groupes finis, `a savoir celle des p-groupes m´etacycliques, pour un nombre premier p impair, et celle des 2-groupes extrasp´eciaux, de la forme D8 _ · · · _ D8. Ces deux choix ont ´et´e motiv´es par le fait que ces groupes sont "presque" ab´eliens. De plus, certains r´esultats sur la structure du groupe de Dade d?un p-groupe fini quelconque rendent le groupe de Dade des groupes de ces deux familles plus simple `a ´etudier. Dans un deuxi`eme temps, nous nous sommes int´eress´es `a deux occurrences de ces modules dans la th´eorie de la repr´esentation des groupes finis, c?est-`a-dire `a deux raisons qui motivent leur ´etude. Ainsi, nous avons r´ealis´e des modules d?endo-permutation comme sources de modules simples. En particulier, il s?av`ere que, dans le cas d?un nombre premier p impair, tout module d?endo-permutation ind´ecomposable dont la classe est un ´el´ement de torsion dans le groupe de Dade est la source d?un module simple. Finalement, nous avons d´etermin´e, parmi tous les modules d?endo-permutation connus actuellement, lesquels poss`edent une r´esolution de permutation endo-scind´ee. Nous sommes arriv´es `a la conclusion que les seuls modules d?endo-permutation qui n?ont pas de r´esolution de permutation endo-scind´ee sont les modules "exceptionnels" apparaissant pour un 2-groupe de quaternions g´en´eralis´es.<br/><br/>In modular representation theory, endo-permutation modules occupy an important position. Indeed, the role that these modules play, in the analysis of the structure of some particular simple modules for finite p-nilpotent groups, induced E. Dade, in 1978, to give them their current name. A few years later, L. Puig proved that the source of any simple module for any finite psolvable group is an endo-permutation module. More recently, the occurrence of endo-permutation modules has also been noticed in the local analysis of splendid equivalences between derived categories and in the study of fusion systems. We consider the following situation. Given a prime number p, a finite pgroup P and an algebraically closed field k of characteristic p, we are looking for all finitely generated indecomposable capped endo-permutation kP-modules. That is, all finitely generated indecomposable kP-modules such that their endomorphism algebra is a permutation kP-module having a trivial direct summand. Then, we define an equivalence relation on the set of all isomorphism classes of such modules, and it turns out that the tensor product (over k) induces a structure of abelian group on this set. We call this group the Dade group of P. Hence, classifying all indecomposable finitely generated capped endo-permutation kPmodules is equivalent to determining the Dade group of P. At present, the Dade group of an arbitrary finite p-group is still unknown. However, E. Dade computed the Dade group of all finite abelian p-groups, in 1978 already. The first part of this doctoral thesis is concerned with the problem of the classification in the general case and solve it in the case of two families of finite p-groups, namely the metacyclic p-groups, for an odd prime number p, and the extraspecial 2-groups of the shape D8 _· · ·_D8. These two choices have been motivated by the fact that these groups are not far from being abelian. Moreover, some general results concerning the Dade group of arbitrary finite p-groups suggest that the Dade group of the groups belonging to these two families is easier to study. In the second part of this thesis, we have been looking at two particular occurrences of these modules in representation theory of finite groups which motivate the interest of their classification. Thus, we realised endo-permutation modules as sources of simple modules. In particular, it turns out that, in case p is an odd prime, any indecomposable module whose class in the Dade group is a torsion element is the source of some simple module. Finally, we considered all the modules we know at present and determined which ones have an endo-split permutation resolution. We could then conclude that all but the "exceptionnal" modules occurring in the generalized quaternion case have an endo-split permutation resolution.<br/><br/>"Module d?endo-permutation" n?est pas le nom d?une maladie exotique contagieuse (du moins pas `a ma connaissance), comme vous pourriez peut-?etre l?imaginer si vous faites partie des personnes qui croient que le titre de docteur n?est destin´e qu?aux m´edecins. Dans ce cas, il se peut que le sujet dont il est question ici vous cause quelques naus´ees et r´eveille de douloureux souvenirs d?´ecole, car un module d?endo-permutation est un objet math´ematique, alg´ebrique, plus pr´ecis´ement. Ce concept a ´et´e introduit il y a un quart de si`ecle, de l?autre c?ot´e de l?Atlantique, et il s?est r´ev´el´e su_samment int´eressant pour qu?aujourd?hui il ait franchi bien des fronti`eres, celles de l?alg`ebre y compris. Mais de quoi s?agit-il ? Si vous entendez le terme "endo-permutation" probablement pour la premi`ere fois, ce n?est certainement pas le cas pour celui de "module". Cependant, sa d´efinition dans le pr´esent contexte ne co¨ýncide avec aucune de celles figurant dans les dictionnaires ordinaires. Les personnes qui ont d´ej`a entendu parler de Frobenius, Burnside, Schur, ou encore Brauer, pourront vous dire qu?un module est une repr´esentation. "De quoi ?" vous demanderezvous. "Un spectacle de marionnettes, peut-?etre ?" Bien s?ur que non ! Un module d?endo-permutation est une repr´esentation particuli`ere de certains groupes finis, o`u un groupe n?est pas un groupe de rock, comme vous pouvez vous en douter, mais d´esigne un objet math´ematique connu par tous les ´etudiants en sciences au terme de leur premi`ere ann´ee universitaire (en th´eorie, du moins). La "popularit´e" de la notion de groupe, fini ou non, est due au fait que les groupes sont fr´equemment utilis´es, aussi bien dans le domaine abstrait des math´ematiques, que dans le monde r´eel des physiciens, chimistes et autres biologistes (pour ne citer qu?eux). "Mais comment peut-on utiliser concr`etement ces objets invisibles ?" vous demanderez-vous alors. Et bien, justement, en les consid´erant par l?interm´ediaire de leurs repr´esentations, c?est-`a-dire en leur associant des matrices, de fa¸con plus ou moins naturelle. Or, comme il y a "beaucoup trop" de matrices pour un groupe donn´e, elles sont classifi´ees selon certaines de leurs propri´et´es, ce qui permet de les r´epertorier dans diverses familles (celle des modules d?endo-permutation, par exemple). Un groupe est ainsi rendu "concret", car les donn´ees matricielles sont manipulables par tous les scienti- fiques (et leurs ordinateurs), qui peuvent alors les utiliser dans leurs recherches, afin de contribuer au progr`es de la science. En toute franchise, c?est bien loin de ces soucis terre-`a-terre que ce travail de th`ese sur la classification des modules d?endo-permutation a ´et´e accompli. En fait, quitte `a choquer certaines ?ames sensibles, sa r´ealisation est surtout due au caract`ere ´epicure de son auteur, qui, avouons-le, en a ´et´e pleinement satisfait !
Resumo:
La causalité au sens de Granger est habituellement définie par la prévisibilité d'un vecteur de variables par un autre une période à l'avance. Récemment, Lutkepohl (1990) a proposé de définir la non-causalité entre deux variables (ou vecteurs) par la non-prévisibilité à tous les délais dans le futur. Lorsqu'on considère plus de deux vecteurs (ie. lorsque l'ensemble d'information contient les variables auxiliaires), ces deux notions ne sont pas équivalentes. Dans ce texte, nous généralisons d'abord les notions antérieures de causalités en considérant la causalité à un horizon donné h arbitraire, fini ou infini. Ensuite, nous dérivons des conditions nécessaires et suffisantes de non-causalité entre deux vecteurs de variables (à l'intérieur d'un plus grand vecteur) jusqu'à un horizon donné h. Les modèles considérés incluent les autoregressions vectorielles, possiblement d'ordre infini, et les modèles ARIMA multivariés. En particulier, nous donnons des conditions de séparabilité et de rang pour la non-causalité jusqu'à un horizon h, lesquelles sont relativement simples à vérifier.
Resumo:
We examine the relationship between the risk premium on the S&P 500 index return and its conditional variance. We use the SMEGARCH - Semiparametric-Mean EGARCH - model in which the conditional variance process is EGARCH while the conditional mean is an arbitrary function of the conditional variance. For monthly S&P 500 excess returns, the relationship between the two moments that we uncover is nonlinear and nonmonotonic. Moreover, we find considerable persistence in the conditional variance as well as a leverage effect, as documented by others. Moreover, the shape of these relationships seems to be relatively stable over time.
Resumo:
"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de Maîtrise en droit (LL.M) option droit des affaires"
Resumo:
Cet article se penche sur le rapport de la conception républicaine de la liberté comme non-domination défendue par P. Pettit avec la conception de la liberté comme capabilité proposée par A. Sen. L’usage que fait Pettit de la conception défendue par Sen lui permet d’avancer une conception plus réaliste des préférences des individus en contexte social. Cette définition des «préférences décisives» guide toute sa démonstration de la compatibilité de la liberté comme capabilité avec la théorie néorépublicaine. Elle lui permet en outre de donner une valeur particulière à l’objectif social de lutte contre la précarité, précarité comprise comme situation dans laquelle un individu est placé sous la dépendance arbitraire d’un autre en l’empêchant de se mouvoir à sa guise dans le jeu social. Nous examinons les enjeux de cette articulation à la lumière de la réponse critique qui a été formulée par Sen à l’effet que la conception néorépublicaine limitait trop la pluralité sociale de la liberté. Enfin, nous esquissons une manière de réconcilier l’approche par les capabilités avec la conception républicaine.
Resumo:
In defending the principle of neutrality, liberals have often appealed to a more general moral principle that forbids coercing persons in the name of reasons those persons themselves cannot reasonably be expected to share. Yet liberals have struggled to articulate a non-arbitrary, non-dogmatic distinction between the reasons that persons can reasonably be expected to share and those they cannot. The reason for this, I argue, is that what it means to “share a reason” is itself obscure. In this paper I articulate two different conceptions of what it is to share a reason; I call these conceptions “foundationalist” and “constructivist.” On the foundationalist view, two people “share” a reason just in the sense that the same reason applies to each of them independently. On this view, I argue, debates about the reasons we share collapse into debates about the reasons we have, moving us no closer to an adequate defense of neutrality. On the constructivist view, by contrast, “sharing reasons” is understood as a kind of activity, and the reasons we must share are just those reasons that make this activity possible. I argue that the constructivist conception of sharing reasons yields a better defense of the principle of neutrality.
Resumo:
Notre recherche visait au départ l'analyse de la substance du dommage moral: retrouver les sentiments à l'intérieur des chefs de dommage moral. Une première lecture des jugements québécois publiés, rendus entre le 1er janvier 1950 et le 31 décembre 2008 et à l'intérieur desquels des dommages et intérêts ont été octroyés pour réparer un dommage moral en matière de responsabilité civile extracontractuelle, laisse une impression de confusion et de désordre, tant au plan terminologique qu'au plan conceptuel. Dommage moral, préjudice extrapatrimonial, dommage non pécuniaire, préjudice moral: autant de termes qui rendent impossible une synthèse des chefs de préjudice. C'est finalement à l'analyse des raisons de cette confusion, aux formes qu'elle prend, aux moyens déployés par les juristes pour, sinon la surmonter, du moins la contenir, que la présente thèse est consacrée. Malgré cette confusion et ce désordre, un constat général d'homogénéité et de stabilité des discours judiciaire et juridique sur le préjudice extrapatrimonial peut d'abord être tracé. Le dommage moral et le préjudice extrapatrimonial (les deux étant couramment assimilés) sont réputés difficilement réparables. Afin de contenir l'arbitraire et la subjectivité qui caractérisent le préjudice extrapatrimonial, un discours dominant rationnel et raisonnable s'est construit et une évaluation globale du préjudice est pratiquée par les juges. Il en résulte une stabilité des montants des dommages et intérêts octroyés à titre de réparation. Mais pourquoi autant de mots pour décrire une même réalité? Dommage et préjudice sont actuellement employés en droit québécois comme s'ils étaient terminologiquement et conceptuellement indistincts; il en résulte une sursimplification de la responsabilité civile. Nous proposons que le dommage (qu'il soit corporel, matériel ou moral) et le préjudice (qu'il soit extrapatrimonial ou patrimonial) sont distincts. Le dommage se qualifie au siège de l'atteinte (des corps, des choses, des sentiments et valeurs) et le préjudice se qualifie au regard de la nature des répercussions du dommage (répercussions patrimoniales ou extrapatrimoniales). Ainsi distingués, dommage et préjudice retrouvent un sens tout en faisant ressortir les deux temps composant la responsabilité civile: l'établissement d'une responsabilité à l'aide de la faute, du dommage et du lien de causalité les unissant (1er temps) et la réparation du préjudice accompagnant le dommage (2e temps). Par une telle distinction, la sursimplification de la responsabilité civile est dépassée et force est de constater que bien peu de choses sont dites dans les jugements sur la substance du dommage moral et même sur le dommage moral tout court. Le discours dominant porte essentiellement sur la difficile détermination de la quotité des dommages et intérêts pour réparer le préjudice extrapatrimonial. Si le dommage moral et le préjudice extrapatrimonial n'étaient pas confondus et employés par les juristes avec une apparente cohérence, une synthèse des chefs de préjudice extrapatrimonial, telle qu'envisagée au départ, aurait peut-être été possible…
Resumo:
Le pouvoir de détenir une personne à des fins d'enquête n'est pas une technique d'investigation nouvelle et tire son origine du droit anglais. Mais cette méthode d'enquête, qui consiste à restreindre temporairement la liberté de mouvement d'une personne que l'on soupçonne pour des motifs raisonnables d'être impliquée dans une activité criminelle, ne fut reconnue officiellement au Canada qu'en juillet 2004 suite au jugement rendu par la Cour suprême dans l'affaire R. c. Mann. Au moment d'écrire ces lignes, cette stratégie d'enquête policière ne fait toujours pas l'objet d'une réglementation spécifique au Code criminel. L'approbation de cette technique d'enquête, en l'absence de toute forme de législation, ne s'est pas faite sans critiques de la part des auteurs et des commentateurs judiciaires qui y voient une intrusion dans un champ de compétences normalement réservé au Parlement. L'arrêt Mann laisse également en suspens une question cruciale qui se rapporte directement aux droits constitutionnels des citoyens faisant l'objet d'une détention semblable: il s'agit du droit d'avoir recours sans délai à l'assistance d'un avocat. Le présent travail se veut donc une étude approfondie du concept de la détention à des fins d'enquête en droit criminel canadien et de son impact sur les droits constitutionnels dont bénéficient les citoyens de notre pays. Pour accomplir cette tâche, l'auteur propose une analyse de la question en trois chapitres distincts. Dans le premier chapitre, l'auteur se penche sur le rôle et les fonctions dévolus aux agents de la paix qui exécutent leur mission à l'intérieur d'une société libre et démocratique comme celle qui prévaut au Canada. Cette étude permettra au lecteur de mieux connaître les principaux acteurs qui assurent le maintien de l'ordre sur le territoire québécois, les crimes qu'ils sont le plus souvent appelés à combattre ainsi que les méthodes d'enquête qu'ils emploient pour les réprimer. Le deuxième chapitre est entièrement dédié au concept de la détention à des fins d'enquête en droit criminel canadien. En plus de l'arrêt R. c. Mann qui fera l'objet d'une étude détaillée, plusieurs autres sujets en lien avec cette notion seront abordés. Des thèmes tels que la notion de «détention» au sens des articles 9 et 10b) de la Charte canadienne des droits et libertés, la différence entre la détention à des fins d'enquête et l'arrestation, les motifs pouvant légalement justifier une intervention policière de même que les limites et l'entendue de la détention d'une personne pour fins d'enquête, seront aussi analysés. Au troisième chapitre, l'auteur se consacre à la question du droit d'avoir recours sans délai à l'assistance d'un avocat (et d'être informé de ce droit) ainsi que du droit de garder le silence dans des circonstances permettant aux agents de la paix de détenir une personne à des fins d'enquête. Faisant l'analogie avec d'autres jugements rendus par nos tribunaux, l'auteur suggère quelques pistes de solutions susceptibles de combler les lacunes qui auront été préalablement identifiées dans les arrêts Mann et Clayton.
Resumo:
Bien que les règles de droits et des directives administratives dictent leur conduite, les policiers jouissent d’une latitude considérable dans la manière d’appliquer la loi et de dispenser des services. Puisque l’exercice efficient de toute forme d’autorité nécessite la reconnaissance de sa légitimité (Tyler, 2004), plus l’application de leurs pouvoirs discrétionnaires est jugée arbitraire ou excessive, plus les citoyens risquent d’utiliser des mécanismes normaux d’opposition ou de riposte. Dans cette optique, la présente étude cherche à départager les causes des 15 023 épisodes de voie de fait, menace, harcèlement, entrave et intimidation, qualifiés de défiance, dont les policiers du Service de police de la ville de Montréal (SPVM) ont été la cible entre 1998-2008 selon leur registre des événements (Module d’information policière – MIP). Elle présume qu’à interactions constantes entre la police et les citoyens, les comportements de défiance policière seront fonction du niveau de désordre du quartier et des caractéristiques des personnes impliquées. Plus les policiers interceptent de jeunes, de minorités ethniques et d’individus associés aux gangs de rue, plus ils risquent d’être défiés. Elle suppose également que la probabilité qu’une intervention soit défiée dépend de l’excessivité des activités policières menées dans le quartier. Plus un quartier est sur-contrôlé par rapport à son volume de crimes (overpoliced), plus le climat local est tendu, plus les policiers sont perçus comme étant illégitimes et plus ils risquent d’être défiés lorsqu’ils procèdent à une intervention. Enfin, les comportements de défiance sont peut-être simplement fonction du niveau d’interactions entre les policiers et les citoyens, à conditions sociales et criminogènes des quartiers tenues constantes. Une série d’analyses de corrélation tend à confirmer que les comportements de défiance varient en fonction de l’âge, de l’ethnicité et de l’appartenance à un gang de rue de l’auteur. Par contre, les conditions sociales et criminogènes des quartiers paraissent être des causes antécédentes à la défiance puisqu’elles encouragent un volume plus élevé d’interventions dans les quartiers désorganisés, lequel influe sur le nombre d’incidents de défiance. Contrairement à notre hypothèse, les résultats tendent à démontrer que les policiers risquent davantage d’être défiés dans les quartiers sous-contrôlés (underpoliced). Quant à elles, les analyses multiniveaux suggèrent que le nombre d’incidents de défiance augmente à chaque fois qu’une intervention policière est effectuée, mais que cette augmentation est influencée par les quartiers propices aux activités criminelles des gangs de rue. En ce sens, il est probable que l’approche policière dans les quartiers d’activités « gangs de rue » soit différente, par souci de protection ou par anticipation de problèmes, résultant plus fréquemment en des actes de défiance à l’égard des policiers.