981 resultados para Principe de continuité
Resumo:
La visée de ce mémoire est d’expliquer les récents changements des lois sur l’immigration et l’asile. À prime abord, le moment de ces changements suggère une influence des attentats du 11 septembre 2001. La littérature avance toutefois que ces changements dateraient plutôt de la fin de la Guerre froide. Nous avons donc vérifié deux hypothèses, la première étant que les changements législatifs découlent de l’évolution des flux migratoires, et la seconde voulant qu’ils résultent d’une « connexion sécurité‐migration ». Nous avons d’abord eu recours aux écrits sur les changements institutionnels et les politiques d’immigration et d’asile et sur la constitution des migrations comme enjeu sécuritaire. Ensuite, nous avons étudié le contenu des lois sur l’immigration et l’asile de pays membres de l’OCDE de 1989 à 2008. Deux typologies ont été construites pour évaluer l’effet des flux migratoires sur lesdits changements législatifs. Enfin, une analyse lexicométrique nous a permis d’évaluer le poids des enjeux sécuritaires dans les lois sur l’immigration et l’asile depuis 1989. Nous avons noté l’absence de corrélation entre changements législatifs et flux migratoires mais la présence d’un lien entre ces changements et la « connexion sécurité‐migration ». Le rôle joué par le 11 septembre et d’autres attaques terroristes a été vérifié pour les États‐Unis, le Royaume‐Uni et l’Union européenne. Ce mémoire démontre ainsi la mutation des lois sur l’immigration et l’asile qui sont passées du statut de « régulateur des migrations internationales » à celui de « garant de la sécurité nationale ».
Resumo:
Le principe de contraction de Banach, qui garantit l'existence d'un point fixe d'une contraction d'un espace métrique complet à valeur dans lui-même, est certainement le plus connu des théorèmes de point fixe. Dans plusieurs situations concrètes, nous sommes cependant amenés à considérer une contraction qui n'est définie que sur un sous-ensemble de cet espace. Afin de garantir l'existence d'un point fixe, nous verrons que d'autres hypothèses sont évidemment nécessaires. Le théorème de Caristi, qui garantit l'existence d'un point fixe d'une fonction d'un espace métrique complet à valeur dans lui-même et respectant une condition particulière sur d(x,f(x)), a plus tard été généralisé aux fonctions multivoques. Nous énoncerons des théorèmes de point fixe pour des fonctions multivoques définies sur un sous-ensemble d'un espace métrique grâce, entre autres, à l'introduction de notions de fonctions entrantes. Cette piste de recherche s'inscrit dans les travaux très récents de mathématiciens français et polonais. Nous avons obtenu des généralisations aux espaces de Fréchet et aux espaces de jauge de quelques théorèmes, dont les théorèmes de Caristi et le principe variationnel d'Ekeland. Nous avons également généralisé des théorèmes de point fixe pour des fonctions qui sont définies sur un sous-ensemble d'un espace de Fréchet ou de jauge. Pour ce faire, nous avons eu recours à de nouveaux types de contractions; les contractions sur les espaces de Fréchet introduites par Cain et Nashed [CaNa] en 1971 et les contractions généralisées sur les espaces de jauge introduites par Frigon [Fr] en 2000.
Resumo:
La libéralisation des échanges a fait augmenter les richesses, mais en réalité, elles se sont concentrées dans les pays développés. La question de la distribution plus équitable des richesses s'est rapidement posée. Le système GATT/OMC a joué un rôle décisif dans la libéralisation des échanges et dans l'articulation des rapports entre les pays développés et les pays en développement (PED). L'émergence et l'incarnation juridique dans le système GATT/OMC d'un principe de justice distributive passe par l'évolution du traitement spécial et différencié (TSD). Sous le GATT, le TSD s'est d'abord manifesté par l'article XVIII et la Partie IV du GATT de 1947, la Clause d'habilitation et le Système de préférences de 1971. Le TSD ainsi proposé appartenait essentiellement à la sof law et a échoué dans sa tentative d'intégrer les PED au système SCM. Sous l'OMC, le TSD a changé de paradigme et de mandat. Le TSD est passé d'un outil voué à mettre au développement des PED à un mécanisme employé à aider les PED à mettre en œuvre les nouvelles politiques de libéralisation découlant des accords de l'OMC. Les dispositions TSD seront alors dispersées dans l'ensemble des accords de l'OMC, mais sans jamais transcender la forme «soft law» qui les caractérisait sous le GATT. L'échec de la Conférence de Seattle, en 1999, engendrera le «Programme de Doha pour le développement», en 2001. La Déclaration de Doha était alors perçue comme l'incarnation de la transformation de l'OMC en organisation qui se préoccupe désormais de justice distributive. En observant de près le texte de la Déclaration de Doha et en analysant sa valeur juridique, on ne constate pas de progrès significatifs. Encore une fois, les mesures proposées le sont sous forme de déclarations d'intention et de promesses, voire d'engagement à négocier. Actuellement, le Cycle de Doha tarde à aboutir et tout nous porte à croire que l'avènement de l'OMC n'a pas concrétisé la volonté des PED d'une répartition plus équitable des richesses.
Resumo:
Le principe de précaution est devenu une véritable méta-norme, censée encadrer les décisions concernant certains choix scientifiques et technologiques en situation d’incertitudes cumulées et de controverses. Il lie des dimensions scientifique, éthique et politique. Puisqu’il est souvent associé au principe de participation, voire parfois au pluralisme, l’objet principal de cet article est d’analyser les différentes interprétations, souvent partielles, et parfois contradictoires, qui lui furent attribuées lors d’un débat national organisé par le Conseil Economique et Social (français), « Débat sur les OGM et les essais au champ » (2002). Il est vrai que ce principe doit normalement s’appliquer dans des circonstances spécifiques, notamment dans le cas d’une forte incertitude due aux limites de l’expertise scientifique qui ne peut pas servir d’excuses pour ne pas prendre les décisions appropriées, face à des risques qui pourraient provoquer des dommages graves et/ou irréversibles. En 2002 il était déjà formulé dans des lois françaises, censées connues par les principaux protagonistes de ce débat. Plutôt que de raisonner sur le principe de précaution in abstracto, nous allons analyser comment il est « mis à l’épreuve » dans ce cadre institutionnel très original, puisqu’il réunissait experts, étudiants, et quatre “sages”.
Resumo:
La thèse centrale de mon texte est conceptuelle. Le vrai problème du principe de précaution, au moins dans ses versions les plus fortes, est son incohérence : il prétend être un guide, mais il échoue dans cette entreprise, en condamnant la démarche même qu’il exige. La réglementation exigée par le principe fait toujours surgir ses propres risques, et le principe interdit donc en même temps ce qu’il prescrit. En conséquence, je vise à mettre à l’épreuve le principe de précaution non parce qu’il conduit dans de mauvaises directions, mais parce que si l’on estime à sa juste valeur, il ne conduit simplement dans aucune direction. Le principe menace d’être paralysant, d’interdire les réglementations, de provoquer l’inaction et tout ce qui peut constituer une étape intermédiaire entre ces points. La protection de l’environnement et de la nature sont souvent des entreprises très sensées, mais le principe de précaution n’est pas un moyen utile pour identifier quand, et dans quelle mesure, cette protection de la nature constitue une question judicieuse.
Resumo:
L’objet de cet article est d’examiner les enjeux épistémologiques d’une application généralisée du principe de précaution. En effet, le principe de précaution fait souvent l’objet de critiques de la part de la communauté scientifique qui lui reproche de constituer un frein à la recherche, à l’innovation et au progrès technique. Après avoir identifié les points exacts sur lesquels portent ces critiques, nous tentons ici d’y répondre et de souligner la compatibilité du principe de précaution avec le progrès scientifique.
Resumo:
En dépit des justifications que l’on a pu donner de la logique du principe, il subsiste une difficulté de taille au niveau de son application. En effet, il n’est pas certain que l’on puisse savoir qu’un risque possible (mais inconnu) est associé à une action donnée. Cette difficulté épistémologique pourrait fonder deux critiques juridiques au principe de précaution : la critique selon laquelle le principe implique un renversement inacceptable de la charge de la preuve ; et la critique qui tient à l’imprécision indépassable des tentatives de formulations juridiques du principe. Notre examen de la pratique du principe de précaution par le Conseil d’Etat relèvera que les décisions juridiques réussissent à délimiter un champ d’application acceptable pour le principe en question. C’est en fin de compte l’analyse des motivations sociales pour la traduction juridique du principe de précaution qui nous permettra de trouver les fondements de son application correcte.
Resumo:
Le principe de précaution révèle un changement majeur du rapport entre l’homme et la nature, perçue maintenant comme fin plutôt que comme moyen. Nous sommes passés d’un rapport historique dominant – dominé à un rapport d’interdépendance où la nature est devenue un objectif de l’activité humaine, objectif auquel le principe de précaution contribue par son éclairage sur les risques des innovations technologiques. Le principe de précaution transpose en particulier des pratiques médicales (notion de prudence, pharmaco-vigilance) aux pratiques environnementales, symbole de l’effacement de l’opposition entre intérieur (corps humain) et extérieur (nature). Le principe de précaution révèle donc l’intégration de la nature dans les fins de l’homme, un élargissement de la conscience humaine à son environnement, qui ne peut plus impunément être négligé ou oublié, et cela même au nom de l’incertitude scientifique.
Resumo:
The attached file is created with Scientific Workplace Latex
Resumo:
Les contrats de distribution exclusive sont couramment utilisés dans la mise en marché des produits. Des doutes et des critiques ont été, pourtant, soulevés relativement à leur validité au regard du droit de la concurrence. Ces ententes et les pratiques qui en découlent paraissent, à première vue, anticoncurrentielles. Le propos de ce mémoire est d’examiner dans quelle mesure les contrats de distribution exclusive peuvent, en fait, stimuler la concurrence et de montrer, en conséquence, qu’ils devraient être considérés licites eu égard au droit de la concurrence. Nous trouvons, d’une part, que les pratiques exclusives sont suspectes vu qu’elles réduisent la liberté contractuelle du producteur et du distributeur. Cette restriction est susceptible d’entraver la concurrence à cause du pouvoir de marché qu’elle crée et elle peut, de ce fait, engendrer le monopole. La Loi sur la concurrence interdit de tels agissements. Les contrats de distribution exclusive peuvent, d’autre part, favoriser réellement la concurrence. Ils constituent un instrument stratégique utilisé par les entrepreneurs dans leur lutte pour accroître leur part de marché. La distribution exclusive, en portant les acteurs commerciaux à chercher les meilleures stratégies, renforce la concurrence. Celle-ci doit être entendue non seulement comme une constante rivalité entre toutes les entreprises, mais elle doit aussi inclure la coopération entre certaines entreprises en vue de mieux concurrencer d’autres à un niveau plus général. Une juste appréciation de la concurrence dans les contrats de distribution exclusive requiert le recours à l’analyse économique du droit. Cette analyse permet une évaluation de la concurrence basée sur le critère de l’efficience économique. En vue de déterminer si une pratique donnée augmente ou non le bien-être général (sur quoi l’analyse de l’efficience met l’accent), les effets négatifs de cette pratique devraient être mis en balance avec ses effets positifs résultant des gains en efficience. C’est dans ce sens que le droit de la concurrence a évolué tant dans l’Union européenne qu’aux États-Unis et au Canada pour permettre les ententes qui entraînent des gains nets d’efficience. Ce qu’on aurait pu condamner autrefois pour entrave à la concurrence, peut maintenant paraître comme une stratégie commerciale licite et saine. Compte tenu de ce récent développement, notre analyse nous conduit à la conclusion que les accords de distribution exclusive devraient être considérés licites dans la mesure où ils améliorent le bien-être du consommateur.
Resumo:
Cette thèse pose la question de la fortune remarquable du surréalisme en Belgique et porte particulièrement attention à la poétique de Christian Dotremont qui, après une période surréaliste, trace le premier logogramme en 1962. La partie initiale de notre recherche interroge ses rapports avec le groupe surréaliste bruxellois (Paul Nougé et René Magritte), préoccupé par le refus de l’œuvre. Cette démarche subversive se transforme dans l’art expérimental du groupe Cobra (communauté artistique fondée en 1948 par Dotremont). Nous nous intéressons à cette évolution d’une préoccupation logocentrique (où le mot compte pour le contenu qu’il véhicule : il s’agit de la poétique « primitive » de Nougé et des objets bouleversants de Magritte) vers l’exploration du mot comme trace, comme scription et, par là même, comme source de poésie. La deuxième partie de notre recherche traite de l’époque Cobra où se forge ce que nous appelons la poétique du visible chez Dotremont dont le résultat est la découverte du pouvoir créatif du mot en tant que matière, en tant que trace manuscrite. Ces expérimentations centrées sur la matérialité du langage préparent le cheminement artistique de Dotremont vers l’invention du logogramme (objet d’analyse de la troisième partie de la thèse). Dans l’idée d’une légitimation du logogramme en tant que nouveau genre poético-pictural, nous relevons ses invariants créateurs : sans pour autant se soumettre au modèle pictural, celui-ci n’est ni peinture des mots, ni mot-tableau, il exploite la matérialité de la lettre comme source poétique : genre transfrontalier qui ne cesse de mettre en question et d’inclure dans sa cinétique la métamorphose de sa réception.
Resumo:
Titre : La médecine familiale vue par des jeunes omnipraticiens : rejet de la vocation et de la continuité des soins. Alors qu’une proportion préoccupante de québécois et canadiens n’a pas accès à un médecin de famille et que les efforts se multiplient pour résoudre cette situation problématique, les jeunes omnipraticiens optent de plus en plus pour des profils de pratique spécialisés, délaissant la continuité de soins. Nous avons interviewé 18 jeunes médecins de famille présentant un profil de pratique surspécialisé et analysé leur propos avec une méthodologie qualitative. Ce mémoire propose, à l’aide d’une approche de théorisation ancrée, une théorie empiriquement fondée permettant de mieux comprendre ce phénomène, ses origines et ses conséquences. Nos observations nous amènent à proposer la théorie suivante : les jeunes omnipraticiens urgentistes sont des professionnels autonomes dynamiques et changeants : ils sont non-fixés personnellement et non-fixés professionnellement. Leur système de valeur (qualité de vie et liberté, compétence, performance, valorisation et satisfaction) constitue l’argument principal de leurs choix professionnels et de leur conception de leurs rôles et responsabilités : ils sont donc mus primairement par des intérêts individualistes. À ce stade-ci de leur vie et de leur carrière, la responsabilité sociale et le sens du devoir envers la population ne figurent pas parmi leurs valeurs fondamentales. Cette théorie novatrice qui propose que leurs choix professionnels se basent d’abord et avant tout sur leurs valeurs permet de mieux comprendre pourquoi les efforts actuels de valorisation de la médecine familiale ne génèrent pas les résultats escomptés. Nous proposons une nouvelle compréhension du sens, de l’origine et des implications des choix professionnels des jeunes généralistes tant aux plans pédagogique, professionnel que de santé populationnelle.
Resumo:
La thèse présente une analyse conceptuelle de l'évolution du concept d'espace topologique. En particulier, elle se concentre sur la transition des espaces topologiques hérités de Hausdorff aux topos de Grothendieck. Il en ressort que, par rapport aux espaces topologiques traditionnels, les topos transforment radicalement la conceptualisation topologique de l'espace. Alors qu'un espace topologique est un ensemble de points muni d'une structure induite par certains sous-ensembles appelés ouverts, un topos est plutôt une catégorie satisfaisant certaines propriétés d'exactitude. L'aspect le plus important de cette transformation tient à un renversement de la relation dialectique unissant un espace à ses points. Un espace topologique est entièrement déterminé par ses points, ceux-ci étant compris comme des unités indivisibles et sans structure. L'identité de l'espace est donc celle que lui insufflent ses points. À l'opposé, les points et les ouverts d'un topos sont déterminés par la structure de celui-ci. Qui plus est, la nature des points change: ils ne sont plus premiers et indivisibles. En effet, les points d'un topos disposent eux-mêmes d'une structure. L'analyse met également en évidence que le concept d'espace topologique évolua selon une dynamique de rupture et de continuité. Entre 1945 et 1957, la topologie algébrique et, dans une certaine mesure, la géométrie algébrique furent l'objet de changements fondamentaux. Les livres Foundations of Algebraic Topology de Eilenberg et Steenrod et Homological Algebra de Cartan et Eilenberg de même que la théorie des faisceaux modifièrent profondément l'étude des espaces topologiques. En contrepartie, ces ruptures ne furent pas assez profondes pour altérer la conceptualisation topologique de l'espace elle-même. Ces ruptures doivent donc être considérées comme des microfractures dans la perspective de l'évolution du concept d'espace topologique. La rupture définitive ne survint qu'au début des années 1960 avec l'avènement des topos dans le cadre de la vaste refonte de la géométrie algébrique entreprise par Grothendieck. La clé fut l'utilisation novatrice que fit Grothendieck de la théorie des catégories. Alors que ses prédécesseurs n'y voyaient qu'un langage utile pour exprimer certaines idées mathématiques, Grothendieck l'emploie comme un outil de clarification conceptuelle. Ce faisant, il se trouve à mettre de l'avant une approche axiomatico-catégorielle des mathématiques. Or, cette rupture était tributaire des innovations associées à Foundations of Algebraic Topology, Homological Algebra et la théorie des faisceaux. La théorie des catégories permit à Grothendieck d'exploiter le plein potentiel des idées introduites par ces ruptures partielles. D'un point de vue épistémologique, la transition des espaces topologiques aux topos doit alors être vue comme s'inscrivant dans un changement de position normative en mathématiques, soit celui des mathématiques modernes vers les mathématiques contemporaines.