982 resultados para Defauts de Conception
Resumo:
Cet article se penche sur le rapport de la conception républicaine de la liberté comme non-domination défendue par P. Pettit avec la conception de la liberté comme capabilité proposée par A. Sen. L’usage que fait Pettit de la conception défendue par Sen lui permet d’avancer une conception plus réaliste des préférences des individus en contexte social. Cette définition des «préférences décisives» guide toute sa démonstration de la compatibilité de la liberté comme capabilité avec la théorie néorépublicaine. Elle lui permet en outre de donner une valeur particulière à l’objectif social de lutte contre la précarité, précarité comprise comme situation dans laquelle un individu est placé sous la dépendance arbitraire d’un autre en l’empêchant de se mouvoir à sa guise dans le jeu social. Nous examinons les enjeux de cette articulation à la lumière de la réponse critique qui a été formulée par Sen à l’effet que la conception néorépublicaine limitait trop la pluralité sociale de la liberté. Enfin, nous esquissons une manière de réconcilier l’approche par les capabilités avec la conception républicaine.
Resumo:
L’idéal républicain de la liberté comme non-domination promu par P. Pettit possède un potentiel intéressant pour penser l’évolution de l’internationalisme. Cet article examine l’enjeu éthique et politique de l’application institutionnelle de la liberté comme non-domination à l’échelle supranationale. Il discute en particulier la thèse de J. Bohman, qui a récemment proposé une interprétation délibérative et cosmopolitique de la conception de la liberté républicaine. Mais le passage de la citoyenneté démocratique nationale à la citoyenneté cosmopolitique, tel que défendu par Bohman, nous semble reposer sur des conceptions trop exigeantes et compréhensives de l’impartialité et de la démocratie. En nous appuyant sur les travaux socio-historiques de S. Sassen et de C. Tilly, nous soutenons que des idéaux normatifs moins exigeants de l’impartialité et de la démocratie gagneraient en réalisme sociologique et en correspondance avec les mécanismes actuellement impliqués dans l’évolution de la coopération internationale et dans la démocratisation des sociétés.
Resumo:
Cet article propose une lecture critique de l’approche néorépublicaine de la reconnaissance et du projet d’une économie de l’estime, développé par Ph. Pettit et G. Brennan. Il vise à montrer en quoi la conception de la reconnaissance qui est celle de ce dernier est trop étroite, dans la mesure où elle va de pair avec une analyse insuffisante des conditions de la visibilité sociale des performances et capacités des agents, ainsi que de la manière dont les luttes de reconnaissance peuvent contribuer à une telle visibilité. Ce texte montre ainsi en quoi il convient d’élargir la conception néorépublicaine de la reconnaissance. Il vise aussi à dégager les limites du projet d’une économie de l’estime, en montrant ses lacunes eu égard à une réflexion suffisante sur les conditions d’un pluralisme des standards d’estime.
Resumo:
In defending the principle of neutrality, liberals have often appealed to a more general moral principle that forbids coercing persons in the name of reasons those persons themselves cannot reasonably be expected to share. Yet liberals have struggled to articulate a non-arbitrary, non-dogmatic distinction between the reasons that persons can reasonably be expected to share and those they cannot. The reason for this, I argue, is that what it means to “share a reason” is itself obscure. In this paper I articulate two different conceptions of what it is to share a reason; I call these conceptions “foundationalist” and “constructivist.” On the foundationalist view, two people “share” a reason just in the sense that the same reason applies to each of them independently. On this view, I argue, debates about the reasons we share collapse into debates about the reasons we have, moving us no closer to an adequate defense of neutrality. On the constructivist view, by contrast, “sharing reasons” is understood as a kind of activity, and the reasons we must share are just those reasons that make this activity possible. I argue that the constructivist conception of sharing reasons yields a better defense of the principle of neutrality.
Resumo:
La tolérance et la neutralité sont habituellement considérées comme des réponses interchangeables ou du moins complémentaires à des situations de conflit et de désaccord moral. Malgré cette association traditionnelle, plusieurs auteurs ont récemment contesté la complémentarité, voire même la compatibilité, de ces deux notions. Cet article examine tout d’abord deux arguments qui visent à établir l’incompatibilité de la tolérance et de la neutralité. Il montre ensuite que si ces arguments ne sont pas probants, en ce sens qu’ils ne parviennent pas à montrer l’impossibilité d’une conciliation entre tolérance et neutralité, ils mettent néanmoins en évidence deux difficultés qui se dressent sur le chemin d’une telle conciliation. Il introduit enfin une conception particulière de la tolérance fondée sur l’idée de justice et indique comment elle permet de remédier aux difficultés précédemment mises en évidence.
Resumo:
One of the main characteristics of today’s democratic societies is their pluralism. As a result, liberal political philosophers often claim that the state should remain neutral with respect to different conceptions of the good. Legal and social policies should be acceptable to everyone regardless of their culture, their religion or their comprehensive moral views. One might think that this commitment to neutrality should be especially pronounced in urban centres, with their culturally diverse populations. However, there are a large number of laws and policies adopted at the municipal level that contradict the liberal principle of neutrality. In this paper, I want to suggest that these perfectionistlaws and policies are legitimate at the urban level. Specifically, I will argue that the principle of neutrality applies only indirectly to social institutions within the broader framework of the nation-state. This is clear in the case of voluntary associations, but to a certain extent this rationale applies also to cities. In a liberal regime, private associations are allowed to hold and defend perfectionist views, focused on a particular conception of the good life. One problem is to determine the limits of this perfectionism at the urban level, since cities, unlike private associations, are publicinstitutions. My aim here is therefore to give a liberal justification to a limited form of perfectionism of municipal laws and policies.
Resumo:
Based on a close reading of the debate between Rawls and Sen on primary goods versus capabilities, I argue that liberal theory cannot adequately respond to Sen’s critique within a conventionally neutralist framework. In support of the capability approach, I explain why and how it defends a more robust conception of opportunity and freedom, along with public debate on substantive questions about well-being and the good life. My aims are: (i) to show that Sen’s capability approach is at odds with Rawls’s political liberal version of neutrality; (ii) to carve out a third space in the neutrality debate; and (iii) to begin to develop, from Sen’s approach, the idea of public value liberalism as a position that falls within that third space.
Resumo:
Cette thèse porte sur les conceptions d’Egon Bahr dans le domaine de la politique à l’Est (Ostpolitik) de la République fédérale d’Allemagne (RFA) entre 1945 et 1975. L’analyse se concentre sur le lien entre l’Ostpolitik et l’idée que Bahr se fait de la place et du rôle de l’Allemagne en Europe. Plus précisément, cette étude veut cerner les buts poursuivis par Bahr dans le cadre de la politique orientale. La première partie traite du développement conceptuel de l’Ostpolitik (1945-1969), tandis que la seconde examine sa mise en application entre l’élection de Willy Brandt comme chancelier de la RFA et la conclusion des accords d’Helsinki (1969-1975). Les principales sources utilisées sont les écrits de Bahr ainsi que des documents inédits se trouvant dans divers centres d’archives non seulement en Allemagne, mais aussi aux États-Unis, en France et en Grande-Bretagne. Pour Bahr, l’Ostpolitik ne saurait se résumer à l’élimination des obstacles qui gênent la diplomatie ouest-allemande durant la guerre froide. Bahr poursuit plutôt un projet nationaliste ambitieux dans le contexte des relations avec le bloc soviétique : créer les conditions d’une redéfinition de la place de l’Allemagne en Europe. Pour lui, l’Ostpolitik constitue un instrument idéal pour faire de l’Allemagne la puissance prépondérante dans un nouvel ordre de paix européen. Trois éléments complémentaires participent à l’accomplissement de cette vision : 1) la consolidation de la paix et de la sécurité continentales; 2) la réunification allemande et 3) l’émancipation de la politique étrangère (ouest-)allemande. Cette thèse éclaire la pensée politique de Bahr et contribue à une meilleure compréhension de la signification de l’Ostpolitik dans le contexte plus large de la politique étrangère de la RFA. Les conceptions de Bahr sont uniques dans l’Allemagne de la guerre froide parce qu’elles sont centrées sur les notions de puissance, d’intérêt national et de « normalité ». En même temps, Bahr comprend que la coopération doit toujours rester l’instrument diplomatique privilégié des Allemands vu leur position géographique centrale. À travers le prisme des conceptions de son « architecte », l’Ostpolitik apparaît comme un véritable effort de réconciliation entre la paix en Europe et l’affirmation de l’influence allemande sur la scène internationale.
Resumo:
La survie des réseaux est un domaine d'étude technique très intéressant ainsi qu'une préoccupation critique dans la conception des réseaux. Compte tenu du fait que de plus en plus de données sont transportées à travers des réseaux de communication, une simple panne peut interrompre des millions d'utilisateurs et engendrer des millions de dollars de pertes de revenu. Les techniques de protection des réseaux consistent à fournir une capacité supplémentaire dans un réseau et à réacheminer les flux automatiquement autour de la panne en utilisant cette disponibilité de capacité. Cette thèse porte sur la conception de réseaux optiques intégrant des techniques de survie qui utilisent des schémas de protection basés sur les p-cycles. Plus précisément, les p-cycles de protection par chemin sont exploités dans le contexte de pannes sur les liens. Notre étude se concentre sur la mise en place de structures de protection par p-cycles, et ce, en supposant que les chemins d'opération pour l'ensemble des requêtes sont définis a priori. La majorité des travaux existants utilisent des heuristiques ou des méthodes de résolution ayant de la difficulté à résoudre des instances de grande taille. L'objectif de cette thèse est double. D'une part, nous proposons des modèles et des méthodes de résolution capables d'aborder des problèmes de plus grande taille que ceux déjà présentés dans la littérature. D'autre part, grâce aux nouveaux algorithmes, nous sommes en mesure de produire des solutions optimales ou quasi-optimales. Pour ce faire, nous nous appuyons sur la technique de génération de colonnes, celle-ci étant adéquate pour résoudre des problèmes de programmation linéaire de grande taille. Dans ce projet, la génération de colonnes est utilisée comme une façon intelligente d'énumérer implicitement des cycles prometteurs. Nous proposons d'abord des formulations pour le problème maître et le problème auxiliaire ainsi qu'un premier algorithme de génération de colonnes pour la conception de réseaux protegées par des p-cycles de la protection par chemin. L'algorithme obtient de meilleures solutions, dans un temps raisonnable, que celles obtenues par les méthodes existantes. Par la suite, une formulation plus compacte est proposée pour le problème auxiliaire. De plus, nous présentons une nouvelle méthode de décomposition hiérarchique qui apporte une grande amélioration de l'efficacité globale de l'algorithme. En ce qui concerne les solutions en nombres entiers, nous proposons deux méthodes heurisiques qui arrivent à trouver des bonnes solutions. Nous nous attardons aussi à une comparaison systématique entre les p-cycles et les schémas classiques de protection partagée. Nous effectuons donc une comparaison précise en utilisant des formulations unifiées et basées sur la génération de colonnes pour obtenir des résultats de bonne qualité. Par la suite, nous évaluons empiriquement les versions orientée et non-orientée des p-cycles pour la protection par lien ainsi que pour la protection par chemin, dans des scénarios de trafic asymétrique. Nous montrons quel est le coût de protection additionnel engendré lorsque des systèmes bidirectionnels sont employés dans de tels scénarios. Finalement, nous étudions une formulation de génération de colonnes pour la conception de réseaux avec des p-cycles en présence d'exigences de disponibilité et nous obtenons des premières bornes inférieures pour ce problème.
Resumo:
La plupart des philosophes s’entendent aujourd’hui pour affirmer qu’il y a une crise de sens en Occident. J.-F. Mattéi l’a démontré sans équivoque dans son ouvrage intitulé La crise de sens (2006). Selon lui, la crise se traduirait par cinq aspects: crise spirituelle, crise religieuse, crise de l’art, crise économique et finalement, crise de la culture. À notre avis, cela est exact, mais incomplet, car Mattéi néglige d’évoquer la crise la plus importante : la crise écologique. L’argument qui nous amène à en postuler la plus haute importance est simple : s’il n’y a plus d’environnement favorable au maintien de la vie humaine, c’est la fin de l’humanité. L’aspect environnemental de la crise ne peut donc pas être occulté de la réflexion concernant son ensemble, car pour nous, elle est l’occasion d’un questionnement philosophique appelé à répondre à cette crise. Dans un livre intitulé Écologie, éthique et création (1994), Dominique Jacquemin nous oriente en ce sens en y posant les trois questions suivantes : 1. Est-il possible de qualifier éthiquement ce à quoi nous convie aujourd’hui la préoccupation écologique? 2. Quel rapport au monde et à l’avenir la préoccupation écologique est-elle à même d’instaurer? 3. Quelles sont les possibilités pour que la démarche écologique devienne un lieu éthique à même d’instaurer un rapport homme-nature dans le présent et l’avenir? Ainsi, le questionnement que soulève la crise écologique amène à réfléchir sur le sens et la finalité de la vie humaine et sur la conception même de l’être humain dans son rapport au monde. Le propos de ce mémoire est de répondre à ces dernières questions en nous inspirant des principes éthiques mis en avant dans Le Principe Responsabilité (1990) de Hans Jonas, et cela, dans le but d’en faire ressortir sa pertinence face au défi environnemental actuel. En d’autres termes, nous tâcherons de répondre à la question suivante : Pour la société actuelle et son prolongement, quels sont les aspects les plus pertinents de la thèse de Hans Jonas (1903 – 1993) dans son Principe Responsabilité (1990) concernant la résolution de la crise de sens? À cette fin, le mémoire comporte deux chapitres dont le premier, qui forme le cœur du mémoire, comporte trois parties principales liées aux trois questions posées précédemment. Le deuxième et dernier chapitre comporte premièrement une analyse critique du Principe responsabilité et par la suite son appréciation critique. Méthodologiquement, nous entendons éclairer la nécessité de la responsabilité éthique face à la crise écologique en mettant l’accent sur les thèmes de l’altérité et de la solidarité. C’est de cette manière que nous espérons montrer que la crise écologique actuelle ouvre des avenues possibles à la résolution, au moins partielle, de la crise de sens à laquelle nous sommes actuellement confrontés.
Resumo:
L’idée d’une égalité souveraine apparaît en même temps que le système international multilatéral. Bien que l’égalité souveraine soit consacrée explicitement dans la Charte des Nations Unies, le principe reste indéfini. Cette étude propose une définition de l’égalité souveraine en trois facettes : l’égalité formelle, l’égalité législative et l’égalité existentielle. Suite à l’examen des trois dimensions de l’égalité souveraine, une conception stricte de l’égalité souveraine ne peut être soutenue puisque toutes les facettes sont atteintes d’une relativité soit par la légalisation de l’hégémonie, par la bifurcation de l’ordre juridique international, la représentation inégale au sein des institutions multilatérales ou par l’anti-pluralisme. Bref, l’examen de chacune des facettes du principe de l’égalité souveraine démontre que l’égalité souveraine est une fiction juridique. Le principe de l’égalité souveraine peut difficilement être justifié par rapport à la réalité de la société internationale. Il demeure néanmoins utile, ne serait-ce que pour freiner le pouvoir des Grandes Puissances et se poser comme un idéal à atteindre.
Resumo:
Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.
Resumo:
Cette thèse porte sur l’amélioration des techniques d’imagerie à haut-contraste permettant la détection directe de compagnons à de faibles séparations de leur étoile hôte. Plus précisément, elle s’inscrit dans le développement du Gemini Planet Imager (GPI) qui est un instrument de deuxième génération pour les télescopes Gemini. Cette caméra utilisera un spectromètre à champ intégral (SCI) pour caractériser les compagnons détectés et pour réduire le bruit de tavelure limitant leur détection et corrigera la turbulence atmosphérique à un niveau encore jamais atteint en utilisant deux miroirs déformables dans son système d’optique adaptative (OA) : le woofer et le tweeter. Le woofer corrigera les aberrations de basses fréquences spatiales et de grandes amplitudes alors que le tweeter compensera les aberrations de plus hautes fréquences ayant une plus faible amplitude. Dans un premier temps, les performances pouvant être atteintes à l’aide des SCIs présentement en fonction sur les télescopes de 8-10 m sont investiguées en observant le compagnon de l’étoile GQ Lup à l’aide du SCI NIFS et du système OA ALTAIR installés sur le télescope Gemini Nord. La technique de l’imagerie différentielle angulaire (IDA) est utilisée pour atténuer le bruit de tavelure d’un facteur 2 à 6. Les spectres obtenus en bandes JHK ont été utilisés pour contraindre la masse du compagnon par comparaison avec les prédictions des modèles atmosphériques et évolutifs à 8−60 MJup, où MJup représente la masse de Jupiter. Ainsi, il est déterminé qu’il s’agit plus probablement d’une naine brune que d’une planète. Comme les SCIs présentement en fonction sont des caméras polyvalentes pouvant être utilisées pour plusieurs domaines de l’astrophysique, leur conception n’a pas été optimisée pour l’imagerie à haut-contraste. Ainsi, la deuxième étape de cette thèse a consisté à concevoir et tester en laboratoire un prototype de SCI optimisé pour cette tâche. Quatre algorithmes de suppression du bruit de tavelure ont été testés sur les données obtenues : la simple différence, la double différence, la déconvolution spectrale ainsi qu’un nouvel algorithme développé au sein de cette thèse baptisé l’algorithme des spectres jumeaux. Nous trouvons que l’algorithme des spectres jumeaux est le plus performant pour les deux types de compagnons testés : les compagnons méthaniques et non-méthaniques. Le rapport signal-sur-bruit de la détection a été amélioré d’un facteur allant jusqu’à 14 pour un compagnon méthanique et d’un facteur 2 pour un compagnon non-méthanique. Dernièrement, nous nous intéressons à certains problèmes liés à la séparation de la commande entre deux miroirs déformables dans le système OA de GPI. Nous présentons tout d’abord une méthode utilisant des calculs analytiques et des simulations Monte Carlo pour déterminer les paramètres clés du woofer tels que son diamètre, son nombre d’éléments actifs et leur course qui ont ensuite eu des répercussions sur le design général de l’instrument. Ensuite, le système étudié utilisant un reconstructeur de Fourier, nous proposons de séparer la commande entre les deux miroirs dans l’espace de Fourier et de limiter les modes transférés au woofer à ceux qu’il peut précisément reproduire. Dans le contexte de GPI, ceci permet de remplacer deux matrices de 1600×69 éléments nécessaires pour une séparation “classique” de la commande par une seule de 45×69 composantes et ainsi d’utiliser un processeur prêt à être utilisé plutôt qu’une architecture informatique plus complexe.
Resumo:
Les commotions cérébrales subies en contexte sportif constituent un sujet préoccupant. Il est estimé qu’aux États-Unis, environ cinq pourcent de l’ensemble des athlètes subiront une commotion cérébrale. Celle-ci est considérée comme une blessure transitoire dans la majorité des cas. Dans le domaine de la commotion cérébrale sportive, le phénomène de risque accru chez des athlètes ayant subi préalablement des commotions cérébrales est bien documenté. Cet aspect remet en question l’aspect transitoire de la blessure. Les techniques d’imagerie fonctionnelle offrent un grand potentiel dans la compréhension de cette pathologie en montrant notamment les différences fonctionnelles chez des participants ayant subi un traumatisme crânio-cérébral léger en l’absence de résultats comportementaux. Il est probable que des altérations fonctionnelles persistent au-delà de la phase de récupération postsymptômes. L’électrophysiologie, en particulier les potentiels évoqués cognitifs sont un outil de choix pour étudier la question en raison de leur sensibilité et de la mesure fonctionnelle qu’ils permettent d’obtenir. Les potentiels évoqués cognitifs consistent en une réponse électrique cérébrale moyenne générée lors de l’accomplissement d’une tâche. Il est possible d’identifier différentes composantes dans le tracé d’un potentiel évoqué; ces composantes sont associées à différents aspects de l’activité électrique cérébrale durant le traitement perceptuel et cognitif.Les articles scientifiques inclus dans cette thèse se penchent sur les effets de commotions cérébrales multiples chez des athlètes plusieurs mois après la dernière commotion. Dans un premier temps, l’aspect temporel est évalué par le biais de la mesure de la P3a et la P3b dans différents groupes d’athlètes. Ces composantes sont liées aux processus de mémoire et d’attention. Les résultats suggèrent que, malgré un fonctionnement normal, les athlètes ayant subi des commotions cérébrales éprouveraient de probables changements cognitifs sous-cliniques persistants se traduisant par une atténuation des P3a et P3b. Des altérations seraient aussi présentes quelques années après la dernière commotion, mais de façon plus subtile. La deuxième étude soumise s’intéresse aux processus électrophysiologiques liés au maintien de l’information en mémoire de travail visuel chez des athlètes ayant subi plusieurs commotions cérébrales. La mesure utilisée est la SPCN (sustained posterior controlateral negativity), une composante ERP spécifique au processus cognitif étudié. Les résultats montrent non seulement une composante atténuée chez les athlètes ayant subi trois commotions cérébrales ou plus, mais aussi une modulation de la composante en fonction du nombre de commotions cérébrales subies. Ces résultats pourraient contribuer à expliquer le risque accru de subir des commotions cérébrales subséquentes observées chez ces athlètes. En lien avec la littérature, ces données pourraient s’expliquer par la présence de déficits cognitifs sous-cliniques ou encore par la mise en place de mécanismes compensatoires. Enfin, ces résultats invitent à une grande prudence dans la gestion des cas de commotions cérébrales ainsi qu’à un effort d’éducation plus poussé chez les jeunes athlètes afin qu’ils puissent prendre les meilleures décisions concernant leur avenir.
Resumo:
La thèse analyse les recompositions de la citoyenneté dans un contexte de rééchelonnement de l’État en France et au Québec. L’argument est que, dans un tel contexte, la citoyenneté nationale se rééchelonne. Le cadre théorique consiste en une relecture institutionnelle du concept de rééchelonnement de l’État développé par N. Brenner ainsi que certains apports des travaux de J. Jenson et S. Phillips sur les régimes de citoyenneté. La thèse compare les évolutions de politiques de gestion de la diversité ethnique - centrales dans l’analyse de la citoyenneté - à Marseille et Montréal au travers des reconfigurations des rapports entre acteurs institutionnels prenant place à l’échelle locale. Nous montrons que l’État national reste un acteur important de la régulation de la citoyenneté et que les villes et les échelons locaux de l’État ont acquis une marge de manœuvre par rapport à l’État central dans la mise en place de politiques régulant la citoyenneté à l’échelle locale. Néanmoins, à l’issue de la comparaison, des différences se font jour. Au Québec, l’État central conserve un contrôle important sur les politiques instaurées à l’échelle locale alors que ceci est moins le cas en France. Ces résultats indiquent que le rééchelonnement de l’État est plus fortement institutionnalisé en France qu’au Québec. Les apports de la thèse sont triples. En premier lieu, nous montrons que l’approche institutionnelle du rééchelonnement de l’État permet de mieux décrire les processus à l’œuvre dans différents contextes nationaux que ne le permet la perspective de N. Brenner. En second lieu, nous démontrons que le concept de citoyenneté urbaine ne permet pas de rendre compte des mutations actuelles de la citoyenneté. Enfin, nous montrons que le rééchelonnement de la citoyenneté s’est institutionnalisé en France, dans un État où la conception de la citoyenneté est traditionnellement considérée comme « unitaire », nuançant ainsi cette catégorie classique en science politique.