943 resultados para Démarche clinique et formation
Resumo:
Les travaux effectués dans le cadre de cette thèse de doctorat avaient pour but de mettre au point des nouvelles formulations d’antifongiques sous forme de nanoparticules polymériques (NP) en vue d’améliorer l’efficacité et la spécificité des traitements antifongiques sur des souches sensibles ou résistantes de Candida spp, d’Aspergillus spp et des souches de Candida albicans formant du biofilm. Dans la première partie de ce travail, nous avons synthétisé et caractérisé un polymère à base de polyester-co-polyéther branché avec du poly(éthylène glycol) (PEG-g-PLA). En plus d’être original et innovant, ce co-polymère a l’avantage d’être non-toxique et de posséder des caractéristiques de libération prolongée. Trois antifongiques couramment utilisés en clinique et présentant une biodisponibilité non optimale ont été choisis, soient deux azolés, le voriconazole (VRZ) et l’itraconazole (ITZ) et un polyène, l’amphotéricine B (AMB). Ces principes actifs (PA), en plus des problèmes d’administration, présentent aussi d’importants problèmes de toxicité. Des NP polymériques encapsulant ces PA ont été préparées par une technique d’émulsion huile-dans-l’eau (H/E) suivie d’évaporation de solvant. Une fois fabriquées, les NP ont été caractérisées et des particules de d’environ 200 nm de diamètre ont été obtenues. Les NP ont été conçues pour avoir une structure coeur/couronne avec un coeur constitué de polymère hydrophobe (PLA) et une couronne hydrophile de PEG. Une faible efficacité de chargement (1,3% m/m) a été obtenue pour la formulation VRZ encapsulé dans des NP (NP/VRZ). Toutefois, la formulation AMB encapsulée dans des NP (NP/AMB) a montré des taux de chargement satisfaisants (25,3% m/m). En effet, le caractère hydrophobe du PLA a assuré une bonne affinité avec les PA hydrophobes, particulièrement l’AMB qui est le plus hydrophobe des agents sélectionnés. Les études de libération contrôlée ont montré un relargage des PA sur plusieurs jours. La formulation NP/AMB a été testée sur un impacteur en cascade, un modèle in vitro de poumon et a permis de démontrer le potentiel de cette formulation à être administrée efficacement par voie pulmonaire. En effet, les résultats sur l’impacteur en cascade ont montré que la majorité de la formulation s’est retrouvée à l’étage de collecte correspondant au niveau bronchique, endroit où se situent majoritairement les infections fongiques pulmonaires. Dans la deuxième partie de ces travaux, nous avons testé les nouvelles formulations d’antifongiques sur des souches planctoniques de Candida spp., d’Aspergillus spp. et des souches de Candida albicans formant du biofilm selon les procédures standardisées du National Committee for Clinical Laboratory Standards (NCCLS). Les souches choisies ont démontré des résistances aux azolés et aux polyènes. Les études d’efficacité in vitro ont permis de prouver hors de tout doute que les nouvelles formulations offrent une efficacité nettement améliorée comparée à l’agent antifongique libre. Pour mettre en lumière si l’amélioration de l’efficacité antifongique était due à une internalisation des NP, nous avons évalué le comportement des NP avec les cellules de champignons. Nous avons procédé à des études qualitatives de microscopie de fluorescence sur des NP marquées avec de la rhodamine (Rh). Tel qu’attendu, les NP ont montré une localisation intracellulaire. Pour exclure la possibilité d’une simple adhésion des NP à la surface des levures, nous avons aussi confirmé leur internalisation en microscopie confocale de fluorescence. Il est important de noter que peu d’études à ce jour ont mis l’accent sur l’élaboration de nouvelles formulations d’antifongiques à base de polymères non toxiques destinées aux traitements des mycoses, donnant ainsi une grande valeur et originalité aux travaux effectués dans cette thèse. Les résultats probants obtenus ouvrent la voie vers une nouvelle approche pour contourner les problèmes de résistances fongiques, un problème de plus en plus important dans le domaine de l’infectiologie.
Resumo:
Rapport de stage présenté à la faculté des sciences infirmières en vue de l’obtention du grade de Maître ès sciences (M.Sc.) en sciences infirmières option expertise-conseil en soins infirmiers
Resumo:
Problématique : La quantification de l’intégrité du tendon d’Achille (TA) représente un défi en réadaptation. L’adoption de mesures quantitatives du TA, extraites à partir d’une image ultrasonographique (QUS), pourrait remédier à cette lacune. Objectifs : 1) Évaluer la fiabilité test-retest et la précision de mesures QUS du TA; 2) Déterminer le meilleur protocole de collecte de mesures QUS à employer en pratique clinique. Méthodologie : Un total de 23 TAs présentant des symptômes d’une tendinopathie achilléenne et 63 TAs asymptomatiques ont été évalués. Pour chaque TA, 8 images ont été enregistrées (2 visites * 2 évaluatrices * 2 images). Différents types de mesures QUS ont été prises : géométriques (épaisseur, largeur, aire), dérivées d’un histogramme des niveaux de gris et dérivées d’une matrice de co-occurrence. Une étude de généralisabilité a quantifié la fiabilité et la précision de chaque mesure QUS et une étude de décision a fait ressortir les meilleurs protocoles de prise de mesures. Résultats : Les mesures géométriques ont démontré une excellente fiabilité et précision. Les mesures dérivées de l’histogramme des niveaux de gris ont démontré une fiabilité et précision médiocres. Les mesures dérivées d’une matrice de co-occurrence ont démontré une fiabilité modérée à excellente et une précision variable. En pratique clinique, il est recommandé de moyenner les résultats de trois images collectées par un évaluateur lors d’une visite. Conclusion : L’utilisation des mesures QUS géométriques permet de quantifier l’intégrité du TA (clinique et recherche). Davantage d’études sur les mesures QUS dérivées d’une matrice de co-occurrence s’avèrent nécessaires.
Resumo:
Cette thèse porte sur l’histoire de la traduction en Colombie dans le XIXe siècle. Elle étudiera le rapport entre la traduction et l’éducation pendant la réforme éducative menée par le groupe politique connu sous le nom de los radicales liberales. Pour ce faire, elle décrit et analyse les traductions parues dans le périodique officiel de la réforme, La Escuela Normal (1871-1879), dont la mission consistait en la diffusion des informations administratives et légales concernant la réforme éducative. On y trouve aussi des articles sur l’éducation et des leçons destinés à la formation des enseignants (manuels scolaires). À partir d’une démarche méthodologique et théorique descriptive et socioculturelle qui combine l’analyse des traductions et le contexte de réception de celles-ci, on analyse comment et pourquoi le contexte politique, social et éducatif de l’époque s’est répercuté sur la sélection des thématiques et des auteurs à traduire dans ce périodique. De plus, le groupe de traducteurs et d’intellectuels ainsi que la façon de traduire de ceux-ci sont étudiés. Cette recherche permet d’observer que la traduction n’est pas une activité neutre, mais une activité au centre de dynamiques sociales et culturelles. De plus, les contacts culturels permettent des transferts divers, notamment des traductions, mais aussi des représentations et des modèles sociaux. Finalement, la traduction s’avère un instrument au service des intérêts particuliers d’un groupe politique et social.
Resumo:
Rapport de stage présenté à la Faculté des études supérieures en vue de l’obtention du grade de maîtrise (M. Sc.) en criminologie
Resumo:
La non-violence fait référence à une idéologie et un ensemble de pratiques qui ont pour caractéristique commune de rejeter la violence sous toutes ses formes dans l’actualisation quotidienne. La non-violence est cependant devenue également un outil auquel certains recourrent dans des objectifs qui ne servent pas nécessairement le bien commun. En d’autres termes, la non-violence n’est pas systématiquement un outil de paix. Elle est un moyen d’obtenir ce que l’on veut, sans recourir à la violence. Cette thèse propose une vision de la non-violence au service du bien commun. Elle puise dans l’historicité de grands événements et acteurs qui ont utilisé la non-violence pour libérer une collectivité de formes d’oppression qui amenuisaient la dignité humaine. Elle fait référence à des auteurs et acteurs qui ont influencé le théologien processuel David Ray Griffin dans sa propre démarche d’enseignement et de recherche théologiques sur une quarantaine d’années, soient de la guerre du Vietnam à celle d’Iraq. Les dates survolées vont de 1968 à 2008. Une première démarche entreprise par la recherche est de comprendre le plus précisément possible quelles sont les avenues les plus récentes concernant la non-violence et d’explorer ses influences sur la vie et la carrière du théologien processuel États-Unien David Ray Griffin. En second lieu, une rétrospective historique des événements marquants aux États-Unis permet de cerner le contexte au sein duquel Griffin a évolué et comment son discours a laissé transparaître ces influences historiques, sociales et académiques. Une analyse plus centrée sur la politique extérieure des États-Unis en matière d’économie et de militarisme aiguille vers l’identification de signes que Griffin qualifie lui-même d’anti-théologiques, ce qui l’incite à élaborer une vision paradigmatique globalisante, équilibrée selon lui, où les ressources planétaires sont redistribuées dans un souci d’équité et de justice. Pour ce faire, un tribunal international, une religion globale, à l’image de ce que propose la pensée processuelle whiteheadienne-hartshornienne sont proposés. Griffin en brosse les grands traits dans un discours où l’exhortation s’assortit d’une méthodologie et d’une pédagogie éprouvés depuis 40 ans. Une grille d’analyse des textes griffiniens est par la suite élaborée, structurant les différentes composantes fondamentales de sa pensée. Un modèle d’intégration des valeurs de la non-violence est dégagé des lectures, applicable à d’autres disciplines. Appuyé sur une tradition authentique d’auteurs non-violents, David Ray Griffin présente les caractéristiques d’un homme de paix, duquel les idéaux débordent le cadre national pour rejoindre le planétaire, dans une visée résolument sotériologique. Cette visée devient urgente alors que les événements des attentats terroristes du World Trade Center du 11 septembre 2001 font dire à Griffin que non seulement les États-Unis sont engagés dans une démarche impérialiste démoniaque, mais qu’ils contribuent de manière accélérée à la destruction de la planète. Il faut absolument, croit-il, renverser le courant et devenir, pour le monde, un leader de la réparation des écosystèmes, des économies et des sociétés. S’adjoignant des auteurs d’autres disciplines, et toujours dans un cadre processuel, Griffin entreprend le long périple pédagogique qu’est celui de convaincre le plus grand nombre d’individus possible que le temps est venu d’agir.
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.
Resumo:
Résumé Introduction: Les infections urinaires (IU) sont les infections bactériennes les plus fréquentes chez les patients hospitalisés. Cette étude décrit les tendances temporelles d'admission et de mortalité liées aux hospitalisations pour les IU, ainsi que le fardeau économique associé. Les prédicteurs de mauvaise évolution clinique et de mortalité sont examinés par la suite. Méthodes: Les données ont été extraites à partir de la base de données du NIS entre le 1er janvier 1998 et le 31 décembre 2010. 1,717,181 hospitalisations liées aux IU ont été retenues. L'incidence et la mortalité ont été calculées et stratifiées selon le sexe, l'âge et la présence de sepsis. Les frais médians et totaux pour les hospitalisations sont calculés et ajustés pour l'inflation. Finalement, les prédicteurs d'avoir un sepsis induit par les IU et de mortalité sont examinés avec une analyse par régression logistique multivariée. Résultats: L'incidence globale d'hospitalisation et la mortalité associées aux IU voit une croissance annuel estimé (EAPC) de +4.764 et +4.610 respectivement (p<0.0001). L'augmentation d'incidence est le plus marquée pour les patients âgés de 55 à 64 ans (EAPC = +7.805; p<0.0001). Les frais médians par hospitalisation ont augmenté de $10 313 en 1998 à $21 049 en 2010 (EAPC +9.405; p<0.0001). Les frais globaux pour les hospitalisations des IU ont augmenté de $8.9 milliard en 1998 à $33.7 milliard en 2010 (EAPC +0.251; p<0.0001). Les patients âgés, de sexe masculin, de race afro-américaine, ainsi que les patients assurés par Medicaid ou ceux sans assurance, et les patients soignés à des centres non-académiques sont à risque plus important de mortalité (p<0.0001). Conclusion: L'incidence et la mortalité associées aux IU ont augmenté au cours de la dernière décennie. Les frais médians ajustés pour l'inflation ainsi que les frais globaux ont augmenté progressivement au cours de la période d'étude. Dans la cohorte étudiée, les patients âgés, de sexe masculin, de race afro-américaine, ainsi que les patients assurés par Medicaid ou ceux sans assurance, et les patients soignés à des centres non-académiques sont à risque plus important de mortalité. Ces données représentent des indicateurs de qualité de soins qui pourraient permettre d'adapter certaines politiques de soins de santé aux besoins des sous-populations plus vulnérables.
Resumo:
En 2015, la récidive tumorale et les métastases du cancer du sein demeurent une cause importante de décès à travers le monde. Toutefois, ces cancers sont souvent hétérogènes car en dépit d’un phénotype similaire, l’évolution clinique et la réponse au traitement peuvent varier considérablement. Il y a donc un intérêt évident à identifier et à caractériser de nouveaux biomarqueurs pour permettre classer les tumeurs mammaires dans des sous-groupes plus homogènes. Notre hypothèse est que chaque cancer mammaire possède des caractéristiques distinctes au plan des altérations du génome et des profils d’expression géniques et que ces changements se traduisent cliniquement par une prédisposition à former des métastases ou à répondre ou non à la chimiothérapie et aux thérapies ciblées. Dans le cadre de nos travaux, nous nous sommes intéressés aux sous-types agressifs de tumeurs mammaires et notamment les cancers de type triple négatif. Nous avons aussi tenté d’identifier des marqueurs capables de distinguer l’une de l’autre les tumeurs de type luminal A et luminal B. Pour ce faire, nous avons d’abord utilisé une stratégie in silico à partir de données publiques (micro-puces d’ADN et séquençage de l’ARN). Nous avons ensuite construit sept micro-matrices tissulaires (TMA) provenant de tissus mammaires normaux et tumoraux fixés à la formaline et enrobés en paraffine. Ces outils nous ont permis d’évaluer par immunohistochimie les niveaux d’expression différentielle des marqueurs suivants : ANXA1, MMP-9, DP103 et MCM2. Ceux-ci ont été comparés aux marqueurs usuels du cancer du sein (ER, PR, HER2, CK5/6 et FOXA1) et corrélés aux données cliniques (survie globale et métastase). Nos résultats indiquent que ces nouveaux marqueurs jouent un rôle important dans l’évolution clinique défavorable des tumeurs de haut grade. Dans un premier article nous avons montré que l’expression d’ANXA1 est dérégulée dans les cancers de type triple-négatif et aussi, dans une certaine mesure, dans les tumeurs HER2+. Nous croyons qu’ANXA1 permet de mieux comprendre le processus d’hétérogénéité tumorale et facilite l’identification des tumeurs de haut grade. Nous proposons également qu’ d’ANXA1 stimule la transition épithélio-mésenchymateuse (EMT) et la formation des métastases. Dans un second temps, nous avons montré que les niveaux d’expression de MMP-9 reflètent la différenciation cellulaire et corrèlent avec les sous-types de cancers mammaires ayant un mauvais pronostic. Nous estimons que MMP-9 permet de mieux comprendre et d’identifier les tumeurs mammaires à haut risque. De fait, la surexpression de MMP-9 est associée à une augmentation des métastases, une récidive précoce et une diminution de la survie globale. Dans le cadre d’un troisième article, nous avons montré que la surexpression du marqueur de prolifération MCM2 s’observe dans les cancers triple-négatifs, HER2+ et Luminal B par comparaison aux cancers luminal A (p< 0.0001). Nos résultats suggèrent qu’en utilisant un seuil de 40% de noyaux marqués, nous pourrions distinguer l’une de l’autre les tumeurs de type luminal A et luminal B. Cela dit, avant de pouvoir envisager l’utilisation de ce marqueur en clinique, une étude de validation sur une nouvelle cohorte de patientes s’impose. En somme, les résultats de nos travaux suggèrent qu’ANXA1, MMP-9 et MCM2 sont des marqueurs intéressants pour mieux comprendre les mécanismes physiopathologiques impliqués dans la progression tumorale et le développement des métastases. À terme, ces nouveaux marqueurs pourraient être utilisés seuls ou en combinaison avec d’autres gènes candidats pour permettre le développement de trousses « multigènes » ou d’essais protéomiques multiplex pour prédire l’évolution clinique des cancers mammaires.
Resumo:
En Amérique du Nord, les pratiques actuelles de conception de l’industrie de la construction suscitent de nombreux et importants problèmes, tant au niveau environnemental, que social et économique. Certaines tendances conceptuelles, telles que l’industrialisation de la construction, le bâtiment vert, l’approche diachronique et la rationalisation spatiale proposent des moyens afin de répondre à cette problématique. La conception synchronique, qui ne se base encore que sur des besoins immédiats, produit des bâtiments statiques qui ne peuvent accommoder l’évolution des besoins. En plus de la phase d’usage qui se révèle la plus coûteuse en termes de consommation d’énergie, d’eau, de matériaux et de génération de déchets, le bâtiment statique est amené à subir de nombreuses rénovations, profondément délétères pour l’environnement et la situation économique des ménages. Dans une perspective d’opérationnalisation du développement durable, la problématique de recherche concerne la considération de la phase d’usage dans le processus conceptuel de l’habitation. Dans l’optique de favoriser une conception plutôt diachronique, 55 projets de rénovation résidentiels ont été analysés et comparés afin de décrire la nature et l’intensité des interventions effectuées. L’examen des plans avant/après rénovation a permis de quantifier le niveau d’intensité des interventions et ainsi, mettre en relief certaines tendances et récurrences des pratiques actuelles. Dans le but de valider si le bâtiment vert est en mesure de répondre aux enjeux environnementaux contemporains de l’habitation, les contenus de trois programmes de certification utilisés en Amérique du Nord, à savoir BOMA-BESt®, LEED®, et Living Building ChallengeTM, sont analysés. Une classification des stratégies proposées montre la répartition des préoccupations envers le bâtiment, les systèmes et l’usager. Une analyse permet de mettre en relief que les considérations semblent, de façon générale, cohérentes avec les impacts associés à l’habitation. Un examen plus ciblé sur la teneur et les objectifs des stratégies considérant l’usager permet l’émergence de deux ensembles thématiques : les cinq sources potentielles d’impacts (énergie, eau, matériaux, déchets et environnement intérieur), ainsi que les quatre thèmes reliés aux objectifs et aux finalités des stratégies (entretien et surveillance; sensibilisation et formation; modélisation et mesurage; comportement et habitude). La discussion a permis d’émettre des pistes d’écoconception pour permettre à l’habitation d’accommoder l’évolution des besoins des occupants, à savoir la « démontabilité », l’aptitude à l’évolution et l’accessibilité. Des recommandations, telles que la nécessité de mieux prendre en compte l’usager comme facteur d’influence des impacts occasionnés par la phase d’usage, sont ensuite proposées. D’autres suggestions appellent à une concrétisation de la performance en suscitant l’implication, l’engagement, la responsabilisation et l’autonomisation des occupants. Enfin, il semble que certaines modifications des programmes de certification et de la législation en vigueur pourraient favoriser l’émergence d’une vision nouvelle concernant la nécessaire réduction de la superficie habitable. Toutes ces opportunités d’amélioration ont le potentiel de mener ce secteur vers une démarche plus globale et systémique, tout en bonifiant de façon majeure les implications environnementales, économiques et sociales de l’habitation.
Resumo:
The thesis analyses the making of the Shiite middle- and upper/entrepreneurial-class in Lebanon from the 1960s till the present day. The trajectory explores the historical, political and social (internal and external) factors that brought a sub-proletariat to mobilise and become an entrepreneurial bourgeoisie in the span of less than three generations. This work proposes the main theoretical hypothesis to unpack and reveal the trajectory of a very recent social class that through education, diaspora, political and social mobilisation evolved in a few years into a very peculiar bourgeoisie: whereas Christian-Maronite middle class practically produced political formations and benefited from them and from Maronite’s state supremacy (National Pact, 1943) reinforcing the community’s status quo, Shiites built their own bourgeoisie from within, and mobilised their “cadres” (Boltanski) not just to benefit from their renovated presence at the state level, but to oppose to it. The general Social Movement Theory (SMT), as well as a vast amount of the literature on (middle) class formation are therefore largely contradicted, opening up new territories for discussion on how to build a bourgeoisie without the state’s support (Social Mobilisation Theory, Resource Mobilisation Theory) and if, eventually, the middle class always produces democratic movements (the emergence of a social group out of backwardness and isolation into near dominance of a political order). The middle/upper class described here is at once an economic class related to the control of multiple forms of capital, and produced by local, national, and transnational networks related to flows of services, money, and education, and a culturally constructed social location and identity structured by economic as well as other forms of capital in relation to other groups in Lebanon.
Resumo:
L’histoire des relations entre biologie et politique féministe est tendue et contradictoire. Cela paraît d’autant plus flagrant aujourd’hui à l’âge d’or des neurosciences qui ramènent les arguments de supériorité masculine, le caractère inéluctable des différences de genre et la prédominance de l’hétérosexualité à une affaire de cerveau. Dans cet article, nous analysons les points d’intersection propres aux sciences du cerveau et du féminisme. Ces deux champs de recherche entretiennent selon nous des rapports conflictuels mais parfois aussi productifs, y compris dans leurs rapports à l’activisme politique. Ces rapports peuvent être caractérisés en référence à trois directions de recherche principales : des « déstabilisations », des « reconstructions » et des « recontextualisations ». En guise de conclusion, nous terminons par quelques réflexions sur les conditions sociologiques de l’engagement dans une économie politique des neurosciences.[1] [1]Traduit de l’anglais par Marc Gagnepain. Pour une brève présentation de l’article et du dossier thématique dans lequel il s’inscrit, nous renvoyons le/la lecteur/trice à l’article introductif de Bovet, Kraus, Panese, Pidoux et Stücklin, « Les neurosciences à l’épreuve de la clinique et des sciences sociales. Regards croisés ».
Resumo:
ASDIWAL. Revue genevoise d’anthropologie et d’histoire des religions, émanation de la Société genevoise d’histoire des religions, paraît chaque année depuis 2006. Son siège est établi à l’Université de Genève, Faculté des lettres, Unité d’histoire des religions. Héros de la mythologie tsimshian (Colombie-Britannique), Asdiwal est un personnage qui voyage, qui passe d’un monde à l’autre, sans jamais pouvoir dépasser ce qui fait de lui un Homme. Aujourd’hui, les cloisons qui séparent les différentes sciences humaines tendent elles aussi à s’effacer. Aussi, la revue ASDIWAL se donne-t-elle pour ambition, comme son héros éponyme, de faire voyager le lecteur d’un monde à l’autre. ASDIWAL revendique une approche anthropologique et historique du champ religieux, respectueuse des contextes culturels et sensible aux écarts comme aux ressemblances. Sans limite quant aux domaines abordés, la Revue genevoise d’anthropologie et d’histoire des religions plaide résolument pour une démarche comparatiste et un « regard éloigné », sans oublier un esprit de liberté et d'humour. Eclectique et ouverte, ASDIWAL donne la parole aussi bien à de jeunes chercheurs qu'à des spécialistes reconnus.
Resumo:
Depuis une vingtaine d’années, les systèmes d’enseignement de très nombreux pays sont engagés dans des transformations profondes de leurs politiques éducatives. D’une part, on assiste progressivement à une globalisation et à une européanisation des politiques éducatives. Si elles restent formellement définies par les États, ces dernières sont de plus en plus enchâssées dans des procédures de mise en comparaison de leurs résultats (via par exemple les classements des pays produits par l’enquête Pisa de l’OCDE ; Lingard/Rawolle/Taylor, 2005 ; Mangez/Cattonar, 2009) et dans des procédures de coordination de leurs objectifs. Ainsi en Europe, les ministres de l’éducation des États-membres, avec l’aide de la Commission européenne, se sont mis d’accord sur un “Cadre européen Éducation et formation tout au long de la vie” (CEEFTLV)1. Les objectifs sont formulés en s’appuyant sur la définition d’indicateurs et de niveaux de référence de ces indicateurs (benchmark) que chaque pays s’engage à essayer d’atteindre. Les objectifs opérationnels sont formulés sous forme de “chiffres” de référence. Comme l’avance Ozga (2009), on gouverne par les “nombres”. Cette construction progressive d’un “espace européen de l’éducation” s’opère notamment par la mise en place de dispositifs de “coordination” basés sur ces outils (Lawn/Grek, 2012).
Resumo:
Cet article a pour objectif de développer, à partir d’une base de données inédite portant sur les étudiants s’inscrivant pour la première fois en première année à l’université en Belgique francophone, une étude socio-graphique du profil de ces étudiants et de leurs choix d’études, en prenant en compte plusieurs variables sociologiques et académiques : le sexe, le niveau de diplôme des parents, le statut de boursier et diverses variables décrivant le parcours scolaire antérieur. Il s’agit notamment de mesurer l’écart qui nous sépare d’une situation parfaite d’« égalité des chances » d’accès aux études universitaires, où la répartition des étudiants selon le domaine ou le secteur d’études serait indépendante des « variables héritées » liées au sexe ou aux origines sociales.