900 resultados para silk nest
Resumo:
Objectifs. L’objectif de ce mémoire est de parfaire nos connaissances quant à l’effet des actions policières sur les collisions routières au Québec. Ultimement, ce mémoire permettra d’identifier les conditions nécessaires pour que l’action policière influe sur les comportements des automobilistes. Pour se faire, deux études de cas sont employées. Dans un premier temps, nous évaluons l’effet d’un relâchement d’environ 60 % dans l’émission de constats d’infraction par les policiers de la ville de Québec sur les collisions avec blessures. Dans cet article, nous distinguons également les effets respectifs des constats d’infraction, des interceptions policières sans constat et des médias. Dans un second temps, nous évaluons l’impact d’une stratégie de sécurité routière mise en place conjointement par l’Association des directeurs de police du Québec (ADPQ) et la Société de l’assurance automobile du Québec (SAAQ). Dans les deux cas, un changement important est survenu dans l’émission de constats d’infraction émis en vertu du Code de la sécurité routière (CSR). Méthodologie. Afin d’évaluer l’effet de ces deux stratégies, nous avons agrégé les données sur les collisions et infractions au CSR sur une base mensuelle. Ces données proviennent principalement des rapports de collisions et des constats d’infraction remplis par les policiers et transmis à la SAAQ. Dans l’ensemble, nous avons utilisé un devis quasi-expérimental, soit celui des séries chronologiques interrompues. Résultats. Les résultats des deux articles démontrent que les policiers sont des acteurs clés en matière de sécurité routière. Les collisions avec blessures sont affectées par les fluctuations de leurs activités. La première série d’analyses établit qu’un relâchement d’environ 60 % dans le nombre de constats émis par les policiers se traduit par une hausse d’environ 10 % des collisions avec blessures, ce qui correspond à 15 collisions avec blessures supplémentaires par mois sur le territoire du Service de police de la ville de Québec. De plus, nos résultats montrent qu’une interception policière suivie d’un avertissement verbal n’est pas suffisante pour prévenir les collisions. De même, l’effet observé n’est pas attribuable aux médias. La deuxième série d’analyse montre que la stratégie conjointe de l’ADPQ et de la SAAQ, caractérisée par une hausse des constats émis et des campagnes médiatiques, fut suivie de baisses variant entre 14 et 36 % des collisions avec blessures graves. Interprétation. Les résultats démontrent que les actions policières ont une influence sur le bilan routier. Par contre, avant d’influer sur le comportement des automobilistes, certaines conditions doivent être respectées. Premièrement, l’intensité des contrôles policiers doit être suffisamment modifiée par rapport à son niveau initial. Deuxièmement, que ce soit une hausse ou une baisse, ce niveau doit être maintenu sur une période relativement longue (entre 12 et 24 mois environ) pour que les automobilistes soient exposés au message pénal et qu’ils considèrent ce changement dans le niveau de répression comme étant crédible. Troisièmement, l’émission de constats est un élément clé; la simple présence policière n’est pas suffisante pour prévenir les collisions. Enfin, les campagnes de sensibilisation semblent importantes, mais d’autres études sont nécessaires pour mieux apprécier leur rôle.
Resumo:
Le rodéo à Wall Street a pris fin. En effet, le président américain a promulgué la réforme de la régulation financière le 21 juillet 2010. Le H.R. 4173 : Dodd-Frank Wall Street Reform and Consumer Protection Act of 2010 n’est toutefois que le début d’un long processus. La majeure partie de l’édifice législatif repose sur l’intervention d’agences gouvernementales chargées d’édicter des décrets d’exécution dans un délai plus ou moins long. L’adoption de la réforme américaine constitue néanmoins un signal fort à destination des acteurs de la finance pour leur signifier que les règles du jeu ont changé. L’objectif de ce papier d’actualisation s’attache à exposer les dispositions visant les sociétés commerciales et portant sur leur gouvernance et la rémunération de leurs dirigeants. Ces deux thématiques prennent, à l’heure actuelle, une résonance particulière avec la révélation d’émoluments aux montants exorbitants consentis dans des sociétés et des établissements financiers mis à mal par des erreurs stratégiques de leur management.
Resumo:
Si le dogme libéral a longtemps mis en avant la nécessité d’un interventionnisme restreint de l’autorité publique définissant post hoc le droit idéal comme un droit absent, cette idéologie semble être amenée à évoluer. Alors que le marché a longtemps été placé comme matrice de la civilisation et que ce phénomène a donné une place essentielle à la finance, différentes initiatives réglementaires françaises, européennes et mondiales remettent en cause ce paradigme et tentent d’encadrer les dérives du capitalisme contemporain axé sur un courttermisme à outrance et une irresponsabilité grandissante. La rémunération variable des opérateurs de marché (les fameux « bonus ») illustre ce phénomène de reflux du droit, un droit qui témoigne d’une collaboration entre acteurs publics et acteurs privés. Toutefois, ce nouveau paysage juridique n’est pas sans critiques. En effet, cette intervention se révèle trop limitée en l’état pour atteindre les ambitions que l’Etat français et ses homologues ne cessent de clamer : l’institution d’un pacte mondial à long terme.
Resumo:
Les Technologies de l’Information et de la Communication (TIC) sont de plus en plus présentes dans toutes les sphères de la société y compris dans l’éducation. Pour favoriser des usages effectifs de ces technologies par des enseignants dans les salles de classe, il devient pertinent de s’intéresser aux usages qu’en font certains formateurs et futurs enseignants dans le cadre de la formation initiale. Ainsi, dans le contexte de la formation initiale des enseignants en Côte d’Ivoire à l’ENS d’Abidjan, l’objectif général de la présente thèse est de documenter les usages et la compétence TIC. Pour répondre à ces préoccupations, une étude qualitative exploratoire a été réalisée à l’Ecole normale supérieure (ENS) d’Abidjan en Côte d’Ivoire. Les entrevues individuelles semi-dirigées avec des formateurs (n = 9) et des futurs enseignants (n = 15) ont été analysées, en adoptant une approche méthodologique basée essentiellement sur l’analyse du contenu. Les résultats sont présentés sous forme d’articles scientifiques. La thèse tente ainsi de décrire des usages des TIC par des futurs enseignants, de dresser un profil des formateurs usagers des TIC dans le cadre de la formation initiale à l’ENS d’Abidjan. Elle veut aussi examiner les usages des TIC par des futurs enseignants, en formation initiale, pour certaines des composantes de la compétence TIC. Les résultats obtenus permettent de dresser une typologie des usages des TIC par des futurs enseignants dans le cadre de leurs activités d’apprentissage. Pour ce qui est des formateurs, trois profils d’usagers ont été dressés : 1. Les usagers de bas niveau qui font usage des TIC uniquement pour la recherche et la production de documents ; 2. Les usagers de niveau moyen qui, en plus de la recherche et la production de documents, utilisent les outils électroniques de communication dans leurs pratiques professionnelles, et font souvent usage des TIC dans leur classe ; 3. Les usagers de bon niveau qui, en plus de faire usage des outils de communication dans leurs pratiques professionnelles et d’intégrer les TIC dans leurs pratiques en classe, disposent de pages Web à but éducatif. Par ailleurs, l’analyse des discours des futurs enseignants sur les usages des TIC laisse percevoir que la compétence TIC se révèle de façon inégale à travers quatre de ses composantes. En effet, même s’ils n’ont pas une posture critique face aux TIC, ces futurs enseignants ont une conscience de leurs avantages dans le cadre de leur formation. Ainsi, ils utilisent les TIC pour communiquer, rechercher les informations, les interpréter afin de résoudre un problème, se constituer un réseau d’échanges et de formation continue. Même si l’intégration des TIC dans la formation initiale des enseignants en Côte d’Ivoire n’est pas encore effective, des formateurs et des futurs enseignants en font usage dans le cadre de la formation.
Resumo:
La saprolégniose est une maladie fongique causée par le champignon aquatique Saprolegnia sp. qui affecte les poissons sauvages et ceux provenant des piscicultures. L’apparition de touffes cotonneuses semblables à de la ouate de couleur blanche à grise est souvent la première indication de l’infection. Ce saprophyte ubiquitaire se nourrit habituellement des œufs de poissons morts, mais peut se propager rapidement aux œufs sains causant la mort de ces derniers. La saprolégniose est souvent une infection secondaire, mais des souches virulentes peuvent facilement se développer sur les salmonidés ayant subi un stress ou une mauvaise manipulation. De grandes pertes économiques associées à la saprolégniose sont rapportées chaque année à travers le monde surtout dans l’industrie de la pisciculture. Jusqu’en 2002, le contrôle de la saprolégniose pouvait se faire par l’utilisation du vert de malachite, un colorant organique ayant une grande activité antifongique. Malheureusement, cette molécule a été bannie à cause de ses propriétés cancérigènes. Aucun composé aussi efficace n’est actuellement disponible pour traiter les infections de la saprolégniose. Des molécules ou extraits naturels ayant un potentiel antifongique ont donc été testés à l’aide de deux techniques (par graines de chanvre et par cylindre d’agar). Les molécules d’un extrait de propolis (cire de ruches d’abeilles) démontrant de l’activité anti-Saprolegnia ont été identifiées. De plus, une bactérie, Pseudomonas aeruginosa, pouvant être retrouvée dans le même environnement que Saprolegnia sp. a démontré un effet antagoniste au champignon. Une molécule de signalisation intercellulaire produite par P. aeruginosa, 4-hydroxy-2-heptylquinoline (HHQ), a été identifiée comme responsable de l’effet antagoniste contre Saprolegnia sp.
Resumo:
Pour respecter les droits d'auteur, la version électronique de ce mémoire a été dépouillée de ses documents visuels et audio-visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal
Resumo:
Les chutes chez les personnes âgées représentent un problème majeur. Il n’est donc pas étonnant que l’identification des facteurs qui en accroissent le risque ait mobilisé autant d’attention. Les aînés plus fragiles ayant besoin de soutien pour vivre dans la communauté sont néanmoins demeurés le parent pauvre de la recherche, bien que, plus récemment, les autorités québécoises en aient fait une cible d’intervention prioritaire. Les études d’observation prospectives sont particulièrement indiquées pour étudier les facteurs de risque de chutes chez les personnes âgées. Leur identification optimale est cependant compliquée par le fait que l’exposition aux facteurs de risque peut varier au cours du suivi et qu’un même individu peut subir plus d’un événement. Il y a 20 ans, des chercheurs ont tenté de sensibiliser leurs homologues à cet égard, mais leurs efforts sont demeurés vains. On continue aujourd’hui à faire peu de cas de ces considérations, se concentrant sur la proportion des personnes ayant fait une chute ou sur le temps écoulé jusqu’à la première chute. On écarte du coup une quantité importante d’information pertinente. Dans cette thèse, nous examinons les méthodes en usage et nous proposons une extension du modèle de risques de Cox. Nous illustrons cette méthode par une étude des facteurs de risque susceptibles d’être associés à des chutes parmi un groupe de 959 personnes âgées ayant eu recours aux services publics de soutien à domicile. Nous comparons les résultats obtenus avec la méthode de Wei, Lin et Weissfeld à ceux obtenus avec d’autres méthodes, dont la régression logistique conventionnelle, la régression logistique groupée, la régression binomiale négative et la régression d’Andersen et Gill. L’investigation est caractérisée par des prises de mesures répétées des facteurs de risque au domicile des participants et par des relances téléphoniques mensuelles visant à documenter la survenue des chutes. Les facteurs d’exposition étudiés, qu’ils soient fixes ou variables dans le temps, comprennent les caractéristiques sociodémographiques, l’indice de masse corporelle, le risque nutritionnel, la consommation d’alcool, les dangers de l’environnement domiciliaire, la démarche et l’équilibre, et la consommation de médicaments. La quasi-totalité (99,6 %) des usagers présentaient au moins un facteur à haut risque. L’exposition à des risques multiples était répandue, avec une moyenne de 2,7 facteurs à haut risque distincts par participant. Les facteurs statistiquement associés au risque de chutes incluent le sexe masculin, les tranches d’âge inférieures, l’histoire de chutes antérieures, un bas score à l’échelle d’équilibre de Berg, un faible indice de masse corporelle, la consommation de médicaments de type benzodiazépine, le nombre de dangers présents au domicile et le fait de vivre dans une résidence privée pour personnes âgées. Nos résultats révèlent cependant que les méthodes courantes d’analyse des facteurs de risque de chutes – et, dans certains cas, de chutes nécessitant un recours médical – créent des biais appréciables. Les biais pour les mesures d’association considérées proviennent de la manière dont l’exposition et le résultat sont mesurés et définis de même que de la manière dont les méthodes statistiques d’analyse en tiennent compte. Une dernière partie, tout aussi innovante que distincte de par la nature des outils statistiques utilisés, complète l’ouvrage. Nous y identifions des profils d’aînés à risque de devenir des chuteurs récurrents, soit ceux chez qui au moins deux chutes sont survenues dans les six mois suivant leur évaluation initiale. Une analyse par arbre de régression et de classification couplée à une analyse de survie a révélé l’existence de cinq profils distinctifs, dont le risque relatif varie de 0,7 à 5,1. Vivre dans une résidence pour aînés, avoir des antécédents de chutes multiples ou des troubles de l’équilibre et consommer de l’alcool sont les principaux facteurs associés à une probabilité accrue de chuter précocement et de devenir un chuteur récurrent. Qu’il s’agisse d’activité de dépistage des facteurs de risque de chutes ou de la population ciblée, cette thèse s’inscrit dans une perspective de gain de connaissances sur un thème hautement d’actualité en santé publique. Nous encourageons les chercheurs intéressés par l’identification des facteurs de risque de chutes chez les personnes âgées à recourir à la méthode statistique de Wei, Lin et Weissfeld car elle tient compte des expositions variables dans le temps et des événements récurrents. Davantage de recherches seront par ailleurs nécessaires pour déterminer le choix du meilleur test de dépistage pour un facteur de risque donné chez cette clientèle.
Resumo:
La séquence culturelle régionale de l’Archaïque supérieur et terminal de la vallée de l’Outaouais n’est pas complétée, mais les variations stylistiques, technologiques et fonctionnelles des artéfacts sur le plan régional et local facilitent le découpage culturel. La reconstruction de la chaîne opératoire des haches, des herminettes et des gouges en pierre polie des sites Muldoon et Lamoureux, deux sites du sud-est ontarien, pourrait permettre de déceler une tradition technologique régionale à cheval entre l’Archaïque laurentien, l’Archaïque post-laurentien et d’autres courants des Grands Lacs. L’analyse des haches, des herminettes et des gouges des sites Muldoon et Lamoureux démontre l’utilisation massive de l’amphibolite. La moitié distale de ces outils est surtout polie et finement abrasée et la moitié proximale souvent éclatée, mais parfois abrasée. Ces éléments technologiques et l’industrie de pierre taillée démontrent des ressemblances et des différences avec les sites laurentiens de la région, et certains sites post-laurentiens du Québec et de l’Ontario méridional. Le matériel en pierre polie des sites Muldoon et Lamoureux démontre des liens technologiques vers l’Ouest tout en gardant un contact avec la sphère d’interaction postlaurentienne. La vallée de l’Outaouais semble alors prendre une place indépendante dans l’Archaïque supérieur, certaines continuités technologiques s’observent entre l’Archaïque laurentien et l’Archaïque post-laurentien.
Resumo:
Le transporteur de Na+/ acide monocarboxylique sensible à l’ibuprofène (SMCT1) est exprimé dans la membrane apicale de plusieurs épithélia. Son rôle physiologique dans la glande thyroïde reste cependant obscur mais on présume qu’il pourrait agir comme un transporteur apical d’iode nécessaire pour la synthèse des hormones thyroïdiennes. Récemment, on a montré que SMCT1 possède un courant de fuite anionique sensible à [Na+]e qui permettrait de transporter l’iode de façon électrogénique. Cependant, un efflux d’iode sensible à l’ibuprofène, mais indépendant de la [Na+]e a été aussi observé sur des cultures primaires des thyrocytes porcins, suggérant un autre mécanisme de transport d’iode par SMCT1. Ce travail vise à comprendre les caractéristiques de ce genre de transport en utilisant comme modèle d’expression les ovocytes de Xenopus laevis. Les résultats obtenus des essais de captation d’iode radioactif montrent que SMCT1 présente un transport d’iode sensible à l’ibuprofène de l’ordre de 30nmol/ovocyte/h. Si ce transport est non saturable en iode (0-100 mM), il nécessite du Na+ dans la solution externe. En effet, le remplacement du Na+ extracellulaire par le NMDG inhibe complètement le transport. En outre, on s’est intéressé à exclure la possibilité de différents artefacts. En ayant trouvé que la grande majorité de l’iode radioactif se trouve dans la partie soluble de l’ovocyte, on exclut une liaison non spécifique de l’iode à la membrane cellulaire. Cependant, une bonne proportion de l’iode transporté pourrait être liée à des protéines à l’intérieur de l`ovocyte. En effet, on observe une réduction du transport d’iode dans les ovocytes exprimant SMCT1 de 81,6 ± 2 % en présence de 2 % BSA dans la solution extracellulaire. Également, on écarte la possibilité que le transport d’iode soit le résultat de la surexpression de protéines de transport endogènes dont les canaux chlore. Le transport d’iode semble spécifique à l’expression de SMCT1 et de manière intéressante à l’expression d’un autre transporteur de monocarboxylates, MCT1. L’analyse de l’ensemble des essais, y compris le fait que l’amplitude du transport observé est 20 fois plus grande que celle du courant de fuite nous mène à proposer que SMCT1 puisse transporter l’iode de façon électroneutre. Cependant, le mécanisme par lequel ceci est accompli n’est pas évident à identifier. L’utilisation d’un autre modèle cellulaire serait surement utile pour répondre à cette question.
Resumo:
L’hypertension artérielle et l’obésité sont deux composantes conjointement reliées du syndrome métabolique. Les récepteurs de l’ANP (GCA) et de l’oxyde nitrique (GCs) ont des propriétés diurétiques, natriurétiques, vasodilatatrices et sont liés au contrôle de la pression. Des études récentes ont démontré leur implication dans l’obésité. Hypothèse : Une différence génétique au niveau du gène GCA pourrait contribuer à des différences physiologiques. La composante lipidique et/ou sodique de la diète pourrait influencer la fonction rénale, cardiaque et les valeurs anthropométriques différemment chez les souches congéniques. Objectifs : (1) Déterminer l’effet de la composante lipidique et sodique des diètes; (2) Évaluer l’influence de GCA sur la réponse physiologique des souches congéniques; (3) Expliquer les mécanismes physiologiques procurant une réduction de la pression artérielle chez la souche SM9. Méthodologie : Des modèles congéniques du rat Dahl (DSS) hypertendu, nourri avec une diète riche en gras (HF) ou normale (NF), ont été utilisés pour démontrer l’impact d’un segment chromosomique d’origine normotendue. Résultats : La souche SM9 a une prise de poids plus importante que SM12 et DSS sur diète HF malgré un apport alimentaire équivalent. La souche SM9 présente également un ratio masse adipeuse/masse maigre plus élevé que SM12 et DSS. Nous n’avons observé aucune augmentation de la pression artérielle en réponse à la diète HF pour les 3 souches malgré une augmentation du dommage rénal pour les 3 souches. Le dommage rénal est plus important chez DSS que pour les 2 congéniques. La réponse diurétique à l’ANP est plus élevée chez SM9 et est influencée par le contenu en sel dand la diète. La perte glomérulaire plus importante chez le rat DSS semble compensée par une augmentation de la réponse à l’ANP par les glomérules résiduels. Il y a une corrélation entre l’activité de GCA en réponse à l’ANP, les niveaux d’ARNm et le nombre de répétition du dinucléotide TA dans son promoteur. Le rat DSS présente une hypertrophie cardiaque plus importante que les deux souches congénique et ceci n’est pas modifié par la diète HF. Conclusion : Nos études ont permis de mettre en évidence un effet génétique impliquant le segment chromosomique normotendu contenant GCA dans la réponse à une diète HF chez le rat DSS.
Resumo:
Les avancées en biotechnologie ont permis l’identification d’un grand nombre de mécanismes moléculaires, soulignant également la complexité de la régulation génique. Néanmoins, avoir une vision globale de l’homéostasie cellulaire, nous est pour l’instant inaccessible et nous ne sommes en mesure que d’en avoir qu’une vue fractionnée. Étant donné l’avancement des connaissances des dysfonctionnements moléculaires observés dans les maladies génétiques telles que la fibrose kystique, il est encore difficile de produire des thérapies efficaces. La fibrose kystique est causée par la mutation de gène CFTR (cystic fibrosis transmembrane conductance regulator), qui code pour un canal chlorique transmembranaire. La mutation la plus fréquente (ΔF508) induit un repliement incorrect de la protéine et sa rétention dans le réticulum endoplasmique. L’absence de CFTR fonctionnel à la membrane a un impact sur l’homéostasie ionique et sur l’hydratation de la muqueuse respiratoire. Ceci a pour conséquence un défaut dans la clairance mucocilliaire, induisant infection chronique et inflammation excessive, deux facteurs fondamentaux de la physiopathologie. L’inflammation joue un rôle très important dans l’évolution de la maladie et malgré le nombre important d’études sur le sujet, la régulation du processus inflammatoire est encore très mal comprise et la place qu’y occupe le CFTR n’est pas établie. Toutefois, plusieurs autres facteurs, tels que le stress oxydatif participent à la physiopathologie de la maladie, et considérer leurs impacts est important pour permettre une vision globale des acteurs impliqués. Dans notre étude, nous exploitons la technologie des puces à ADN, pour évaluer l’état transcriptionnel d’une cellule épithéliale pulmonaire humaine fibro-kystique. Dans un premier temps, l’analyse de notre expérience identifie 128 gènes inflammatoires sur-exprimés dans les cellules FK par rapport aux cellules non FK où apparaissent plusieurs familles de gènes inflammatoires comme les cytokines ou les calgranulines. L’analyse de la littérature et des annotations suggèrent que la modulation de ces transcripts dépend de la cascade de NF-κB et/ou des voies de signalisation associées aux interférons (IFN). En outre, leurs modulations pourraient être associées à des modifications épigénétiques de leurs loci chromosomiques. Dans un second temps, nous étudions l’activité transcriptionnelle d’une cellule épithéliale pulmonaire humaine FK en présence de DMNQ, une molécule cytotoxique. Notre but est d’identifier les processus biologiques perturbés par la mutation du gène CFTR en présence du stress oxydatif. Fondé sur une analyse canonique de redondance, nous identifions 60 gènes associés à la mort cellulaire et leur variance, observée dans notre expérience, s’explique par un effet conjoint de la mutation et du stress oxydatif. La mesure de l’activité des caspases 3/7, des effecteurs de l’apoptose (la mort cellulaire programmée), montre que les cellules porteuses de la mutation ΔF508, dans des conditions de stress oxydatif, seraient moins apoptotiques que les cellules saines. Nos données transcriptomiques suggèrent que la sous-activité de la cascade des MAPK et la sur-expression des gènes anti-apoptotiques pourraient être impliquées dans le déséquilibre de la balance apoptotique.
Resumo:
Cette thèse s’intéresse à un changement de paradigme dans l’imaginaire de la filiation tel qu’il est donné dans la littérature des femmes et les écrits du féminisme. L’hypothèse de travail est la suivante : à l’imaginaire d’une filiation déployée uniquement dans la latéralité des liens sororaux, se substitue au tournant des années 1990 un imaginaire mélancolique de la filiation, corollaire de la posture d’héritière désormais occupées par les auteures et penseures contemporaines. Parallèlement au développement d’une troisième vague du féminisme contemporain, la France et le Québec des années 1990 ont en effet vu naître ce qui est qualifié depuis peu de « nouvelle génération d’écrivaines ». « Premières », à l’échelle de l’histoire de la littérature des femmes, « à bénéficier d’un riche héritage littéraire féminin » (Rye et Worton, 2002 : 5), les auteures appartenant à ces « nouvelles voix » s’avèrent en effet doublement héritières, à la fois d’une tradition littéraire au féminin et de la pensée féministe contemporaine. Alors que la génération des années 1970 et du début des années 1980, se réclamant en un sens des discours d’émancipation des Lumières (liberté, égalité, fraternité), refusait l’héritage des générations antérieures, imaginant une communauté construite dans la sororité et fondée sur le meurtre des figures parentales, la génération actuelle n’est plus, quant à elle, dans la rupture. Située dans l’appropriation du passé et de l’histoire, elle réinvestit l’axe vertical de la généalogie. Or, c’est dans un récit familial mortifère ou encore lacunaire, morcelé, troué par le secret, ruiné par le passage du temps, toujours en partie perdu, qu’avancent les auteures, tout en questionnant le généalogique. Celui-ci ne s’entend pas ici en tant que vecteur d’ordre ou principe d’ordonnancement hiérarchique, mais se pose plutôt comme un mouvement de dislocation critique, « dérouteur des légitimités lorsqu’il retrace l’histoire des refoulements, des exclusions et des taxinomies » (Noudelmann, 2004 : 14) sur lesquels s’est construite l’histoire familiale. En d’autres termes, l’interrogation filiale à l’œuvre chez cette génération héritière participe d’une recherche de l’altérité, voire de l’étrangement, également présente dans les écrits théoriques et critiques du féminisme de la troisième vague. Cette thèse, en s’étayant sur l’analyse des récits de femmes et des écrits féministes publiés depuis les années 1970 – moment qui coïncide avec l’émergence de ce qu’il est désormais convenu d’appeler le féminisme de la deuxième vague –, a ainsi pour objectif de cerner les modifications que connaît l’imaginaire de la filiation à travers ce changement de paradigme. À l’aune de cette analyse menée dans la première partie, « De la sororité aux liens f(am)iliaux. Imaginaires de la filiation et représentations du corps », il s’agit, dans les deux parties suivantes intitulées « Des fantômes et des anges. La filiation en régime spectrale » et « Filles et mères, filles (a)mères. La filiation en régime de deuil » et consacrées plus précisément à l’étude des récits sélectionnés, de dégager les modalités filiales explorées par les auteures depuis le tournant des années 1990.
Resumo:
Le fonctionnement du cortex cérébral nécessite l’action coordonnée de deux des sous-types majeurs de neurones, soient les neurones à projections glutamatergiques et les interneurones GABAergiques. Les interneurones GABAergiques ne constituent que 20 à 30% des cellules corticales par rapport au grand nombre de neurones glutamatergiques. Leur rôle est toutefois prépondérant puisqu’ils modulent fortement la dynamique et la plasticité des réseaux néocorticaux. Il n’est donc pas surprenant que les altérations de développement des circuits GABAergiques soient associées à plusieurs maladies du cerveau, incluant l’épilepsie, le syndrome de Rett et la schizophrénie. La compréhension des mécanismes moléculaires régissant le développement des circuits GABAergiques est une étape essentielle menant vers une meilleure compréhension de la façon dont les anormalités se produisent. Conséquemment, nous nous intéressons au rôle de l’acide polysialique (PSA) dans le développement des synapses GABAergiques. PSA est un homopolymère de chaînons polysialylés en α-2,8, et est exclusivement lié à la molécule d’adhésion aux cellules neuronales (NCAM) dans les cerveaux de mammifères. PSA est impliqué dans plusieurs processus développementaux, y compris la formation et la plasticité des synapses glutamatergiques, mais son rôle dans les réseaux GABAergiques reste à préciser. Les données générées dans le laboratoire du Dr. Di Cristo démontrent que PSA est fortement exprimé post- natalement dans le néocortex des rongeurs, que son abondance diminue au cours du développement, et, faits importants, que son expression dépend de l’activité visuelle i et est inversement corrélée à la maturation des synapses GABAergiques. La présente propose de caractériser les mécanismes moléculaires régulant l’expression de PSA dans le néocortex visuel de la souris. Les enzymes polysialyltransférases ST8SiaII (STX) et ST8SiaIV (PST) sont responsables de la formation de la chaîne de PSA sur NCAM. En contrôlant ainsi la quantité de PSA sur NCAM, ils influenceraient le développement des synapses GABAergiques. Mon projet consiste à déterminer comment l’expression des polysialyltransférases est régulée dans le néocortex visuel des souris durant la période post-natale; ces données sont à la fois inconnues, et cruciales. Nous utilisons un système de cultures organotypiques dont la maturation des synapses GABAergiques est comparable au modèle in vivo. L’analyse de l’expression génique par qPCR a démontré que l’expression des polysialyltransférases diminue au cours du développement; une baisse majeure corrélant avec l’ouverture des yeux chez la souris. Nous avons de plus illustré pour la première fois que l’expression de STX, et non celle de PST, est activité-dépendante, et que ce processus requiert l’activation du récepteur NMDA, une augmentation du niveau de calcium intracellulaire et la protéine kinase C (PKC). Ces données démontrent que STX est l’enzyme régulant préférentiellement le niveau de PSA sur NCAM au cours de la période post-natale dans le cortex visuel des souris. Des données préliminaires d’un second volet de notre investigation suggèrent que l’acétylation des histones et la méthylation de l’ADN pourraient également contribuer à la régulation de la transcription de cette enzyme durant le développement. Plus d’investigations seront toutefois nécessaires afin de confirmer cette hypothèse. En somme, la connaissance des mécanismes par lesquels l’expression des ii polysialyltransférases est modulée est essentielle à la compréhension du processus de maturation des synapses GABAergiques. Ceci permettrait de moduler pharmacologiquement l’expression de ces enzymes; la sur-expression de STX et/ou PST pourrait produire une plus grande quantité de PSA, déstabiliser les synapses GABAergiques, et conséquemment, ré-induire la plasticité cérébrale.
Resumo:
Cette thèse est une enquête épistémologique qui s’interroge sur la persistance de « l’éther » dans le champ de la technologie. De façon générale, le mot « éther » évoque un modèle conceptuel de la physique pré-einsteinienne, celui d’un milieu invisible permettant la propagation de la lumière et des ondes électromagnétiques. Or, ce n’est là qu’une des figures de l’éther. Dans plusieurs mythologies et cosmogonies anciennes, le nom « éther » désignait le feu originel contenu dans les plus hautes régions célestes. Aristote nommait « éther », par exemple, le « cinquième être », ou « cinquième élément ». La chimie a aussi sa propre figure de l’éther où il donne son nom à un composé chimique, le C4H10O, qui a été utilisé comme premier anesthésiant général à la fin du XIXe siècle. L’apparition soutenue dans l’histoire de ces figures disparates de l’éther, qui a priori ne semblent pas entretenir de relation entre elles, est pour nous la marque de la persistance de l’éther. Nous défendons ici l’argument selon lequel cette persistance ne se résume pas à la constance de l’attribution d’un mot ou d’un nom à différents phénomènes dans l’histoire, mais à l’actualisation d’une même signature, éthérogène. À l’invitation d’Agamben et en nous inspirant des travaux de Nietzsche et Foucault sur l’histoire-généalogie et ceux de Derrida sur la déconstruction, notre thèse amorce une enquête historique motivée par un approfondissement d’une telle théorisation de la signature. Pour y parvenir, nous proposons de placer l’éther, ou plutôt la signature-éther, au cœur de différentes enquêtes historiques préoccupées par le problème de la technologie. En abordant sous cet angle des enjeux disparates – la légitimation des savoirs narratifs, la suspension des sens, la pseudoscience et la magie, les révolutions de l’information, l’obsession pour le sans-fil, l’économie du corps, la virtualisation de la communication, etc. –, nous proposons dans cette thèse autant d’amorces pour une histoire autre, une contre-histoire.
Resumo:
L’architecture au sens strict, qui renvoie à la construction, n’est pas indépendante des déterminations mentales, des images et des valeurs esthétiques, comme références, amenées par divers champs d’intérêt au problème du sens. Elle est, de par ce fait, un objet d’interprétation. Ce qu’on appelle communément « signification architecturale », est un univers vaste dans lequel sont constellées des constructions hypothétiques. En ce qui nous concerne, il s’agit non seulement de mouler la signification architecturale selon un cadre et des matières spécifiques de référence, mais aussi, de voir de près la relation de cette question avec l’attitude de perception de l’homme. Dans l’étude de la signification architecturale, on ne peut donc se détacher du problème de la perception. Au fond, notre travail montrera leur interaction, les moyens de sa mise en œuvre et ce qui est en jeu selon les pratiques théoriques qui la commandent. En posant la question de l’origine de l’acte de perception, qui n’est ni un simple acte de voir, ni un acte contemplatif, mais une forme d’interaction active avec la forme architecturale ou la forme d’art en général, on trouve dans les écrits de l’historien Christian Norberg-Schulz deux types de travaux, et donc deux types de réponses dont nous pouvons d’emblée souligner le caractère antinomique l’une par rapport à l’autre. C’est qu’il traite, dans le premier livre qu’il a écrit, Intentions in architecture (1962), connu dans sa version française sous le titre Système logique de l’architecture (1974, ci-après SLA), de l’expression architecturale et des modes de vie en société comme un continuum, défendant ainsi une approche culturelle de la question en jeu : la signification architecturale et ses temporalités. SLA désigne et représente un système théorique influencé, à bien des égards, par les travaux de l’épistémologie de Jean Piaget et par les contributions de la sémiotique au développement de l’étude de la signification architecturale. Le second type de réponse sur l’origine de l’acte de perception que formule Norberg-Schulz, basé sur sur les réflexions du philosophe Martin Heidegger, se rapporte à un terrain d’étude qui se situe à la dérive de la revendication du fondement social et culturel du langage architectural. Il lie, plus précisément, l’étude de la signification à l’étude de l’être. Reconnaissant ainsi la primauté, voire la prééminence, d’une recherche ontologique, qui consiste à soutenir les questionnements sur l’être en tant qu’être, il devrait amener avec régularité, à partir de son livre Existence, Space and Architecture (1971), des questions sur le fondement universel et historique de l’expression architecturale. Aux deux mouvements théoriques caractéristiques de ses écrits correspond le mouvement que prend la construction de notre thèse que nous séparons en deux parties. La première partie sera ainsi consacrée à l’étude de SLA avec l’objectif de déceler les ambiguïtés qui entourent le cadre de son élaboration et à montrer les types de legs que son auteur laisse à la théorie architecturale. Notre étude va montrer l’aspect controversé de ce livre, lié aux influences qu’exerce la pragmatique sur l’étude de la signification. Il s’agit dans cette première partie de présenter les modèles théoriques dont il débat et de les mettre en relation avec les différentes échelles qui y sont proposées pour l’étude du langage architectural, notamment avec l’échelle sociale. Celle-ci implique l’étude de la fonctionnalité de l’architecture et des moyens de recherche sur la typologie de la forme architecturale et sur sa schématisation. Notre approche critique de cet ouvrage prend le point de vue de la recherche historique chez Manfredo Tafuri. La seconde partie de notre thèse porte, elle, sur les fondements de l’intérêt chez Norberg-Schulz à partager avec Heidegger la question de l’Être qui contribuent à fonder une forme d’investigation existentielle sur la signification architecturale et du problème de la perception . L’éclairage de ces fondements exige, toutefois, de montrer l’enracinement de la question de l’Être dans l’essence de la pratique herméneutique chez Heidegger, mais aussi chez H. G. Gadamer, dont se réclame aussi directement Norberg-Schulz, et de dévoiler, par conséquent, la primauté établie de l’image comme champ permettant d’instaurer la question de l’Être au sein de la recherche architecturale. Sa recherche conséquente sur des valeurs esthétiques transculturelles a ainsi permis de réduire les échelles d’étude de la signification à l’unique échelle d’étude de l’Être. C’est en empruntant cette direction que Norberg-Schulz constitue, au fond, suivant Heidegger, une approche qui a pour tâche d’aborder l’« habiter » et le « bâtir » à titre de solutions au problème existentiel de l’Être. Notre étude révèle, cependant, une interaction entre la question de l’Être et la critique de la technique moderne par laquelle l’architecture est directement concernée, centrée sur son attrait le plus marquant : la reproductibilité des formes. Entre les écrits de Norberg-Schulz et les analyses spécifiques de Heidegger sur le problème de l’art, il existe un contexte de rupture avec le langage de la théorie qu’il s’agit pour nous de dégager et de ramener aux exigences du travail herméneutique, une approche que nous avons nous-même adoptée. Notre méthode est donc essentiellement qualitative. Elle s’inspire notamment des méthodes d’interprétation, de là aussi notre recours à un corpus constitué des travaux de Gilles Deleuze et de Jacques Derrida ainsi qu’à d’autres travaux associés à ce type d’analyse. Notre recherche demeure cependant attentive à des questions d’ordre épistémologique concernant la relation entre la discipline architecturale et les sciences qui se prêtent à l’étude du langage architectural. Notre thèse propose non seulement une compréhension approfondie des réflexions de Norberg-Schulz, mais aussi une démonstration de l’incompatibilité de la phénoménologie de Heidegger et des sciences du langage, notamment la sémiotique.