95 resultados para coming
Resumo:
Le diabète est une maladie métabolique qui se caractérise par une résistance à l’insuline des tissus périphériques et par une incapacité des cellules β pancréatiques à sécréter les niveaux d’insuline appropriés afin de compenser pour cette résistance. Pour mieux comprendre les mécanismes déficients dans les cellules β des patients diabétiques, il est nécessaire de comprendre et de définir les mécanismes impliqués dans le contrôle de la sécrétion d’insuline en réponse au glucose. Dans les cellules β pancréatiques, le métabolisme du glucose conduit à la production de facteurs de couplage métabolique, comme l’ATP, nécessaires à la régulation de l’exocytose des vésicules d’insuline. Le mécanisme par lequel la production de l’ATP par le métabolisme oxydatif du glucose déclenche l’exocytose des vésicules d’insuline est bien décrit dans la littérature. Cependant, il ne peut à lui seul réguler adéquatement la sécrétion d’insuline. Le malonyl-CoA et le NADPH sont deux autres facteurs de couplage métaboliques qui ont été suggérés afin de relier le métabolisme du glucose à la régulation de la sécrétion d’insuline. Les mécanismes impliqués demeurent cependant à être caractérisés. Le but de la présente thèse était de déterminer l’implication des navettes du pyruvate, découlant du métabolisme mitochondrial du glucose, dans la régulation de la sécrétion d’insuline. Dans les cellules β, les navettes du pyruvate découlent de la combinaison des processus d’anaplérose et de cataplérose et permettent la transduction des signaux métaboliques provenant du métabolisme du glucose. Dans une première étude, nous nous sommes intéressés au rôle de la navette pyruvate/citrate dans la régulation de la sécrétion d’insuline en réponse au glucose, puisque cette navette conduit à la production dans le cytoplasme de deux facteurs de couplage métabolique, soit le malonyl-CoA et le NADPH. De plus, la navette pyruvate/citrate favorise le flux métabolique à travers la glycolyse en réoxydation le NADH. Une étude effectuée précédemment dans notre laboratoire avait suggéré la présence de cette navette dans les cellules β pancréatique. Afin de tester notre hypothèse, nous avons ciblé trois étapes de cette navette dans la lignée cellulaire β pancréatique INS 832/13, soit la sortie du citrate de la mitochondrie et l’activité de l’ATP-citrate lyase (ACL) et l’enzyme malique (MEc), deux enzymes clés de la navette pyruvate/citrate. L’inhibition de chacune de ces étapes par l’utilisation d’un inhibiteur pharmacologique ou de la technologie des ARN interférant a corrélé avec une réduction significative de la sécrétion d’insuline en réponse au glucose. Les résultats obtenus suggèrent que la navette pyruvate/citrate joue un rôle critique dans la régulation de la sécrétion d’insuline en réponse au glucose. Parallèlement à notre étude, deux autres groupes de recherche ont suggéré que les navettes pyruvate/malate et pyruvate/isocitrate/α-cétoglutarate étaient aussi importantes pour la sécrétion d’insuline en réponse au glucose. Ainsi, trois navettes découlant du métabolisme mitochondrial du glucose pourraient être impliquées dans le contrôle de la sécrétion d’insuline. Le point commun de ces trois navettes est la production dans le cytoplasme du NADPH, un facteur de couplage métabolique possiblement très important pour la sécrétion d’insuline. Dans les navettes pyruvate/malate et pyruvate/citrate, le NADPH est formé par MEc, alors que l’isocitrate déshydrogénase (IDHc) est responsable de la production du NADPH dans la navette pyruvate/isocitrate/α-cétoglutarate. Dans notre première étude, nous avions démontré l’importance de l’expression de ME pour la sécrétion adéquate d’insuline en réponse au glucose. Dans notre deuxième étude, nous avons testé l’implication de IDHc dans les mécanismes de régulation de la sécrétion d’insuline en réponse au glucose. La diminution de l’expression de IDHc dans les INS 832/13 a stimulé la sécrétion d’insuline en réponse au glucose par un mécanisme indépendant de la production de l’ATP par le métabolisme oxydatif du glucose. Ce résultat a ensuite été confirmé dans les cellules dispersées des îlots pancréatiques de rat. Nous avons aussi observé dans notre modèle que l’incorporation du glucose en acides gras était augmentée, suggérant que la diminution de l’activité de IDHc favorise la redirection du métabolisme de l’isocitrate à travers la navette pyruvate/citrate. Un mécanisme de compensation à travers la navette pyruvate/citrate pourrait ainsi expliquer la stimulation de la sécrétion d’insuline observée en réponse à la diminution de l’expression de IDHc. Les travaux effectués dans cette deuxième étude remettent en question l’implication de l’activité de IDHc, et de la navette pyruvate/isocitrate/α-cétoglutarate, dans la transduction des signaux métaboliques reliant le métabolisme du glucose à la sécrétion d’insuline. La navette pyruvate/citrate est la seule des navettes du pyruvate à conduire à la production du malonyl-CoA dans le cytoplasme des cellules β. Le malonyl-CoA régule le métabolisme des acides gras en inhibant la carnitine palmitoyl transférase 1, l’enzyme limitante dans l’oxydation des acides gras. Ainsi, l’élévation des niveaux de malonyl-CoA en réponse au glucose entraîne une redirection du métabolisme des acides gras vers les processus d’estérification puis de lipolyse. Plus précisément, les acides gras sont métabolisés à travers le cycle des triglycérides/acides gras libres (qui combinent les voies métaboliques d’estérification et de lipolyse), afin de produire des molécules lipidiques signalétiques nécessaires à la modulation de la sécrétion d’insuline. Des études effectuées précédemment dans notre laboratoire ont démontré que l’activité lipolytique de HSL (de l’anglais hormone-sensitive lipase) était importante, mais non suffisante, pour la régulation de la sécrétion d’insuline. Dans une étude complémentaire, nous nous sommes intéressés au rôle d’une autre lipase, soit ATGL (de l’anglais adipose triglyceride lipase), dans la régulation de la sécrétion d’insuline en réponse au glucose et aux acides gras. Nous avons démontré que ATGL est exprimé dans les cellules β pancréatiques et que son activité contribue significativement à la lipolyse. Une réduction de son expression dans les cellules INS 832/13 par RNA interférant ou son absence dans les îlots pancréatiques de souris déficientes en ATGL a conduit à une réduction de la sécrétion d’insuline en réponse au glucose en présence ou en absence d’acides gras. Ces résultats appuient l’hypothèse que la lipolyse est une composante importante de la régulation de la sécrétion d’insuline dans les cellules β pancréatiques. En conclusion, les résultats obtenus dans cette thèse suggèrent que la navette pyruvate/citrate est importante pour la régulation de la sécrétion d’insuline en réponse au glucose. Ce mécanisme impliquerait la production du NADPH et du malonyl-CoA dans le cytoplasme en fonction du métabolisme du glucose. Cependant, nos travaux remettent en question l’implication de la navette pyruvate/isocitrate/α-cétoglutarate dans la régulation de la sécrétion d’insuline. Le rôle exact de IDHc dans ce processus demeure cependant à être déterminé. Finalement, nos travaux ont aussi démontré un rôle pour ATGL et la lipolyse dans les mécanismes de couplage métabolique régulant la sécrétion d’insuline.
Resumo:
L’équité apparaît aujourd’hui comme l’un des enjeux majeurs de la négociation sur le changement climatique. Cet article procède à un état des lieux des négociations et de la question de l’équité. Le débat est actuellement confiné dans les approches économiques, qui le posent en termes de répartition des droits à émettre les gaz à effet de serre (“ partage du fardeau”). L’article montre ensuite les insuffisances du débat actuel, qui tient essentiellement en trois points: l’étroitesse et les présupposés du point de vue économique dominant, la non prise en compte des analyses venant d’autres domaines que l’analyse économique, et l’oubli du contexte historique et conceptuel dans lequel se pose le problème. Nous tentons de montrer qu’il y a urgence à élargir le débat et penser le problème en termes de définition commune d’un projet global. La question du changement climatique ne peut pas être résolue par la seule convention climat. Nous concluons en évoquant ce que pourrait être un régime international impliquant les pays en développement.
Resumo:
La libéralisation des échanges a fait augmenter les richesses, mais en réalité, elles se sont concentrées dans les pays développés. La question de la distribution plus équitable des richesses s'est rapidement posée. Le système GATT/OMC a joué un rôle décisif dans la libéralisation des échanges et dans l'articulation des rapports entre les pays développés et les pays en développement (PED). L'émergence et l'incarnation juridique dans le système GATT/OMC d'un principe de justice distributive passe par l'évolution du traitement spécial et différencié (TSD). Sous le GATT, le TSD s'est d'abord manifesté par l'article XVIII et la Partie IV du GATT de 1947, la Clause d'habilitation et le Système de préférences de 1971. Le TSD ainsi proposé appartenait essentiellement à la sof law et a échoué dans sa tentative d'intégrer les PED au système SCM. Sous l'OMC, le TSD a changé de paradigme et de mandat. Le TSD est passé d'un outil voué à mettre au développement des PED à un mécanisme employé à aider les PED à mettre en œuvre les nouvelles politiques de libéralisation découlant des accords de l'OMC. Les dispositions TSD seront alors dispersées dans l'ensemble des accords de l'OMC, mais sans jamais transcender la forme «soft law» qui les caractérisait sous le GATT. L'échec de la Conférence de Seattle, en 1999, engendrera le «Programme de Doha pour le développement», en 2001. La Déclaration de Doha était alors perçue comme l'incarnation de la transformation de l'OMC en organisation qui se préoccupe désormais de justice distributive. En observant de près le texte de la Déclaration de Doha et en analysant sa valeur juridique, on ne constate pas de progrès significatifs. Encore une fois, les mesures proposées le sont sous forme de déclarations d'intention et de promesses, voire d'engagement à négocier. Actuellement, le Cycle de Doha tarde à aboutir et tout nous porte à croire que l'avènement de l'OMC n'a pas concrétisé la volonté des PED d'une répartition plus équitable des richesses.
Resumo:
Cette thèse est composée de trois essais liés à la conception de mécanisme et aux enchères. Dans le premier essai j'étudie la conception de mécanismes bayésiens efficaces dans des environnements où les fonctions d'utilité des agents dépendent de l'alternative choisie même lorsque ceux-ci ne participent pas au mécanisme. En plus d'une règle d'attribution et d'une règle de paiement le planificateur peut proférer des menaces afin d'inciter les agents à participer au mécanisme et de maximiser son propre surplus; Le planificateur peut présumer du type d'un agent qui ne participe pas. Je prouve que la solution du problème de conception peut être trouvée par un choix max-min des types présumés et des menaces. J'applique ceci à la conception d'une enchère multiple efficace lorsque la possession du bien par un acheteur a des externalités négatives sur les autres acheteurs. Le deuxième essai considère la règle du juste retour employée par l'agence spatiale européenne (ESA). Elle assure à chaque état membre un retour proportionnel à sa contribution, sous forme de contrats attribués à des sociétés venant de cet état. La règle du juste retour est en conflit avec le principe de la libre concurrence puisque des contrats ne sont pas nécessairement attribués aux sociétés qui font les offres les plus basses. Ceci a soulevé des discussions sur l'utilisation de cette règle: les grands états ayant des programmes spatiaux nationaux forts, voient sa stricte utilisation comme un obstacle à la compétitivité et à la rentabilité. Apriori cette règle semble plus coûteuse à l'agence que les enchères traditionnelles. Nous prouvons au contraire qu'une implémentation appropriée de la règle du juste retour peut la rendre moins coûteuse que des enchères traditionnelles de libre concurrence. Nous considérons le cas de l'information complète où les niveaux de technologie des firmes sont de notoriété publique, et le cas de l'information incomplète où les sociétés observent en privée leurs coûts de production. Enfin, dans le troisième essai je dérive un mécanisme optimal d'appel d'offre dans un environnement où un acheteur d'articles hétérogènes fait face a de potentiels fournisseurs de différents groupes, et est contraint de choisir une liste de gagnants qui est compatible avec des quotas assignés aux différents groupes. La règle optimale d'attribution consiste à assigner des niveaux de priorité aux fournisseurs sur la base des coûts individuels qu'ils rapportent au décideur. La manière dont ces niveaux de priorité sont déterminés est subjective mais connue de tous avant le déroulement de l'appel d'offre. Les différents coûts rapportés induisent des scores pour chaque liste potentielle de gagnant. Les articles sont alors achetés à la liste ayant les meilleurs scores, s'il n'est pas plus grand que la valeur de l'acheteur. Je montre également qu'en général il n'est pas optimal d'acheter les articles par des enchères séparées.
Resumo:
La fertilisation phosphatée est très répandue dans les pratiques agricoles Nord-Américaines. Bien que généralement très efficace pour augmenter la production végétale, son utilisation peut engendrer certaines contaminations environnementales. Afin de diminuer ce problème, plusieurs pratiques de gestion sont envisagées. Parmi celles-ci, on retrouve l’intéressante possibilité de manipuler la flore microbienne car cette dernière est reconnue pour son implication dans bons nombres de processus fondamentaux liés à la fertilité du sol. Cette étude a démontré que lors d’essais en champs, la forme de fertilisant ajouté au sol ainsi que la dose de phosphore (P) appliquée avaient un impact sur la distribution des microorganismes dans les différentes parcelles. Une première expérience menée sur une culture de luzerne en prairie semi-aride a montré que les échantillons provenant de parcelles ayant reçu différentes doses de P présentaient des différences significatives dans leurs communautés bactériennes et fongiques. La communauté de CMA est restée similaire entre les différents traitements. Une deuxième expérience fut menée pendant trois saisons consécutives afin de déterminer l’effet de différentes formes de fertilisation organiques et minérale ajustées selon une dose unique de P sur les populations bactériennes et fongiques d’une culture intensive de maïs en rotation avec du soja. Les résultats des analyses ont montrés que les populations varient selon le type de fertilisation reçu et que les changements sont indépendants du type de végétaux cultivé. Par contre, les populations microbiennes subissent une variation plus marquée au cours de la saison de culture. La technique de DGGE a permis d’observer les changements frappant la diversité microbienne du sol mais n’a permis d’identifier qu’une faible proportion des organismes en cause. Parallèlement à cette deuxième étude, une seconde expérience au même site fut menée sur la communauté de champignons mycorhiziens à arbuscules (CMA) puisqu’il s’agit d’organismes vivant en symbiose mutualiste avec la majorité des plantes et favorisant la nutrition de même que l’augmentation de la résistance aux stress de l’hôte. Ceci permit d’identifier et de comparer les différents CMA présents dans des échantillons de sol et de racines de maïs et soja. Contrairement aux bactéries et aux champignons en général, les CMA présentaient une diversité très stable lors des différents traitements. Par contre, au cours des trois années expérimentales, il a été noté que certains ribotypes étaient significativement plus liés au sol ou aux racines. Finalement, l’ensemble de l’étude a démontré que la fertilisation phosphatée affecte la structure des communautés microbiennes du sol dans les systèmes évalués. Cependant, lors de chaque expérience, la date d’échantillonnage jouait également un rôle prépondérant sur la distribution des organismes. Plusieurs paramètres du sol furent aussi mesurés et ils présentaient aussi une variation au cours de la saison. L’ensemble des interactions possibles entre ces différents paramètres qui, dans certains cas, variaient selon le traitement appliqué, aurait alors probablement plus d’impact sur la biodiversité microbienne que la seule fertilisation.
Resumo:
Les récents progrès en neuroimagerie ont permis, au cours des dernières années, de faire avancer les connaissances sur les maladies neurologiques et psychiatriques en offrant la possibilité de mieux comprendre l’évolution des maladies neurodégénératives et la nature du comportement, des émotions, de la personnalité, et de la cognition. Plusieurs défis éthiques ont émergés suite à l’utilisation de ces nouvelles technologies d’imagerie cérébrale. La perspective des chercheurs concernant les pratiques d’évaluation des protocoles de recherche en neuroimagerie ainsi que les défis éthiques, sociaux et légaux auxquels font face les chercheurs n'ont pas encore été étudiés, même s’ils constituent des acteurs clés. Nous avons entrepris une étude empirique sur les perspectives des chercheurs quant au processus d'évaluation par les comités d’éthique de la recherche (CÉR) afin d’examiner les enjeux éthiques, légaux et sociaux liés à la pratique de la neuroimagerie au Canada. Pour ce faire, nous avons expédié un questionnaire en ligne et réalisé des entrevues semi-structurées avec des chercheurs en neuroimagerie et des présidents des CÉR. Les entrevues ont été transcrites et analysées à l'aide du logiciel d'analyse qualitative Nvivo. Nos résultats ont mis en lumière plusieurs aspects éthiques légaux et sociaux suscitant une attention particulière afin de remédier aux défis actuels dans la recherche en neuroimagerie ainsi qu’au processus d’évaluation de la recherche par les CÉR. Nos données comportent également des recommandations provenant des chercheurs eux-mêmes afin d'améliorer le processus d'évaluation. Finalement, notre propre expérience avec cette étude multicentrique nous a permis de constater plusieurs des défis mentionnés par les chercheurs.
Resumo:
Depuis la dernière décennie, les outils technologiques et informatiques ont connu un essor considérable dans plusieurs sphères d’activité de la société. L’éducation n’y a pas échappé, et le ministère de l’Éducation, du Loisir et du Sport (MELS) en a d’ailleurs fait une compétence transversale dans le cadre du Programme de formation de l’école québécoise. L’intégration des TIC s’est faite à travers différents moyens, à commencer par les laboratoires informatiques, les ordinateurs à même la salle de classe et, plus récemment, par l’introduction de projets portables où chaque élève et l’enseignant disposent de leur propre ordinateur. Afin d’être mené à terme, ce projet de recherche a été inscrit dans un projet à plus grande échelle, soit celui d’une recherche financée par le Conseil de recherches en sciences humaines du Canada (CRSH), qui a pour objectif d'analyser les obstacles auxquels font face les enseignants dans l'intégration des technologies à l'école. Le présent projet s'est quant à lui attardé plus spécifiquement aux défis technologiques et pédagogiques inhérents aux projets portables. L’étude s'est déroulée en milieu défavorisé, dans une école primaire montréalaise. Une telle intégration demande une planification rigoureuse et un suivi continu afin d’assurer le succès du projet. De plus, il est évident que ce type de projet pose aussi des défis technologiques et pédagogiques particuliers pour les enseignants. À ce sujet, trois catégories de facteurs qui peuvent avoir un impact sur la réussite des projets portables ont été relevées, soit : les facteurs personnels (internes à l’enseignant), les facteurs relatifs au travail (contexte d'enseignement, pratiques pédagogiques, etc.), ainsi que les facteurs relatifs au matériel et à l’infrastructure. À l’intérieur de ce mémoire, différents concepts, dimensions et indicateurs sont donc explicités et mis en relation afin de mieux comprendre les défis technologiques et pédagogiques qui peuvent survenir dans le cadre de la mise en oeuvre de projets portables. Trois enseignantes rattachées à autant de groupes d’élèves ont accepté de participer à une entrevue individuelle et de répondre à un questionnaire. Les échanges par courriel ont aussi été analysés. L'ensemble des données recueillies ont fait l'objet d'analyses qualitatives. Les analyses ont montré que la catégorie de facteurs citée la plus fréquemment était celle des facteurs relatifs au travail avec une forte majorité. Des défis ont toutefois été identifiés pour toutes les dimensions.
Resumo:
La complexité de l’étude des neuropathies héréditaires provient de leur hétérogénéité clinique et génétique et de la diversité des fibres composant les nerfs périphériques. Cette complexité se reflète dans les nombreuses classifications différentes. Les neuropathies héréditaires se classifient entre autres selon leur mode de transmission et leur atteinte sensitive, autonomique et motrice. Les neuropathies héréditaires sensitives et autonomiques (NHSA) se présentent avec une perte de la sensation distale aux membres, accompagnée d’autres manifestations selon le type de NHSA. L’étude des NHSA est facilitée lorsqu’il existe des grappes de familles originaires de régions du Québec où des effets fondateurs pour des maladies récessives ont déjà été identifiés. Nous avons recruté une grande famille canadienne-française originaire de Paspébiac dans la Baie-des-Chaleurs dans laquelle nous avons identifié quatre cas atteints d’une neuropathie héréditaire sensitive avec rétinite pigmentaire et ataxie (NHSRPA). Nous avons émis l’hypothèse que nous étions en présence d’une nouvelle forme de neuropathie héréditaire sensitive récessive à effet fondateur. Afin d’identifier la position chromosomique du gène muté responsable de la NHSRPA, nous avons tout d’abord complété un criblage du génome en génotypant des marqueurs microsatellites «single tandem repeat» (STR) sur des individus clés et nous avons ensuite procédé à une analyse de liaison génétique paramétrique. Ces études nous ont permis de lier cette famille au chromosome 1 et de définir un premier intervalle candidat de 6,7 Mb. Grâce à un génotypage de marqueurs «single nucleotide polymorphism» (SNP), nous avons réduit l’intervalle candidat à 5,3 Mb au locus 1q32,2-q32,3. Cette région contient 44 gènes candidats. Une revue plus fine de la littérature a fait ressortir qu’une famille espagnole et une américaine de souche hollandaise souffrant de la même maladie avaient déjà été liées au même locus. L’origine possiblement basque de notre famille gaspésienne nous a poussé à comparer l’haplotype porteur avec celui de la famille espagnole qui, quoi que gitane, provient du pays basque espagnol. Ces travaux ont démontré le partage d’une région de 203 kb. Afin de rétrécir davantage notre intervalle candidat, nous avons comparé les haplotypes des cas entre les deux familles et nous avons identifié un dernier intervalle candidat de 60 SNP au locus 1q32,3. Cette région ne contient que quatre gènes candidats dont le plus intéressant est le gène «activating transcription factor» (ATF3). À ce jour, aucune mutation n’a été trouvée dans le gène ATF3 et les gènes FAM71A, BATF3 et NSL1. Des expériences supplémentaires sont nécessaires afin d’identifier le gène muté responsable de la NHSRPA.
Resumo:
Le présent mémoire traite de la nécessité pour le législateur d'instituer des règles permettant aux personnes adoptées de connaître leurs origines. Puisées à travers diverses disciplines telles que l'histoire, l'anthropologie, la sociologie et la psychologie, des connaissances rendent compte des empreintes conscientes et inconscientes laissées chez l'enfant par les parents de naissance. Le besoin de développer son individualité et d'atteindre son plein épanouissement implique que la personne adoptée puisse bénéficier des repères identitaires masqués par le secret des origines. L'accès aux dossiers judiciaires et administratifs de son adoption permet de recouvrer des informations nécessaires au processus d'auto-définition et de d'auto-réalisation de la personne adoptée. Or, les mécanismes de l'adoption au Québec s'avèrent insuffisants pour pallier aux situations actuelles qui ont évolué depuis que le législateur québécois a introduit l'adoption légale en 1924. L'adoption sans rupture du lien d'origine et la délégation judiciaires de l'autorité parentale aux membres de la famille de naissance comptent parmi les dispositifs à intégrer, pour l'un, et à réaménager, pour l'autre, dans l'attente d'une levée inconditionnelle du secret des origines pour la personne adoptée majeure dans toute situation.
Resumo:
La matière sombre est un mystère dans le domaine de l’astrophysique depuis déjà plusieurs années. De nombreuses observations montrent que jusqu’à 85 % de la masse gravitationnelle totale de l’univers serait composée de cette matière de nature inconnue. Une théorie expliquant cette masse manquante considérerait les WIMPs (Weakly Interacting Massive Particles), particules stables, non chargées, prédites par des extensions du modèle standard, comme candidats. Le projet PICASSO (Projet d’Identification des CAndidats Supersymétriques à la matière Sombre) est une expérience qui tente de détecter directement le WIMP. Le projet utilise des détecteurs à gouttelettes de fréon (C4F10) surchauffées. La collision entre un WIMP et le noyau de fluor crée un recul nucléaire qui cause à son tour une transition de phase de la gouttelette liquide à une bulle gazeuse. Le bruit de ce phénomène est alors capté par des senseurs piézoélectriques montés sur les parois des détecteurs. Le WIMP n’est cependant pas la seule particule pouvant causer une telle transition de phase. D’autres particules environnantes peuvent former des bulles, telles les particules alpha où même des rayons gamma . Le système d’acquisition de données (DAQ) est aussi en proie à du bruit électronique qui peut être enregistré, ainsi que sensible à du bruit acoustique extérieur au détecteur. Finalement, des fractures dans le polymère qui tient les gouttelettes en place peut également causer des transitions de phase spontanées. Il faut donc minimiser l’impact de tous ces différents bruit de fond. La pureté du matériel utilisé dans la fabrication des détecteurs devient alors très importante. On fait aussi appel à des méthodes qui impliquent l’utilisation de variables de discrimination développées dans le but d’améliorer les limites d’exclusion de détection du WIMP.
Resumo:
La réforme des secteurs de sécurité est au cœur du processus de reconstruction postconflictuelle et du rétablissement de l’État de droit. Souvent implantées par des acteurs internationaux, ces réformes sont nécessaires au développement socio-économique des sociétés sortant de conflit. L’objectif premier de ce travail est d’établir si la coordination des forces militaires et policières internationales a une influence sur la réussite de la réforme des secteurs de sécurité dans le cadre des missions de paix de l’ONU. L'hypothèse de départ est la suivante : la coordination entre les policiers et les militaires sur le terrain, facilitée par la coopération entre les composantes policières et militaires du Département des opérations de maintien de la paix de l'ONU (DOMP), favorise le succès de la RSS. C’est la culture bureaucratique de l’ONU qui influencera la qualité et le degré de coopération entre les composantes policières et militaires du DOMP. Cela sera vérifié à travers l’étude en deux temps de l’aide internationale apportée à la réforme des secteurs de sécurité en Haïti de 1993 à 1997, puis de 2004 à aujourd’hui. La qualité de la coordination entre policiers et militaires dépend de facteurs internes à la mission plutôt que des initiatives mises de l’avant par les quartiers généraux de l’ONU. De plus, la coordination militaropolicière sur le terrain facilite certains aspects de la réforme des secteurs de sécurité, comme la professionnalisation des forces policières locales et le rétablissement de la sécurité.
Resumo:
L’architecture au sens strict, qui renvoie à la construction, n’est pas indépendante des déterminations mentales, des images et des valeurs esthétiques, comme références, amenées par divers champs d’intérêt au problème du sens. Elle est, de par ce fait, un objet d’interprétation. Ce qu’on appelle communément « signification architecturale », est un univers vaste dans lequel sont constellées des constructions hypothétiques. En ce qui nous concerne, il s’agit non seulement de mouler la signification architecturale selon un cadre et des matières spécifiques de référence, mais aussi, de voir de près la relation de cette question avec l’attitude de perception de l’homme. Dans l’étude de la signification architecturale, on ne peut donc se détacher du problème de la perception. Au fond, notre travail montrera leur interaction, les moyens de sa mise en œuvre et ce qui est en jeu selon les pratiques théoriques qui la commandent. En posant la question de l’origine de l’acte de perception, qui n’est ni un simple acte de voir, ni un acte contemplatif, mais une forme d’interaction active avec la forme architecturale ou la forme d’art en général, on trouve dans les écrits de l’historien Christian Norberg-Schulz deux types de travaux, et donc deux types de réponses dont nous pouvons d’emblée souligner le caractère antinomique l’une par rapport à l’autre. C’est qu’il traite, dans le premier livre qu’il a écrit, Intentions in architecture (1962), connu dans sa version française sous le titre Système logique de l’architecture (1974, ci-après SLA), de l’expression architecturale et des modes de vie en société comme un continuum, défendant ainsi une approche culturelle de la question en jeu : la signification architecturale et ses temporalités. SLA désigne et représente un système théorique influencé, à bien des égards, par les travaux de l’épistémologie de Jean Piaget et par les contributions de la sémiotique au développement de l’étude de la signification architecturale. Le second type de réponse sur l’origine de l’acte de perception que formule Norberg-Schulz, basé sur sur les réflexions du philosophe Martin Heidegger, se rapporte à un terrain d’étude qui se situe à la dérive de la revendication du fondement social et culturel du langage architectural. Il lie, plus précisément, l’étude de la signification à l’étude de l’être. Reconnaissant ainsi la primauté, voire la prééminence, d’une recherche ontologique, qui consiste à soutenir les questionnements sur l’être en tant qu’être, il devrait amener avec régularité, à partir de son livre Existence, Space and Architecture (1971), des questions sur le fondement universel et historique de l’expression architecturale. Aux deux mouvements théoriques caractéristiques de ses écrits correspond le mouvement que prend la construction de notre thèse que nous séparons en deux parties. La première partie sera ainsi consacrée à l’étude de SLA avec l’objectif de déceler les ambiguïtés qui entourent le cadre de son élaboration et à montrer les types de legs que son auteur laisse à la théorie architecturale. Notre étude va montrer l’aspect controversé de ce livre, lié aux influences qu’exerce la pragmatique sur l’étude de la signification. Il s’agit dans cette première partie de présenter les modèles théoriques dont il débat et de les mettre en relation avec les différentes échelles qui y sont proposées pour l’étude du langage architectural, notamment avec l’échelle sociale. Celle-ci implique l’étude de la fonctionnalité de l’architecture et des moyens de recherche sur la typologie de la forme architecturale et sur sa schématisation. Notre approche critique de cet ouvrage prend le point de vue de la recherche historique chez Manfredo Tafuri. La seconde partie de notre thèse porte, elle, sur les fondements de l’intérêt chez Norberg-Schulz à partager avec Heidegger la question de l’Être qui contribuent à fonder une forme d’investigation existentielle sur la signification architecturale et du problème de la perception . L’éclairage de ces fondements exige, toutefois, de montrer l’enracinement de la question de l’Être dans l’essence de la pratique herméneutique chez Heidegger, mais aussi chez H. G. Gadamer, dont se réclame aussi directement Norberg-Schulz, et de dévoiler, par conséquent, la primauté établie de l’image comme champ permettant d’instaurer la question de l’Être au sein de la recherche architecturale. Sa recherche conséquente sur des valeurs esthétiques transculturelles a ainsi permis de réduire les échelles d’étude de la signification à l’unique échelle d’étude de l’Être. C’est en empruntant cette direction que Norberg-Schulz constitue, au fond, suivant Heidegger, une approche qui a pour tâche d’aborder l’« habiter » et le « bâtir » à titre de solutions au problème existentiel de l’Être. Notre étude révèle, cependant, une interaction entre la question de l’Être et la critique de la technique moderne par laquelle l’architecture est directement concernée, centrée sur son attrait le plus marquant : la reproductibilité des formes. Entre les écrits de Norberg-Schulz et les analyses spécifiques de Heidegger sur le problème de l’art, il existe un contexte de rupture avec le langage de la théorie qu’il s’agit pour nous de dégager et de ramener aux exigences du travail herméneutique, une approche que nous avons nous-même adoptée. Notre méthode est donc essentiellement qualitative. Elle s’inspire notamment des méthodes d’interprétation, de là aussi notre recours à un corpus constitué des travaux de Gilles Deleuze et de Jacques Derrida ainsi qu’à d’autres travaux associés à ce type d’analyse. Notre recherche demeure cependant attentive à des questions d’ordre épistémologique concernant la relation entre la discipline architecturale et les sciences qui se prêtent à l’étude du langage architectural. Notre thèse propose non seulement une compréhension approfondie des réflexions de Norberg-Schulz, mais aussi une démonstration de l’incompatibilité de la phénoménologie de Heidegger et des sciences du langage, notamment la sémiotique.
Resumo:
Cette thèse porte sur le rapport université/entreprise au Mexique après 1990. Il s’agit d’une étude de cas sur l’Université Nationale Autonome du Mexique (UNAM), la plus grande université mexicaine et la plus importante institution productrice de connaissances scientifiques au pays. À partir de 1988, l’introduction au Mexique d’une économie du marché a été le point de départ des nombreux changements politiques et économiques qui ont modifié les conditions d’exploitation des organisations et des institutions au pays. Ainsi, depuis 1990, le nouveau contexte politique et économique du Mexique a modifié les politiques gouvernementales vers les institutions publiques y compris celles de la santé et de l’éducation. Pour ce qui est des universités publiques mexicaines, ces politiques ont réduit leur financement et leur ont demandé une participation plus active à l’économie nationale, par la production de connaissances pouvant se traduire en innovation dans le secteur de la production. Ces nouvelles conditions économiques et politiques constituent des contingences auxquelles les universitaires font face de diverses façons, y compris l’établissement des relations avec les entreprises, comme le prescrivent les politiques du gouvernement fédéral élaborées sur la base des recommandations de l’OCDE. En vue de contribuer à la connaissance des relations université/entreprise développées au Mexique, nous avons réalisé notre étude de cas fondée sur une approche méthodologique qualitative à caractère exploratoire qui a recueilli des données provenant de sources documentaires et perceptuelles. Nous avons encadré notre recherche du point de vue de l’organisation par la théorie de la contingence, et pour l’analyse de la production de la connaissance sur la base des modèles de la Triple hélice et du Mode 2. Différents documents de sources diverses, y compris l’Internet, ont été consultés pour l’encadrement des rapports université/entreprise au Mexique et à l’UNAM. Les sources perceptuelles ont été 51 entrevues semi-structurées auprès de professeurs et de chercheurs à temps plein ayant établi des rapports avec des entreprises (dans les domaines de la biomédecine, la biotechnologie, la chimie et l’ingénierie) et de personnes ayant un rôle de gestion dans les rapports des entreprises avec l’institution. Les données recueillies ont montré que la politique de l’UNAM sur les rapports université/entreprise a été aussi flottante que la structure organisationnelle soutenant sa création et formalisation. Toutes sortes d’entreprises, publiques ou privées collaborent avec les chercheurs de l’UNAM, mais ce sont les entreprises parastatales et gouvernementales qui prédominent. À cause du manque d’infrastructure scientifique et technologique de la plupart des entreprises au Mexique, les principales demandes adressées à l’UNAM sont pour des services techniques ou professionnels qui aident les entreprises à résoudre des problèmes ponctuels. Le type de production de connaissance à l’UNAM continue d’être celui du Mode 1 ou traditionnel. Néanmoins, particulièrement dans le domaine de la biotechnologie, nous avons identifié certains cas de collaboration plus étroite qui pointaient vers l’innovation non linéaire proposée par le Mode 2 et la Triple hélice. Parmi les principaux avantages découlant des rapports avec les entreprises les interviewés ont cité l’obtention de ressources additionnelles pour la recherche, y compris de l’équipement et des fonds pour les bourses d’étudiants, mais souvent ils ont observé que l’un des plus gros avantages était la connaissance qu’ils obtenaient des contacts avec les firmes et le sens du réel qu’ils pouvaient intégrer dans la formation des étudiants. Les programmes gouvernementaux du CONACYT pour la science, la technologie et l’innovation ne semblent pas réussir à renforcer les rapports entre les institutions génératrices de la connaissance et le secteur de la production du Mexique.
Resumo:
De nous jours, les modèles se référant aux comportements individuels représentent la pensée dominante pour comprendre les choix alimentaires dans le domaine de la nutrition en santé publique. Ces modèles conceptualisent les choix alimentaires comme un comportement de consommation décidé de façon rationnelle par des individus, en réponse aux multiples déterminants personnels et environnementaux. Même si ces modèles sont utiles pour décrire les déterminants des comportements individuels d’alimentation, ils ne peuvent expliquer les choix alimentaires en tant que processus social façonné en fonction des individus et des lieux, dans des contextes diversifiés. Cette thèse élabore le Cadre Conceptuel sur la Pratique des Choix Alimentaires afin d’explorer les choix alimentaires comme phénomène social. En utilisant le concept de pratique sociale, les choix alimentaires des individus symbolisent une relation récursive entre la structure sociale et l’agence. Ce cadre conceptuel nous donne un moyen d’identifier les choix alimentaires comme des activités sociales modelées sur la vie de tous les jours et la constituant. Il offre des concepts pour identifier la manière dont les structures sociales renforcent les activités routinières menant aux choix alimentaires. La structure sociale est examinée en utilisant les règles et les ressources de Giddens et est opérationnalisée de la façon suivante : systèmes de significations partagées, normes sociales, ressources matérielles et ressources d'autorité qui permettent ou empêchent les choix alimentaires désirés. Les résultats empiriques de deux études présentées dans cette thèse appuient la proposition que les choix alimentaires sont des pratiques sociales. La première étude examine les pratiques de choix alimentaires au sein des familles. Nous avons identifié les choix alimentaires comme cinq activités routinières distinctes intégrées dans la vie familiale de tous les jours à partir d’analyses réalisées sur les activités d’alimentation habituelles de 20 familles avec de jeunes enfants. Notre seconde étude a élaboré les règles et les ressources des pratiques alimentaires à partir des familles de l’étude. Ensuite, nous avons analysé la façon dont les règles et les ressources pouvaient expliquer les pratiques de choix alimentaires qui sont renforcées ou limitées au sein des familles lors de la routine spécifique à la préparation des repas et de la collation. Les ressources matérielles et d'autorité suffisantes ont permis d’expliquer les pratiques de choix alimentaires qui étaient facilitées, alors que les défis pouvaient être compris comme etant reliés à des ressources limitées. Les règles pouvaient empêcher ou faciliter les pratiques de choix alimentaires par l’entremise de normes ou de significations associées à la préparation de repas. Les données empiriques provenant de cette thèse appuient les choix alimentaires comme étant des activités routinières qui sont structurées socialement et qui caractérisent les familles. Selon la théorie de la structuration de Giddens, les pratiques routinières qui persistent dans le temps forment les institutions sociales. Ainsi, les pratiques routinières de choix alimentaires façonnent les styles d’habitudes alimentaires familiales et contribuent par ailleurs à la constitution des familles elles-mêmes. Cette compréhension identifie de nouvelles directions concernant la façon dont les choix alimentaires sont conceptualisés en santé publique. Les programmes de promotion de la santé destinés à améliorer la nutrition sont des stratégies clés pour prévenir les maladies chroniques et pour améliorer la santé populationnelle. Les choix alimentaires peuvent être abordés comme des activités partagées qui décrivent des groupes sociaux et qui sont socialement structurés par des règles et des ressources présentes dans les contextes de pratiques de choix alimentaires.
Resumo:
Ce mémoire contient un article ayant été soumis à la Revue de Psychoéducation. Cet article a été rédigé avec comme co-auteur Michel Janosz